Recherche avancée

Médias (91)

Autres articles (78)

  • Diogene : création de masques spécifiques de formulaires d’édition de contenus

    26 octobre 2010, par

    Diogene est un des plugins ? SPIP activé par défaut (extension) lors de l’initialisation de MediaSPIP.
    A quoi sert ce plugin
    Création de masques de formulaires
    Le plugin Diogène permet de créer des masques de formulaires spécifiques par secteur sur les trois objets spécifiques SPIP que sont : les articles ; les rubriques ; les sites
    Il permet ainsi de définir en fonction d’un secteur particulier, un masque de formulaire par objet, ajoutant ou enlevant ainsi des champs afin de rendre le formulaire (...)

  • MediaSPIP version 0.1 Beta

    16 avril 2011, par

    MediaSPIP 0.1 beta est la première version de MediaSPIP décrétée comme "utilisable".
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Pour avoir une installation fonctionnelle, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Utilisation et configuration du script

    19 janvier 2011, par

    Informations spécifiques à la distribution Debian
    Si vous utilisez cette distribution, vous devrez activer les dépôts "debian-multimedia" comme expliqué ici :
    Depuis la version 0.3.1 du script, le dépôt peut être automatiquement activé à la suite d’une question.
    Récupération du script
    Le script d’installation peut être récupéré de deux manières différentes.
    Via svn en utilisant la commande pour récupérer le code source à jour :
    svn co (...)

Sur d’autres sites (6084)

  • FFMPEG Incompatible sprop-parameter-sets with libstagefright on Android 4.0 for H264

    7 août 2012, par user1582384

    I am having an issue with the RTSP SDP generated by FFMPEG in Android.
    I have the FFMPEG 0.11.1 compiled with NDK and running on Android. I use the FFSERVER to stream an mp4 file locally to the MediaPlayer.

    Here is the generated SDP description :

    08-07 14:04:04.034 : V/rtsp_server(20161) : o=- 0 0 IN IP4 127.0.0.1

    08-07 14:04:04.034 : V/rtsp_server(20161) : s=No Title

    08-07 14:04:04.034 : V/rtsp_server(20161) : c=IN IP4 0.0.0.0

    08-07 14:04:04.034 : V/rtsp_server(20161) : t=0 0

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=tool:libavformat 54.6.100

    08-07 14:04:04.034 : V/rtsp_server(20161) : m=video 0 RTP/AVP 96

    08-07 14:04:04.034 : V/rtsp_server(20161) : b=AS:312

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=x-dimensions:512,384

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=rtpmap:96 H264/90000

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=fmtp:96
    packetization-mode=0 ;profile-level-id=640015 ;sprop-parameter-sets=J2QAH62ECSZuIzSQgSTNxGaSECSZuIzSQgSTNxGaSECSZuIzSQgSTNxGaSEFWuvX1+T+vyfXrrVQgq116+vyf1+T69daq0BAGMg=,KO48sA==

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=control:streamid=0

    08-07 14:04:04.034 : V/rtsp_server(20161) : m=audio 0 RTP/AVP 97

    08-07 14:04:04.034 : V/rtsp_server(20161) : b=AS:29

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=rtpmap:97
    MPEG4-GENERIC/44100/1

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=fmtp:97
    profile-level-id=1 ;mode=AAC-hbr ;sizelength=13 ;indexlength=3 ;indexdeltalength=3 ;
    config=1208

    08-07 14:04:04.034 : V/rtsp_server(20161) : a=control:streamid=1

    Running the same application on Galaxy S2 works since it uses libopencore. But on newer devices it crashes while trying to extract the width and height from the extradata.

    So the problem is with the sprop-parameter-sets.

    My question is why does libstagefright parse the sprop-parameter-sets differently and how could the existing string be converted for compatibility ?

  • Extracting frame out of video based on time in seconds

    20 avril 2024, par Vicky

    I'm developing a web-based video editing tool where users can pause a video and draw circles or lines on it using canvas. When a user pauses the video, I retrieve the current playback time in seconds using the HTML5 video.currentTime property. I then send this time value along with the shape details to the server. On the server-side, we use FFmpeg to extract the specific paused frame from the video. The issue I'm encountering is a frame mismatch between the one displayed in the browser and the one generated in the backend using FFmpeg.

    


    I've experimented with various approaches for this process.

    


    Extracting frame based on time. Example : in this case time is 3.360 second.

    


    


    ffmpeg -i input.mp4 -ss 00:00:03.360 -frames:v 1 frame.jpg

    


    


    Converting time to frame number using the following logic : Math.round(video.currentTime * fps)

    


    


    ffmpeg -i input.mp4 -vf "select=eq(n,101)" -vsync vfr frame.jpg

    


    


    


    ffmpeg -i input .mp4 -vf "select='lt(t,3.360)lt(3.360-t,1/31.019)',setpts=N/(31.019TB)" -vsync 0 frame.jpg

    


    


    The challenge I'm facing is that sometimes the frame I see in the browser at the pause time doesn't match the one generated in the backend using FFmpeg. How can I solve this problem ? If it's an issue with currentTime, are there any other approaches I can try ?

    


  • FPV-Camera Input in Black and White / losses Color on conversion with FFMPEG [closed]

    22 décembre 2023, par LyffLyff

    so we're working on our end-of-school project and it's an FPV-Drone with an Analogue Camera on it. Plan is to send the video feed to a Raspberry Pi running an RTMP-Server from where a Phone-Application can view the live Video of the camera.

    


    To convert this analogue Data from the camera we use a USB2.0 Grabber (this one).

    


    To create the RTMP Stream from the converted USB-Input we use FFMPEG with the following command :

    


    


    fmpeg -f v4l2 -input_format yuyv422 -i /dev/video0 -c:v libx264 -crf 20 -preset ultrafast -b:v 2000k -fflags nobuffer -rtmp_live live -f flv rtmp ://192.168.8.107:554/live/stream

    


    


    It works fine, but the main problems at the moment are :

    


      

    • the video is in Black and White
B&W Image Stream
    • 


    • the stream has a delay of 10-20s depending on the network
    • 


    


    When I'm using the official Software provided by the Reseller I had the same problem, but as soon as it set PAL/BDGHI in the Settings the colour was shown correctly :

    


    Settings and Color Image in official software

    


    the video is in Black and White

    


    Does anyone know what settings there are to correctly decode the feed from the Camera and send the video with the colour over RTMP ? I don't know if this is the right place to ask this question, but I'm running out of ideas and every single decoder I have tried apart from the ones I'm currently using does not work.

    


    Any help is greatly appreciated :)