Recherche avancée

Médias (91)

Autres articles (27)

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

  • Support audio et vidéo HTML5

    10 avril 2011

    MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
    Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
    Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
    Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

Sur d’autres sites (4075)

  • FFmpegWrapper - get exact segment start or end times ?

    21 décembre 2015, par Stefan Kendall

    Right now, I’m using FFmpegWrapper, and I watch for changes via kernel events. This gets the segments when they’re created, but I’m not sure how accurate this is.

    Really, I want to know the presentation timestamp of when the hls segment is created. Right now I capture and encode frames manually and write packets via
    FFOutputFile *outputFile;
    [_outputFile writePacket:_packet error:&error];

    So I have each frame’s presentationTimestamp, but I don’t know which frame goes to which eventual MPEG-TS segment. Once I write to the FFOutputFile, it’s a blackbox to me.

    Is there any way to know what frame will go to what segment ahead of time, or get a callback from FFmpeg when a new segment is written ?

    Exact times are ideal. Close times are better. Watching the directory for new files via kernel events is what I have right now, so any solution of that time magnitude isn’t useful.

  • Show video while saving it

    13 septembre 2022, par Mohamed Adel El-Badry

    I have a folder full of images, I need to save these images into the video while doing so I want to show the user the video being played from these images (frames). I can run two separate processes one for the saving and one for the showing but this is not what I am looking for, I want to do both in one step. If you know a solution please let me know.

    


    My code uses C++ with OpenCV but feel free to share with me any code written with any language, or event a concept.

    


    I use gStreamer, ffmpeg as well for the video generation, so I am not looking how to save a video or how to show the video I am looking for a process that can do both in one operation.

    


  • Creating a animated transiton effect slide show in FFmpeg

    19 janvier 2016, par ajay

    I am creating a slide show in FFMPEg with Images and one audio.
    The slide show created and playaing as per following cmd Command.

    ffmpeg   -f image2 -framerate 1 -loop 1 -i image%d.png -i audio.wav -s 1200x750 -t 00:00:30   foo.avi

    I need the Transition effect in the slide show so please help us.