Recherche avancée

Médias (91)

Autres articles (28)

  • Participer à sa documentation

    10 avril 2011

    La documentation est un des travaux les plus importants et les plus contraignants lors de la réalisation d’un outil technique.
    Tout apport extérieur à ce sujet est primordial : la critique de l’existant ; la participation à la rédaction d’articles orientés : utilisateur (administrateur de MediaSPIP ou simplement producteur de contenu) ; développeur ; la création de screencasts d’explication ; la traduction de la documentation dans une nouvelle langue ;
    Pour ce faire, vous pouvez vous inscrire sur (...)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

Sur d’autres sites (4338)

  • C - FFmpeg streaming from a C program ?

    8 août 2016, par golmschenk

    I’m looking to replicate an FFmpeg command-line command in my C code. Specifically I would like to be able to run :

    ffmpeg -re -i video.mp4 -f mpegts udp://localhost:7777

    One thing I’ve noticed when looking at people’s code who have used the libraries of FFmpeg in their own code is that they often have a few hundred lines of code for a single command similar to an FFmpeg command-line command. I’m guessing this is just because they are doing something very specific, because if I can run that short command on my command line and get what I want it should probably only take about ten lines of code to do the same thing in my C code. This should only take about that much work right ? Why would it take much more ?

    I’m having a bit of difficulty finding explanations on how to use the streaming capabilities of the FFmpeg libraries that aren’t overly complex because they’re for a very specific purpose. Can anyone explain how I might go about writing the code for the above command ? Or at the very least point me to some documentation explaining how to write such a script/program ? Thank you much !

    EDIT : I do hope to run this from an iPhone app eventually so I won’t just be able to straight up call FFmpeg from my program. I’ll need to use the libraries used by FFmpeg.

  • dcaenc : update

    24 avril 2013, par Paul B Mahol
    dcaenc : update
    

    Long story short : previous code was useless and was port of older
    dcaenc, this commit just "sync" with current dcaenc, hopefuly
    making this encoder more useful.

    Signed-off-by : Paul B Mahol <onemda@gmail.com>

    • [DH] libavcodec/dcaenc.c
    • [DH] libavcodec/dcaenc.h
  • Video from VFR Image Sequence

    12 octobre 2014, par Stryker33

    I am using ffmpeg to create video from an image sequence that is taken from the Android Camera’s PreviewCallback method onPreviewFrame...

    The images are written to a pipe that is connected to ffmpeg’s stdin using the command :

    ffmpeg -f image2pipe -vcodec mjpeg -i - -f flv -vcodec libx264

    The problem that’s arising is that the output video is very short as compared to the actual recording time and all of the frames are shown very rapidly...

    But when the frame size is set to the lowest supported preview size, the video appears to be in sync with the actual recording time...

    As far as I reckon this seems to be an issue related to the frame rate of the input image sequence and that of the output video...

    But the main problem is that the frames that are generated from onPreviewFrame are of variable rates...

    Is there any way to construct a smooth video from an image sequence having variable frame rate...?

    Also, the image sequence is muxed with audio from the microphone which also appears to be out of sync with the video...

    Could the video generated using the above process and audio from the microphone be muxed in perfect synchronization...?