Recherche avancée

Médias (1)

Mot : - Tags -/copyleft

Autres articles (59)

  • Le plugin : Podcasts.

    14 juillet 2010, par

    Le problème du podcasting est à nouveau un problème révélateur de la normalisation des transports de données sur Internet.
    Deux formats intéressants existent : Celui développé par Apple, très axé sur l’utilisation d’iTunes dont la SPEC est ici ; Le format "Media RSS Module" qui est plus "libre" notamment soutenu par Yahoo et le logiciel Miro ;
    Types de fichiers supportés dans les flux
    Le format d’Apple n’autorise que les formats suivants dans ses flux : .mp3 audio/mpeg .m4a audio/x-m4a .mp4 (...)

  • De l’upload à la vidéo finale [version standalone]

    31 janvier 2010, par

    Le chemin d’un document audio ou vidéo dans SPIPMotion est divisé en trois étapes distinctes.
    Upload et récupération d’informations de la vidéo source
    Dans un premier temps, il est nécessaire de créer un article SPIP et de lui joindre le document vidéo "source".
    Au moment où ce document est joint à l’article, deux actions supplémentaires au comportement normal sont exécutées : La récupération des informations techniques des flux audio et video du fichier ; La génération d’une vignette : extraction d’une (...)

  • Librairies et binaires spécifiques au traitement vidéo et sonore

    31 janvier 2010, par

    Les logiciels et librairies suivantes sont utilisées par SPIPmotion d’une manière ou d’une autre.
    Binaires obligatoires FFMpeg : encodeur principal, permet de transcoder presque tous les types de fichiers vidéo et sonores dans les formats lisibles sur Internet. CF ce tutoriel pour son installation ; Oggz-tools : outils d’inspection de fichiers ogg ; Mediainfo : récupération d’informations depuis la plupart des formats vidéos et sonores ;
    Binaires complémentaires et facultatifs flvtool2 : (...)

Sur d’autres sites (5854)

  • Video stream played too fast if HTTP Live Stream starts at the beginning

    22 avril 2013, par monkeymad2

    Bit of an odd problem this, I'm building a server that Transcodes video and streams it to the WiiU.

    The WiiU seems to have quite good support of HTTP Live Streams, but I'm running into a problem where the video stream will play about x3 faster than intended (the audio plays at normal rate).

    I'd figure something was up with my ffmpeg command, but if I let the stream run (so the first segment grabbed by the WiiU isn't actually the first segment) before I actually connect to it the WiiU will play the video at the normal rate !

    Here's the ffmpeg command I've been using (post-shlex breakup) :

    ['./ffmpeg', '-threads', '4', '-i', '../../Torrents/Breaking.Bad.S05E02.720p.HDTV.x264-ORENJI.mkv', '-map', '0', '-codec:v', 'libx264', '-preset', 'superfast', '-codec:a', 'aac', '-ac', '2', '-crf', '23', '-flags', '-global_header', '-strict', 'experimental', '-f', 'segment', '-segment_list', 'playlist.m3u8', '-segment_list_flags', '+live', '-segment_time', '10', 'tmp/out%03d.ts']

    And the first few lines of the .m3u8 :

    #EXTM3U
    #EXT-X-VERSION:3
    #EXT-X-MEDIA-SEQUENCE:0
    #EXT-X-ALLOWCACHE:1
    #EXT-X-TARGETDURATION:10
    #EXTINF:11.761756,
    tmp/out000.ts
    #EXTINF:8.591911,
    tmp/out001.ts
    #EXTINF:18.810467,
    tmp/out002.ts
    #EXTINF:7.841178,
    ...

    (PS, VLC + Safari can play the stream file.)

    Any ideas what's happening ?

    If it's a bug I have to work around rather than solve, any recommendations ?

    Just tested starting the stream with a dummy.ts file (knowing it wont be read as the wiiu only reads the last 3 files in live mode) it still had the speedup, implying that it's something ffmpeg is putting in the first file (and only the first file...)

  • How to install ffmpeg in ubuntu 12.04 ? [on hold]

    14 août 2013, par Dhaval

    I have used ubuntu 12.04 and i want to use ffmpeg for thumbnail image for flv file but not install in my machine and also php.ini file.

  • How to write a Live555 FramedSource to allow me to stream H.264 live

    22 juillet 2015, par Garviel

    I’ve been trying to write a class that derives from FramedSource in Live555 that will allow me to stream live data from my D3D9 application to an MP4 or similar.

    What I do each frame is grab the backbuffer into system memory as a texture, then convert it from RGB -> YUV420P, then encode it using x264, then ideally pass the NAL packets on to Live555. I made a class called H264FramedSource that derived from FramedSource basically by copying the DeviceSource file. Instead of the input being an input file, I’ve made it a NAL packet which I update each frame.

    I’m quite new to codecs and streaming, so I could be doing everything completely wrong. In each doGetNextFrame() should I be grabbing the NAL packet and doing something like

    memcpy(fTo, nal->p_payload, nal->i_payload)

    I assume that the payload is my frame data in bytes ? If anybody has an example of a class they derived from FramedSource that might at least be close to what I’m trying to do I would love to see it, this is all new to me and a little tricky to figure out what’s happening. Live555’s documentation is pretty much the code itself which doesn’t exactly make it easy for me to figure out.