Recherche avancée

Médias (91)

Autres articles (103)

  • Personnaliser en ajoutant son logo, sa bannière ou son image de fond

    5 septembre 2013, par

    Certains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

Sur d’autres sites (9626)

  • FFMPEG convert .avi into playable iOS movie mp4

    8 janvier 2016, par Julien Klindt

    I’m trying to convert an avi file which is h264 encoded baseline4.0 to a new h264 mpeg file that is encoded with baseline3.

    The file original file is not playable on any iOS device, due to baseline4.0 (I think ?)

    I’m using this wrapper class here https://github.com/OpenWatch/FFmpegWrapper

    but actually I have no clue how to set baseline. I can convert to mpeg4, but it seems that defaults everytime to baseline4.0.

    I tried to set it on the AVCodecContext

    AVCodecContext *outputCodecContext = outputStream->codec;
    outputCodecContext->level = 31;
    outputCodecContext->profile = FF_PROFILE_H264_BASELINE;

    but this has no effect.

    Perhaps anybody has a clue, or has a better FFMPEGWrapper.

    Specs from original video :
    original video

  • Errors configuring ffmpeg on OS X El Capitan 10.11.1

    5 mars 2016, par Brian J

    I am trying to install ffmpeg so that I can convert .mp4 files to .ogv files. I have tried using Homebrew and downloading source from ffmpeg.org. I get the same errors either way and I don’t even have a clue what the fundamental problem might be.

    I have followed the sample from https://trac.ffmpeg.org/wiki/CompilationGuide/MacOSX. Here’s what I run in the shell :

    git clone git://source.ffmpeg.org/ffmpeg.git ffmpeg
    cd ffmpeg
    ./configure  --prefix=/usr/local --enable-gpl --enable-nonfree --enable-libass \
    --enable-libfdk-aac --enable-libfreetype --enable-libmp3lame --enable-libopus \
    --enable-libtheora --enable-libvorbis --enable-libvpx --enable-libx264 --enable-libxvid
    make && sudo make install

    And here’s the error :

    ERROR: libmp3lame >= 3.98.3 not found

    But I have lame installed. Running :

    brew install lame

    returns :

    Warning: lame-3.99.5 already installed

    So apparently ffmpeg can’t find my lame installation ? I tried configuring ffmpeg with out --enable-libmp3lame

    ./configure  --prefix=/usr/local --enable-gpl --enable-nonfree --enable-libass \
    --enable-libfdk-aac --enable-libfreetype --enable-libopus  --enable-libtheora \
    --enable-libvorbis --enable-libvpx --enable-libx264 --enable-libxvid

    But then I get the error :

    ERROR: libtheora not found

    But I have already installed theora via homebrew :

    Warning: theora-1.1.1 already installed

    For what it’s worth I had no trouble installing everything on a Mac running Yosemite. If any of you can help out at all, I’d really appreciate it. I’m at a total loss here.

  • how to deal with live raw h264 stream to send over network

    3 novembre 2015, par jinhwan

    what I want to do is that send live camera stream which is encoded by h264 to gstreamer. I already have seen many example which send over network by using rtp and mpeg-ts. But problem is that all those examples assume that the input will be served by fixed file or live stream which is already transcoded in transport portocol like below.

    client :
    gst-launch-1.0 videotestsrc horizontal-speed=5 ! x264enc tune="zerolatency" threads=1 ! mpegtsmux ! tcpserversink host=192.168.0.211 port=8554

    server : gst-launch-1.0 tcpclientsrc port=8554 host=192.168.0.211 ! tsdemux ! h264parse ! avdec_h264 ! xvimagesink

    But, My camera offer the below interface (written in java, actually work on adnroid). The interface offer just live raw h264 blocks.

    mReceivedVideoDataCallBack=newDJIReceivedVideoDataCallBack(){
       @Override
       public void onResult(byte[] videoBuffer, int size)
       {
    }

    I can create tcp session to send those data block. But, how can i make those data which is not packed in transport protocol into format which is understable by gstreamer tcpclient ?
    Transcode the original stream in ts format in the camera side can be a solution. But i have no clue to do transcode from non-file and non-transport-format data. I have searched gstreamer and ffmpeg, But I could not derive a way to deal h264 block stream using the supported interface, unitl now.
    Or, Are there any way to make gstreamer to directly accept those simple raw h264 block ?