Recherche avancée

Médias (0)

Mot : - Tags -/performance

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (55)

  • MediaSPIP Core : La Configuration

    9 novembre 2010, par

    MediaSPIP Core fournit par défaut trois pages différentes de configuration (ces pages utilisent le plugin de configuration CFG pour fonctionner) : une page spécifique à la configuration générale du squelettes ; une page spécifique à la configuration de la page d’accueil du site ; une page spécifique à la configuration des secteurs ;
    Il fournit également une page supplémentaire qui n’apparait que lorsque certains plugins sont activés permettant de contrôler l’affichage et les fonctionnalités spécifiques (...)

  • MediaSPIP v0.2

    21 juin 2013, par

    MediaSPIP 0.2 est la première version de MediaSPIP stable.
    Sa date de sortie officielle est le 21 juin 2013 et est annoncée ici.
    Le fichier zip ici présent contient uniquement les sources de MediaSPIP en version standalone.
    Comme pour la version précédente, il est nécessaire d’installer manuellement l’ensemble des dépendances logicielles sur le serveur.
    Si vous souhaitez utiliser cette archive pour une installation en mode ferme, il vous faudra également procéder à d’autres modifications (...)

  • Mise à disposition des fichiers

    14 avril 2011, par

    Par défaut, lors de son initialisation, MediaSPIP ne permet pas aux visiteurs de télécharger les fichiers qu’ils soient originaux ou le résultat de leur transformation ou encodage. Il permet uniquement de les visualiser.
    Cependant, il est possible et facile d’autoriser les visiteurs à avoir accès à ces documents et ce sous différentes formes.
    Tout cela se passe dans la page de configuration du squelette. Il vous faut aller dans l’espace d’administration du canal, et choisir dans la navigation (...)

Sur d’autres sites (7122)

  • Using FFMPEG library with iPhone SDK for video encoding

    7 août 2020, par user203349

    I need to encode several pictures shot by the iPhone camera into a mp4 video file and I know FFMPEG can do this (the application TimeLapser and ReelMoments do it already). I plan to use this in my app iMotion (available in the appstore).

    


    I successfully install and compile the ffmpeg for the iphone SDK with this link :
http://lists.mplayerhq.hu/pipermail/ffmpeg-devel/2009-October/076618.html

    


    But now I'm stuck here in my XCode project. What should I do next to use the FFMPEG library for video encoding ? The Apple documentation about external library using is very light and I just can find any tutorial on the web which explains how to do this.

    


  • Trying to stream to multiple RTMPs with tee throws : Output file #0 does not contain any stream

    27 août 2020, par user33276346

    I'm trying to stream one file to multiple rtmps. The following command streams ok to one endpoint :

    


    ffmpeg -re -stream_loop 10 -i input.mp4 -c copy -f flv rtmps://x4t-myamsacc-usct.channel.media.azure.net:2935/live/x4t/x4t


    


    This one does not :

    


    ffmpeg -re -i input.mp4 -c copy -f tee "[f=flv]rtmps://x4t-myamsacc-usct.channel.media.azure.net:2935/live/x4t/x4t"


    


    Throws this error :

    


    Output file #0 does not contain any stream


    


    Once I can do it for one, I plan to do it for more. What could I be doing wrong ? This is the console log :

    


    ffmpeg version git-2020-08-24-3477feb Copyright (c) 2000-2020 the FFmpeg developers
  built with gcc 10.2.1 (GCC) 20200805
  configuration: --enable-gpl --enable-version3 --enable-sdl2 --enable-fontconfig --enable-gnutls --enable-iconv --enable-libass --enable-libdav1d --enable-libbluray --enable-libfreetype --enable-libmp3lame --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-libopus --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libsrt --enable-libtheora --enable-libtwolame --enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx264 --enable-libx265 --enable-libxml2 --enable-libzimg --enable-lzma --enable-zlib --enable-gmp --enable-libvidstab --enable-libvmaf --enable-libvorbis --enable-libvo-amrwbenc --enable-libmysofa --enable-libspeex --enable-libxvid --enable-libaom --enable-libgsm --enable-librav1e --enable-libsvtav1 --disable-w32threads --enable-libmfx --enable-ffnvcodec --enable-cuda-llvm --enable-cuvid --enable-d3d11va --enable-nvenc --enable-nvdec --enable-dxva2 --enable-avisynth --enable-libopenmpt --enable-amf
  libavutil      56. 58.100 / 56. 58.100
  libavcodec     58.101.100 / 58.101.100
  libavformat    58. 51.100 / 58. 51.100
  libavdevice    58. 11.101 / 58. 11.101
  libavfilter     7. 87.100 /  7. 87.100
  libswscale      5.  8.100 /  5.  8.100
  libswresample   3.  8.100 /  3.  8.100
  libpostproc    55.  8.100 / 55.  8.100
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'input.mp4':
  Metadata:
    major_brand     : mp42
    minor_version   : 0
    compatible_brands: isommp42
    creation_time   : 2018-07-13T08:13:55.000000Z
  Duration: 00:02:15.49, start: 0.000000, bitrate: 368 kb/s
    Stream #0:0(und): Video: h264 (Main) (avc1 / 0x31637661), yuv420p(tv, bt709), 1280x720 [SAR 1:1 DAR 16:9], 239 kb/s, 30 fps, 30
tbr, 90k tbn, 60 tbc (default)
    Metadata:
      creation_time   : 2018-07-13T08:13:55.000000Z
      handler_name    : ISO Media file produced by Google Inc. Created on: 07/13/2018.
    Stream #0:1(eng): Audio: aac (LC) (mp4a / 0x6134706D), 44100 Hz, stereo, fltp, 125 kb/s (default)
    Metadata:
      creation_time   : 2018-07-13T08:13:55.000000Z
      handler_name    : ISO Media file produced by Google Inc. Created on: 07/13/2018.
Output #0, tee, to '[f=flv]rtmps://x4t-myamsacc-usct.channel.media.azure.net:2935/live/x4t/x4t':
Output file #0 does not contain any stream


    


  • How to create readable file stream from multiple files

    9 septembre 2020, par lowcrawler

    Related to question : Add specific image files to ffmpeg video with fluent-ffmpeg

    


    Have array of file names that reside on network shares. Would like to turn them into a timelapse video with a process on a nodejs server. I plan to use ffmpeg to do this. FFMPEG doesn't allow file lists as input (as far as I can tell). They do, however, allow a 'readable file stream'.

    


    Is there a mechanism to create a readable file stream from an array of filenames ?

    


    The command they use in the fluent-ffmpeg example is : var command = ffmpeg(fs.createReadStream('/path/to/file.avi'));

    


    ... but obviously, this is only a single file.