Recherche avancée

Médias (0)

Mot : - Tags -/page unique

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (31)

  • Utilisation et configuration du script

    19 janvier 2011, par

    Informations spécifiques à la distribution Debian
    Si vous utilisez cette distribution, vous devrez activer les dépôts "debian-multimedia" comme expliqué ici :
    Depuis la version 0.3.1 du script, le dépôt peut être automatiquement activé à la suite d’une question.
    Récupération du script
    Le script d’installation peut être récupéré de deux manières différentes.
    Via svn en utilisant la commande pour récupérer le code source à jour :
    svn co (...)

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

  • Support de tous types de médias

    10 avril 2011

    Contrairement à beaucoup de logiciels et autres plate-formes modernes de partage de documents, MediaSPIP a l’ambition de gérer un maximum de formats de documents différents qu’ils soient de type : images (png, gif, jpg, bmp et autres...) ; audio (MP3, Ogg, Wav et autres...) ; vidéo (Avi, MP4, Ogv, mpg, mov, wmv et autres...) ; contenu textuel, code ou autres (open office, microsoft office (tableur, présentation), web (html, css), LaTeX, Google Earth) (...)

Sur d’autres sites (4738)

  • iOS - How can I stream Encoded Video Frames(from AVFoundation and VideoToolBox) from device to server via RTP

    2 octobre 2015, par ASP Peek

    I am trying to stream live video from my iPhone device to server using RTP.
    Using AVFoundation’s AVCaptureVideoDataOutput, I was able to get CMSampleBuffer for video. I then feed these frames as they arrive into VideoToolBox’s VTCompressionSessionEncodeFrame() and is able to get Encoded CMSampleBuffer.

    Now to send these encoded Frames via RTP, I came across FFMPEG and found its built library for iOS device. (https://github.com/kewlbear/FFmpeg-iOS-build-script)

    However I am not able to find any iOS example or sample code or any documentation that explains the process of sending the encoded frames via RTP for iOS apps.

    Is there any existing example or documentation that can explain me how can I send the encoded CMSampleBuffers to server via RTP using FFMPEG.

    Thanks in Advance :)

  • FFMpeg - Segment audio to chunks

    8 mars 2015, par fr3sh

    I have tried this example in order to segment a given video file using ffmpeg into an m3u8 file and smaller chunks (.ts files). This actually worked great. Is it possible to do practically the same thing with audio input ?
    This was my most promising approach so far (capturing live audio on Windows OS) :

    ffmpeg -f dshow -i audio="<name of="of" input="input" device="device">" -acodec libmp3lame -ab 64000 | segmenter - 10 stream stream.m3u8 http:///stream/stream/ 5 1
    </name>

    But this returns this error :

    At least one output file must be specified.
    Could not open input file, make sure it is an mpegts file: -1

    I really would not know how to convert the live audio stream to an mpegts file.
    Could anyone please give me a hint ?

    Thanks a lot

  • Usage FFmpeg command to capture video from Apple device camera and to get 3 outputs with different resolutions (UHD, FHD, HD)

    12 décembre 2019, par Levon Gharibyan

    I use mobile-FFmpeg to execute FFmpeg commands (https://github.com/tanersener/mobile-ffmpeg).

    I am using AVFoundation, and trying to get 3 output files (3840x2160, 1920x1080 and 1280x720) from device camera.
    Here is the command :

    -f videotoolbox -f avfoundation -video_size 3840x2160 -r 30 -pixel_format nv12 -i "0:0"  -c:v h264_videotoolbox -b:v 8M -maxrate 8M -s 3840x2160 output1/path -c:v h264_videotoolbox -b:v 8M -maxrate 8M -s 1920x1080 output2/path -c:v h264_videotoolbox -b:v 8M -maxrate 8M -s 1280x720 output3/path

    But the encoding process is very slow (0.3x-0.4x speed) with that command and as a result, I can’t record realtime 30fps outputs. What am I doing wrong ? All my tests were done on the iPhone 7.