
Recherche avancée
Médias (1)
-
Collections - Formulaire de création rapide
19 février 2013, par
Mis à jour : Février 2013
Langue : français
Type : Image
Autres articles (16)
-
Participer à sa traduction
10 avril 2011Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
Actuellement MediaSPIP n’est disponible qu’en français et (...) -
Emballe médias : à quoi cela sert ?
4 février 2011, parCe plugin vise à gérer des sites de mise en ligne de documents de tous types.
Il crée des "médias", à savoir : un "média" est un article au sens SPIP créé automatiquement lors du téléversement d’un document qu’il soit audio, vidéo, image ou textuel ; un seul document ne peut être lié à un article dit "média" ; -
Support audio et vidéo HTML5
10 avril 2011MediaSPIP utilise les balises HTML5 video et audio pour la lecture de documents multimedia en profitant des dernières innovations du W3C supportées par les navigateurs modernes.
Pour les navigateurs plus anciens, le lecteur flash Flowplayer est utilisé.
Le lecteur HTML5 utilisé a été spécifiquement créé pour MediaSPIP : il est complètement modifiable graphiquement pour correspondre à un thème choisi.
Ces technologies permettent de distribuer vidéo et son à la fois sur des ordinateurs conventionnels (...)
Sur d’autres sites (3571)
-
ffmpeg command line to c++ conversion
13 février 2015, par Yonghao ZhaoI currently involved in a project of real time video transmission. Recently I touched ffmpeg but still very nooby. I notice the ffmpeg command line is very powerful and the functions are just what I want. Here is a file of ffmpeg command line of performing real time video transmission.
http://www.wu.ece.ufl.edu/projects/wirelessVideo/project/realTimeCoding/download/doc/howto.pdf
Can anyone advise how can I get the corresponding c++ code for these command line ? I want to do a c++ program to realize these functions. -
Processing a video stream over websocket with opencv
25 avril 2019, par Patrick ConnorsI’m trying to stream video over a websocket and process it server-side with Node.JS. The client is reading from a video file (.mp4) and sending it over the web socket via a stream object. However, I’m having trouble extracting frames from the stream at the server so it can be processed by
opencv
.Do I need to break the video up into frames and stream each individual frame ? What format can
opencv
most easily process in real time ?The end goal here is to enable
opencv
to process each frame of a video (in real time) that is being received by the server. Think I’m having some trouble understanding the paradigm here. -
FFmpegFrameRecorder creates video with duration less than last frame timestamp
25 février 2016, par DenisI use FFmpegFrameRecorder (javaCV 1.1) to create video fragments with max duration of 30 seconds from screenshots, which I get from MediaProjection on Android. In each video fragment first frame has timestamp 0.
I have the following recorder settings :FFmpegFrameRecorder mRecorder;
//...
mRecorder.setFormat("mp4");
mRecorder.setFrameRate(30);
mRecorder.setVideoCodec(AvCodecConstants.CODEC_ID_H264);
mRecorder.setGopSize(10);MediaProjection gives me next screenshot only when there are changes on the screen, so frames are recorded irregularly. When it is time to close current video fragment, usually the last recorded frame has timestamp smaller than 30 seconds. I found only one way to get video fragment of exactly 30 seconds – I record last real frame several times. As I understand, if first frame has timestamp 0, video duration must be equal to last frame timestamp + last frame duration. For example, if last real frame has timestamp 27.5 sec, I record this frame with timestamps 28.5 sec, 29.5 sec, 29.966 sec. This approach works perfectly with mpeg4 codec, but with H264 codec result video duration is much smaller than last frame timestamp. For example, for one of video fragments video duration (determined by exiftool and mp4parser) is 28.7 sec and last frame has timestamp 29.966 sec and pkt_duration_time = 0.033333 sec (determined by ffprobe).
So I can’t create video of specified duration using FFmpegFrameRecorder with H264 codec. Is it a bug in FFmpegFrameRecorder (when using H264 codec) or am I missing something ? May be, there is a way to set duration for last frame instead of recording the last real frame with different timestamps ?