
Recherche avancée
Médias (2)
-
Granite de l’Aber Ildut
9 septembre 2011, par
Mis à jour : Septembre 2011
Langue : français
Type : Texte
-
Géodiversité
9 septembre 2011, par ,
Mis à jour : Août 2018
Langue : français
Type : Texte
Autres articles (53)
-
Personnaliser en ajoutant son logo, sa bannière ou son image de fond
5 septembre 2013, parCertains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;
-
Ecrire une actualité
21 juin 2013, parPrésentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
Vous pouvez personnaliser le formulaire de création d’une actualité.
Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...) -
Publier sur MédiaSpip
13 juin 2013Puis-je poster des contenus à partir d’une tablette Ipad ?
Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir
Sur d’autres sites (5184)
-
ffplay - how to have video and audio waveform [duplicate]
19 février 2018, par francisThis question already has an answer here :
I’ve been trying out various commands trying to figure out how to have a stack of video and audio waveform according to : https://trac.ffmpeg.org/wiki/FancyFilteringExamples#waveform
Video only :
ffplay -i abc.mp4 -vf "split[a][b];[a]waveform=e=1,split=1[c];[c]crop=in_w:16:0:0,lutyuv=y=val:v=180[high]; [b][high]vstack=2"
Audio only :
ffplay -f lavfi 'amovie=april.flac,asplit=2[out1][a]; [a]showwaves=s=640x240[waves]; [waves] vstack[out0]'
But there isn’t any that combines and shows the top half as video and bottom half as the audio waveform. Is it possible ?
-
Is there a way to store packet header information from an incoming h.264 stream ?
13 septembre 2021, par SOSparachuter1The issue : I need to convert an h.264 stream streamed over RTP into MJPEG, but for very convoluted reasons I am required to use the libjpeg-turbo library, not the mjpeg encoder that comes with ffmpeg. So the only thing FFMPEG needs to do is convert the h.264 RTP stream to rawvideo in RGBA and output to a socket where I then manually do the transcoding.


However, libjpeg-turbo only expects complete frames, meaning I need to collect rawvideo packet fragments and somehow synchronize them. Putting incoming raw video fragments into a buffer as they come results in heavily broken images.


Is there some way of saving the header information of the initial h.264 RTP packets ? The command I'm currently using is very straightforward :


-i rtsp :// : -vcodec rawvideo -f rawvideo udp :// :


-
doc/filters/histogram : copyedit for grammar
10 février 2014, par Werner Robitza