
Recherche avancée
Médias (1)
-
MediaSPIP Simple : futur thème graphique par défaut ?
26 septembre 2013, par
Mis à jour : Octobre 2013
Langue : français
Type : Video
Autres articles (50)
-
Taille des images et des logos définissables
9 février 2011, parDans beaucoup d’endroits du site, logos et images sont redimensionnées pour correspondre aux emplacements définis par les thèmes. L’ensemble des ces tailles pouvant changer d’un thème à un autre peuvent être définies directement dans le thème et éviter ainsi à l’utilisateur de devoir les configurer manuellement après avoir changé l’apparence de son site.
Ces tailles d’images sont également disponibles dans la configuration spécifique de MediaSPIP Core. La taille maximale du logo du site en pixels, on permet (...) -
Configuration spécifique d’Apache
4 février 2011, parModules spécifiques
Pour la configuration d’Apache, il est conseillé d’activer certains modules non spécifiques à MediaSPIP, mais permettant d’améliorer les performances : mod_deflate et mod_headers pour compresser automatiquement via Apache les pages. Cf ce tutoriel ; mode_expires pour gérer correctement l’expiration des hits. Cf ce tutoriel ;
Il est également conseillé d’ajouter la prise en charge par apache du mime-type pour les fichiers WebM comme indiqué dans ce tutoriel.
Création d’un (...) -
Les statuts des instances de mutualisation
13 mars 2010, parPour des raisons de compatibilité générale du plugin de gestion de mutualisations avec les fonctions originales de SPIP, les statuts des instances sont les mêmes que pour tout autre objets (articles...), seuls leurs noms dans l’interface change quelque peu.
Les différents statuts possibles sont : prepa (demandé) qui correspond à une instance demandée par un utilisateur. Si le site a déjà été créé par le passé, il est passé en mode désactivé. publie (validé) qui correspond à une instance validée par un (...)
Sur d’autres sites (5805)
-
Decoding h.264 in node.js without ffmpeg and send it to front or save it in fs
5 mars 2019, par JT.v26I’m doing the final project of a bootcamp.
The project consists of controlling a drone (Tello) with a mobile phone. So for this project I’m using react native. In which I insert a node.js inside the application (Node.js for Mobile Apps React Native) since the drone creates a wifi and I lose internet access to connect to a remote server.
All right so far, the drone has three udp ports enabled on the sdk to receive instructions, send status and send video.
The video gives it to me in raw.I did a test on the computer, downloading ffmpeg and converting that data and I could effectively have the video retransmission.
My questions are :
Is there any way I can use the same technique on the mobile without needing ffmpeg ?
Is there any way to import ffmpeg into android and communicate with nodejs ?
Is there any other solution where I can use another node that doesn’t have to be on the phone ?
Or you may even find some other solution to address this problem.
Thank you very much in advance
-
How to use DICOM-RTV and SMPTE ST 2110 for live DICOM recording [closed]
14 juin 2021, par firehelmI need to save a Ultrasound video stream as a DICOM while displaying the images on screen.


I am curently working on the architechure of the DICOM recording part. The image is already directly displayed on screen (without using a DICOM format).


I searched for solutions using dcmtk but it seems that the video must be complete in order to save it as a DICOM. Which poses some issues with meta data synchronization and large buffering.


Looking at some DICOM documentation I found a solution using DICOM-RTV.
This solution is described as use case PPPP.3 or PPPP.7 in https://www.dicomstandard.org/. It seems to be the "clean state of the art way" do do this.


The problem is that I am new in DICOM and I don't know the SMPTE ST 2110-20 compliant video flow and SMPTE ST 2110-10 compliant DICOM Metadata Flow protocols.


So far I found FFmpeg, but it seems to implement the decoding part of SMPTE ST 2110.


Is there a library implementing these protocoles ?
Or some detailed documentation ?
Or is this not a good idea and there is a better solution ?


-
Using ffmpeg -sseof with pipe
3 mai 2017, par ThrasdI am working on extracting and transcoding a clip from a 4K video.
I already know where to start and how long the clip should last.I am using the following command to extract the clip I need (30 sec into the video, I take a 10 sec clip)
ffmpeg -ss 30 -i 'input.mp4' -c copy -t 10 -f matroska 'output.mp4'
In order for the video to retain the key frame, so it knows what to draw, the clip can be longer than 10 sec (which is to be expected)
I can then use the following to transcode the video, and make sure it only takes the last 10 seconds (Specifically the
sseof
command)
ffmpeg -sseof -10 -i 'output.mp4' -vcodec libx264 -r 15 -s 720x400 -aspect 720:400 -sn -f matroska -acodec libmp3lame -ac 2 -ar 11025 -y 'transcoded.mkv'
Due to a slow file system, I would like to avoid the first step of writing the extracted clip to the disk, I can do this with pipes and just transcode on the fly.
ffmpeg -ss 30 -i 'input.mp4' -c copy -t 10 -f matroska pipe:1 | ffmpeg -i pipe:0 -vcodec libx264 -r 15 -s 720x400 -aspect 720:400 -sn -f matroska -acodec libmp3lame -ac 2 -ar 11025 -y 'transcoded.mkv'
However with pipes I can not use the
-sseof
command, as it just makes an invalid video clip file. (There are no errors or warnings from the log)My current solution is to transcode the transcoded video clip again, and only take the last 10 seconds. (But this seems like a poor workaround, and not a real solution)
As this is my first time working with
ffmpeg
, I am wondering if it is possible to take the last 10 seconds of a video through a pipe ? Or maybe somebody has an even better solution for this ?