Recherche avancée

Médias (91)

Autres articles (44)

  • Emballe Médias : Mettre en ligne simplement des documents

    29 octobre 2010, par

    Le plugin emballe médias a été développé principalement pour la distribution mediaSPIP mais est également utilisé dans d’autres projets proches comme géodiversité par exemple. Plugins nécessaires et compatibles
    Pour fonctionner ce plugin nécessite que d’autres plugins soient installés : CFG Saisies SPIP Bonux Diogène swfupload jqueryui
    D’autres plugins peuvent être utilisés en complément afin d’améliorer ses capacités : Ancres douces Légendes photo_infos spipmotion (...)

  • Les tâches Cron régulières de la ferme

    1er décembre 2010, par

    La gestion de la ferme passe par l’exécution à intervalle régulier de plusieurs tâches répétitives dites Cron.
    Le super Cron (gestion_mutu_super_cron)
    Cette tâche, planifiée chaque minute, a pour simple effet d’appeler le Cron de l’ensemble des instances de la mutualisation régulièrement. Couplée avec un Cron système sur le site central de la mutualisation, cela permet de simplement générer des visites régulières sur les différents sites et éviter que les tâches des sites peu visités soient trop (...)

  • Configurer la prise en compte des langues

    15 novembre 2010, par

    Accéder à la configuration et ajouter des langues prises en compte
    Afin de configurer la prise en compte de nouvelles langues, il est nécessaire de se rendre dans la partie "Administrer" du site.
    De là, dans le menu de navigation, vous pouvez accéder à une partie "Gestion des langues" permettant d’activer la prise en compte de nouvelles langues.
    Chaque nouvelle langue ajoutée reste désactivable tant qu’aucun objet n’est créé dans cette langue. Dans ce cas, elle devient grisée dans la configuration et (...)

Sur d’autres sites (6027)

  • How do I get event emitter based code to wait in nodejs ?

    29 mars 2019, par DigitalDisaster

    I may be asking the question wrong because I don’t have a lot of experience with this. Basically, I have this code :

    videoshow(images, videoOptions)
     .audio('song.mp3')
     .save('video.mp4')
     .on('start', function (command) {
       console.log('ffmpeg process started:', command)
     })
     .on('error', function (err, stdout, stderr) {
       console.error('Error:', err)
       console.error('ffmpeg stderr:', stderr)
     })
     .on('end', function (output) {
       console.error('Video created in:', output)
     })

    from this library

    It runs async as far as I understand, but I can’t get it to wait even when I add await before it.

    I want the block of code to stop until the end has finished and the image has been converted to a vide. I don’t see any examples, and I’m not sure what I’m doing wrong.

  • Create and combine a blank video stream with a subtitle steam

    10 décembre 2014, par CPO

    I have a live .ts stream that contains a video stream, audio stream and subtitle stream. What I want to do is to display the video in full, eg video and audio and subtitles, but in parallel take the same stream and ’blank’ the video to black, but allow the subtitle stream to be rendered into that video stream for display separately from the fully displayed streams. The reason for this is to allow the subtitles to be displayed separately and cropped,from a second projector, but to have a black backgroung to avoid distractions when there is no subtitle present. I believe this can be achieved using FFMPEG but my limited experience with this utility rather limits my progress. I believe that the blanked video stream needs to be the same frame rate and resolution as the original in order that the rendered subtitles stay in synch with the original video stream. Any help or suggestions warmly welcomed. Thank you

  • libav : where to get a reference to AV_PIX_FMT_NV12 when using cuda/cuvid ?

    29 mars 2019, par Simon Labrecque

    Say I’m using av_hwdevice_find_type_by_name("cuda"), as in here. I need to convert the decoded frames to RGB using a SwsContext. I know, by experience, that when using the cuda/cuvid decoder I get frames in the AV_PIX_FMT_NV12 format, even though every struct I look at says either AV_PIX_FMT_NONE or AV_PIX_FMT_YUV420P.

    On what field of what struct can I get the AV_PIX_FMT_NV12 value so I can remove my hardcoded source format on my call to SwsContext.sws_scale ? Thanks !

    Update :

    Looks like I can get it by :

    AVCodecContext* avctx;
    ...
    frames_ctx = (AVHWFramesContext*)avctx->hw_frames_ctx->data;
    AVPixelFormat pixel_fmt = frames_ctx->sw_format;

    ...once at least one frame has been decoded. Not sure if it’s the correct way though.