Recherche avancée

Médias (91)

Autres articles (64)

  • Le plugin : Gestion de la mutualisation

    2 mars 2010, par

    Le plugin de Gestion de mutualisation permet de gérer les différents canaux de mediaspip depuis un site maître. Il a pour but de fournir une solution pure SPIP afin de remplacer cette ancienne solution.
    Installation basique
    On installe les fichiers de SPIP sur le serveur.
    On ajoute ensuite le plugin "mutualisation" à la racine du site comme décrit ici.
    On customise le fichier mes_options.php central comme on le souhaite. Voilà pour l’exemple celui de la plateforme mediaspip.net :
    < ?php (...)

  • Le plugin : Podcasts.

    14 juillet 2010, par

    Le problème du podcasting est à nouveau un problème révélateur de la normalisation des transports de données sur Internet.
    Deux formats intéressants existent : Celui développé par Apple, très axé sur l’utilisation d’iTunes dont la SPEC est ici ; Le format "Media RSS Module" qui est plus "libre" notamment soutenu par Yahoo et le logiciel Miro ;
    Types de fichiers supportés dans les flux
    Le format d’Apple n’autorise que les formats suivants dans ses flux : .mp3 audio/mpeg .m4a audio/x-m4a .mp4 (...)

  • Formulaire personnalisable

    21 juin 2013, par

    Cette page présente les champs disponibles dans le formulaire de publication d’un média et il indique les différents champs qu’on peut ajouter. Formulaire de création d’un Media
    Dans le cas d’un document de type média, les champs proposés par défaut sont : Texte Activer/Désactiver le forum ( on peut désactiver l’invite au commentaire pour chaque article ) Licence Ajout/suppression d’auteurs Tags
    On peut modifier ce formulaire dans la partie :
    Administration > Configuration des masques de formulaire. (...)

Sur d’autres sites (8776)

  • FFmpeg live streaming webm video to multiple http clients over Nodejs

    11 octobre 2017, par Léo Martin

    I am trying to share a live stream of my screen over an ExpressJS server.
    I cannot save ffmpeg output to a file or start more than one ffmpeg instance for performance reason.
    My current solution is to pipe ffmpeg’s stdout and stream it to each connected client.

    index.js

    const express = require('express');
    const app = express();
    const request = require('request');
    const FFmpeg = require('./FFmpeg');

    const APP_PORT = 3500;

    app.get('/stream', function (req, res) {
     const recorder = FFmpeg.getInstance();

     res.writeHead(200, {
       "content-type": "video/webm",
     });
     recorder.stdout.on('data', res.write);
     req.on('close', FFmpeg.killInstance);
    });

    app.listen(APP_PORT, function () {
     console.log(`App is listening on port ${APP_PORT}!`)
    });

    FFmpeg.js

    const spawn = require('child_process').spawn;
    const ffmpegPath = 'ffmpeg';
    const ffmpegOptions = [
     '-loglevel', 'panic',
     '-y',
     '-f',
     'alsa',
     '-ac',
     '2',
     '-i',
     'pulse',
     '-f',
     'x11grab',
     '-r',
     '25',
     '-i',
     ':0.0+0,0',
     '-acodec',
     'libvorbis',
     '-preset',
     'ultrafast',
     '-vf',
     'scale=320:-1',
     "-vcodec", "libvpx-vp9",
     '-f', 'webm',
     'pipe:1',
    ];

    module.exports = {
     start,
     getInstance,
     killInstance,
    };

    let instance = null;
    let connections = 0;

    function killInstance() {
     connections -= 1;
     if (connections &lt; 1) {
       instance.kill();
       instance = null;
     }
    };

    function getInstance() {
     connections += 1;
     if (!instance) instance = start();
     return instance;
    };

    function start() {
     return spawn(ffmpegPath, ffmpegOptions);
    };

    It is working well for one client, but I cannot manage to stream to several clients at the same time (might be related to missing keyframes).

  • Streaming live video from webcam and displaying in VLC

    17 septembre 2017, par Robert

    I have webcam connected to the computer. This camera is detected by ffmpeg.
    This command works correctly :

    ffmpeg -f dshow -i video="Integrated Webcam" out6.mp4

    I can display out6.mp4 file in VLC. But I want to display video in VLC directly from webcam using ffmpeg. So I’ve invoke such a command :

    ffmpeg -f dshow -i video="Integrated Webcam" -preset ultrafast -vcodec libx264 -tune zerolatency -b 900k -f mpegts udp://192.168.0.11:1234/

    and in VLC I enter address udp ://192.168.0.11:1234/ in Open streaming network but the video doesn’t display. I only see traffic bollard.
    In cmd I see that everythink works correctly :

    frame= 1753 fps= 20 q=35.0 size=    7257kB time=00:01:26.63 bitrate= 686.2kbits/
    frame= 1766 fps= 20 q=35.0 size=    7305kB time=00:01:27.13 bitrate= 686.8kbits/
    frame= 1778 fps= 20 q=35.0 size=    7354kB time=00:01:27.63 bitrate= 687.5kbits/
    frame= 1790 fps= 20 q=32.0 size=    7392kB time=00:01:28.13 bitrate= 687.1kbits/
    frame= 1793 fps= 20 q=32.0 size=    7402kB time=00:01:28.63 bitrate= 684.2kbits/
    frame= 1796 fps= 20 q=33.0 size=    7411kB time=00:01:29.09 bitrate= 681.3kbits/
    frame= 1796 fps= 20 q=33.0 Lsize=    7411kB time=00:01:29.09 bitrate= 681.3kbits
    /s speed=0.999x

    How can I debug what is wrong ?

  • How to setup HLS Live Video Streaming from iOS Device

    9 septembre 2017, par Sean

    Good day everyone !

    So, as the title suggests, i am developing an app with similar functionality to that off Periscope and Facebook Live video streaming. Here is what the end goal is :

    • A Broadcasting device [user]
    • EC2 Instance [Hosting an ffmpeg transcoder]
    • Cloudfront Distrubution [CDN]
    • 1 to n viewers of the live feed

    I’ve been doing a lot of googling and what I cant seem to figure out is :

    As you send chunks of video to the server from the Broadcaster, how do
    you create an
    .m3u8 playlist when you don’t have all the chunks of video yet (e.g. the
    device sends its first 5second chunk of video) ?

    It seems a .m3u8 file is created from a .mp4 file that is already complete, then broken down into chunks... But i’m sending chunks of the video to the server, how can it generate the .m3u8 file when more chunks are still coming from the Broadcaster, so the watchers / clients can continuously stitch together the video chunks ?

    I’ll be happy to clarify this question further. Thanks !