Recherche avancée

Médias (1)

Mot : - Tags -/artwork

Autres articles (51)

  • Websites made ​​with MediaSPIP

    2 mai 2011, par

    This page lists some websites based on MediaSPIP.

  • Participer à sa traduction

    10 avril 2011

    Vous pouvez nous aider à améliorer les locutions utilisées dans le logiciel ou à traduire celui-ci dans n’importe qu’elle nouvelle langue permettant sa diffusion à de nouvelles communautés linguistiques.
    Pour ce faire, on utilise l’interface de traduction de SPIP où l’ensemble des modules de langue de MediaSPIP sont à disposition. ll vous suffit de vous inscrire sur la liste de discussion des traducteurs pour demander plus d’informations.
    Actuellement MediaSPIP n’est disponible qu’en français et (...)

  • Creating farms of unique websites

    13 avril 2011, par

    MediaSPIP platforms can be installed as a farm, with a single "core" hosted on a dedicated server and used by multiple websites.
    This allows (among other things) : implementation costs to be shared between several different projects / individuals rapid deployment of multiple unique sites creation of groups of like-minded sites, making it possible to browse media in a more controlled and selective environment than the major "open" (...)

Sur d’autres sites (6618)

  • fate/lavf-* : Add missing dependency on pipe protocol

    18 septembre 2022, par Andreas Rheinhardt
    fate/lavf-* : Add missing dependency on pipe protocol
    

    Forgotten in bf1337f99c66ac574c6e4da65c305ca878f1d65d.

    Signed-off-by : Andreas Rheinhardt <andreas.rheinhardt@outlook.com>

    • [DH] tests/fate/lavf-audio.mak
    • [DH] tests/fate/lavf-container.mak
    • [DH] tests/fate/lavf-image.mak
    • [DH] tests/fate/lavf-image2pipe.mak
    • [DH] tests/fate/lavf-video.mak
  • ffmpeg process how to read from pipe to pipe in c#

    28 janvier 2024, par greg

    I need to read audio data from stream 1 to stream 2 passing the data through ffmpeg.&#xA;It works great when i input data from file and output to pipe :

    &#xA;

    Process? CreateStream()&#xA;{&#xA;    return Process.Start(new ProcessStartInfo&#xA;    {&#xA;        FileName = @"sources\ffmpeg",&#xA;        Arguments = @"-i input.mp3 -f s16le pipe:1",&#xA;        UseShellExecute = false,&#xA;        RedirectStandardOutput = true&#xA;    });&#xA;}&#xA;

    &#xA;

    Or when i input data from pipe and output to file :

    &#xA;

    Process? CreateStream()&#xA;{&#xA;    return Process.Start(new ProcessStartInfo&#xA;    {&#xA;        FileName = @"sources\ffmpeg",&#xA;        Arguments = @"-i pipe: -f s16le output.file",&#xA;        UseShellExecute = false,&#xA;        RedirectStandardInput = true&#xA;    });&#xA;}&#xA;

    &#xA;

    But if i try to do both :

    &#xA;

    Process? CreateStream()&#xA;{&#xA;    return Process.Start(new ProcessStartInfo&#xA;    {&#xA;        FileName = @"sources\ffmpeg",&#xA;        Arguments = @"-i pipe:0 -f s16le pipe:1",&#xA;        UseShellExecute = false,&#xA;        RedirectStandardInput = true,&#xA;        RedirectStandardOutput = true&#xA;    });&#xA;}&#xA;

    &#xA;

    Runtime will hang in place printing :

    &#xA;

    &#xA;

    Input #0, matroska,webm, from 'pipe:0' :&#xA;Metadata :&#xA;encoder : google/video-file&#xA;Duration : 00:04:15.38, start : -0.007000, bitrate : N/A&#xA;Stream #0:0(eng) : Audio : opus, 48000 Hz, stereo, fltp (default)&#xA;Stream mapping :&#xA;Stream #0:0 -> #0:0 (opus (native) -> pcm_s16le (native))

    &#xA;

    Output #0, s16le, to 'pipe:1' :&#xA;Metadata :&#xA;encoder : Lavf59.27.100&#xA;Stream #0:0(eng) : Audio : pcm_s16le, 48000 Hz, stereo, s16, 1536 kb/s (default)&#xA;Metadata :&#xA;encoder : Lavc59.37.100 pcm_s16le

    &#xA;

    &#xA;

    main function code (it is the same for all examples) :

    &#xA;

    async Task Do()&#xA;{&#xA;    using (var ffmpeg = CreateStream())&#xA;    {&#xA;        if (ffmpeg == null) return;&#xA;&#xA;        using (var audioStream = GetAudioStream())&#xA;        {&#xA;            await audioStream.CopyToAsync(ffmpeg.StandardInput.BaseStream);&#xA;            ffmpeg.StandardInput.Close();&#xA;        }&#xA;&#xA;        //runtime will hang in here&#xA;&#xA;        Console.WriteLine("\n\ndone\n\n"); //this won&#x27;t be printed&#xA;&#xA;        using (var outputStream = CreatePCMStream())&#xA;        {&#xA;            try&#xA;            {&#xA;                await ffmpeg.StandardOutput.BaseStream.CopyToAsync(outputStream);&#xA;            }&#xA;            finally&#xA;            {&#xA;                await outputStream.FlushAsync();&#xA;            }&#xA;        }&#xA;    }&#xA;}&#xA;

    &#xA;

    And the most interesting is if i remove RedirectStandardOutput = true string programm will work as expected printing a bunch of raw data to the console.

    &#xA;

    I'd like to solve this problem without using any intermediate files and so on.

    &#xA;

  • Matplotlib pipe canvas.draw() to ffmpeg - unexpected result [duplicate]

    31 juillet 2022, par Narusan

    I'm using this code from here to try and pipe multiple matplotlib plots into ffmpeg to write a video file :

    &#xA;

    import numpy as np&#xA;import matplotlib.pyplot as plt&#xA;import subprocess&#xA;&#xA;xlist = np.random.randint(100,size=100)&#xA;ylist = np.random.randint(100, size=100)&#xA;color = np.random.randint(2, size=100)&#xA;&#xA;f = plt.figure(figsize=(5,5), dpi = 300)&#xA;canvas_width, canvas_height = f.canvas.get_width_height()&#xA;ax = f.add_axes([0,0,1,1])&#xA;ax.axis(&#x27;off&#x27;)&#xA;&#xA;&#xA;# Open an ffmpeg process&#xA;outf = &#x27;ffmpeg.mp4&#x27;&#xA;cmdstring = (&#x27;ffmpeg&#x27;,&#xA;    &#x27;-y&#x27;, &#x27;-r&#x27;, &#x27;30&#x27;, # overwrite, 30fps&#xA;    &#x27;-s&#x27;, &#x27;%dx%d&#x27; % (canvas_width, canvas_height), # size of image string&#xA;    &#x27;-pix_fmt&#x27;, &#x27;argb&#x27;, # format&#xA;    &#x27;-f&#x27;, &#x27;rawvideo&#x27;,  &#x27;-i&#x27;, &#x27;-&#x27;, # tell ffmpeg to expect raw video from the pipe&#xA;    &#x27;-vcodec&#x27;, &#x27;mpeg4&#x27;, outf) # output encoding&#xA;p = subprocess.Popen(cmdstring, stdin=subprocess.PIPE)&#xA;&#xA;# Draw 1000 frames and write to the pipe&#xA;for frame in range(10):&#xA;    print("Working on frame")&#xA;    # draw the frame&#xA;    f = plt.figure(figsize=(5,5), dpi=300)&#xA;    ax = f.add_axes([0,0,1,1])&#xA;    ax.scatter(xlist, ylist,&#xA;               c=color, cmap = &#x27;viridis&#x27;)&#xA;    f.canvas.draw()&#xA;    plt.show()&#xA;&#xA;    # extract the image as an ARGB string&#xA;    string = f.canvas.tostring_argb()&#xA;    # write to pipe&#xA;    p.stdin.write(string)&#xA;&#xA;# Finish up&#xA;p.communicate()&#xA;

    &#xA;

    While plt.show() does show the correct plot (see image below), the video that ffmpeg creates is a bit different than what plt.show() shows. I am presuming the issue is with f.canvas.draw(), but I'm not sure how to get a look at what canvas.draw() actually plots.

    &#xA;

    plot.show() :&#xA;enter image description here

    &#xA;

    ffmpeg video (imgur link)

    &#xA;