Recherche avancée

Médias (0)

Mot : - Tags -/auteurs

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (33)

  • Installation en mode ferme

    4 février 2011, par

    Le mode ferme permet d’héberger plusieurs sites de type MediaSPIP en n’installant qu’une seule fois son noyau fonctionnel.
    C’est la méthode que nous utilisons sur cette même plateforme.
    L’utilisation en mode ferme nécessite de connaïtre un peu le mécanisme de SPIP contrairement à la version standalone qui ne nécessite pas réellement de connaissances spécifique puisque l’espace privé habituel de SPIP n’est plus utilisé.
    Dans un premier temps, vous devez avoir installé les mêmes fichiers que l’installation (...)

  • Multilang : améliorer l’interface pour les blocs multilingues

    18 février 2011, par

    Multilang est un plugin supplémentaire qui n’est pas activé par défaut lors de l’initialisation de MediaSPIP.
    Après son activation, une préconfiguration est mise en place automatiquement par MediaSPIP init permettant à la nouvelle fonctionnalité d’être automatiquement opérationnelle. Il n’est donc pas obligatoire de passer par une étape de configuration pour cela.

  • Publier sur MédiaSpip

    13 juin 2013

    Puis-je poster des contenus à partir d’une tablette Ipad ?
    Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir

Sur d’autres sites (7398)

  • (ffmpeg.autogen)How can i Decode Audio AVframe (rtsp)

    2 octobre 2018, par newbie

    i Got Audio stream Frame.

    this code....

    while ((error = ffmpeg.av_read_frame(_pFormatContext, _pPacket)) == 0)

    if (error == ffmpeg.AVERROR_EOF)
    {
       frame = *_vFrame;
    }

    if (_pPacket->stream_index == _v_streamIndex)
    {
       ffmpeg.avcodec_send_packet(_vCodecContext, _pPacket).ThrowExceptionIfError();
       error = ffmpeg.avcodec_receive_frame(_vCodecContext, _vFrame);

       frame = *_vFrame;

       vFrame_Recv.Invoke(this, frame);
    }
    else if (_pPacket->stream_index == _a_streamIndex)
    {
       ffmpeg.avcodec_send_packet(_aCodecContext, _pPacket).ThrowExceptionIfError();
       error = ffmpeg.avcodec_receive_frame(_aCodecContext, _aFrame);

       frame = *_vFrame;

       aFrame_Recv.Invoke(this, frame);
    }

    ffmpeg.av_packet_unref(_pPacket);

    error.ThrowExceptionIfError();

    and i try Convert This Code.

    private void Vsd_aFrame_Recv(object sender, AVFrame frame)
    {
       //throw new NotImplementedException();
    }

    private unsafe void Vsd_vFrame_Recv(object sender, AVFrame frame)
    {
       var convertedFrame = vfc.Convert(frame);

       using (var bitmap = new Bitmap(convertedFrame.width, convertedFrame.height, convertedFrame.linesize[0], PixelFormat.Format24bppRgb, (IntPtr)convertedFrame.data[0]))
           BitmapReceived?.Invoke(this, new Bitmap(bitmap));
    }

    how can i decode Audio Frame...??
    i want play Audio.

  • Piping ffmpeg thumbail output to another program

    21 septembre 2018, par Ryan Griggs

    I’m trying to capture frames from a live video stream (h.264) and pipe the resulting JPG images to a Node JS script, instead of saving these individual frames directly to .jpg files.

    As a test, I created the following Node JS script, to simply capture the incoming piped data, then dump it to a file :

    // pipe.js - test pipe output
    var fs = require('fs');
    var data = '';

    process.stdin.resume();
    process.stdin.setEncoding('utf8');

    var filename = process.argv[2];

    process.stdin.on('data', (chunk) => {
           console.log('Received data chunk via pipe.');
           data += chunk;
    });

    process.stdin.on('end', () => {
           console.log('Data ended.');
           fs.writeFile(filename, data, err => {
                   if (err) {
                           console.log('Error writing file: error #', err);
                   }
           });
           console.log('Saved file.');
    });

    console.log('Started...  Filename = ' + filename);

    Here’s the ffmpeg command I used :

    ffmpeg -vcodec h264_mmal -i "rtsp://[stream url]" -vframes 1 -f image2pipe - | node pipe.js test.jpg

    This generated the following output, and also produced a 175kB file which contains garbage (unreadable as a jpg file anyway). FYI using ffmpeg to export directly to a jpg file produced files around 25kB in size.

    ...
    Press [q] to stop, [?] for help
    [h264_mmal @ 0x130d3f0] Changing output format.
    Input stream #0:0 frame changed from size:1280x720 fmt:yuvj420p to size:1280x720 fmt:yuv420p
    [swscaler @ 0x1450ca0] deprecated pixel format used, make sure you did set range correctly
    Received data chunk via pipe.
    Received data chunk via pipe.
    frame=    1 fps=0.0 q=7.7 Lsize=      94kB time=00:00:00.40 bitrate=1929.0kbits/s speed=1.18x
    video:94kB audio:0kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: 0.000000%
    Received data chunk via pipe.
    Data ended.
    Saved file.

    You can see that the Node JS script is receiving piped data (per the "Received data via pipe" messages above. However, it doesn’t seem to be outputting a valid JPG file. I can’t find a way to specifically request that ffmpeg output JPG format, since there is no -vcodec option for JPG. I tried using -vcodec png and outputting to a .png file, but the resulting file was about 2MB in size and also unreadable as a png file.

    Is this a problem caused by using utf8 encoding, or am I doing something else wrong ?

    Thanks for any advice.

    UPDATE : OK I got it to send a single jpg image correctly. The issue was in the way Node JS was capturing the stream data. Here’s a working script :

    // pipe.js - capture piped binary input and write to file
    var fs = require('fs');
    var filename = process.argv[2];

    console.log("Opening " + filename + " for binary writing...");

    var wstream = fs.createWriteStream(filename);

    process.stdin.on('readable', () => {
           var chunk = '';
           while ((chunk = process.stdin.read()) !== null) {
                   wstream.write(chunk);   // Write the binary data to file
                   console.log("Writing chunk to file...");
           }
    });

    process.stdin.on('end', () => {
           // Close the file
           wstream.end();
    });

    However, now the problem is this : when piping the output of ffmpeg to this script, how can I tell when one JPG file ends and another one begins ?

    ffmpeg command :

    ffmpeg -vcodec h264_mmal -i "[my rtsp stream]" -r 1 -q:v 2 -f singlejpeg - | node pipe.js test_output.jpg

    The test_output.jpg file continues to grow as long as the script runs. How can I instead know when the data for one jpg is complete and another one has started ?
    According to this, jpeg files always start with FF D8 FF and end with FF D9, so I guess I can check for this ending signature and start a new file at that point... any other suggestions ?

  • Video encoded by ffmpeg.exe giving me a garbage video in c# .net

    10 septembre 2018, par Amit Yadav

    I want to record video through webcam and file to be saved in .mp4 format. So for recording i am using AforgeNet.dll for recording and for mp4 format i am encoding raw video into mp4 using ffmpeg.exe using NamedPipeStreamServer as i receive frame i push into the named pipe buffer. this process works fine i have checked in ProcessTheErrorData event but when i stop recording the output file play garbage video shown in the image below

    enter image description here

    Here is Code for this

      Process Process;
     NamedPipeServerStream _ffmpegIn;
       byte[]  _videoBuffer ;
       const string PipePrefix = @"\\.\pipe\";
       public void ffmpegWriter()
       {
           if(File.Exists("outputencoded.mp4"))
           {
               File.Delete("outputencoded.mp4");
           }

           _videoBuffer = new byte[widht * heigth * 4];
           var audioPipeName = GetPipeName();
           var videoPipeName = GetPipeName();
           var videoInArgs = $@" -thread_queue_size 512 -use_wallclock_as_timestamps 1 -f rawvideo -pix_fmt rgb32 -video_size 640x480 -i \\.\pipe\{videoPipeName}";
           var videoOutArgs = $"-vcodec libx264 -crf 15 -pix_fmt yuv420p -preset ultrafast -r 10";
           _ffmpegIn = new NamedPipeServerStream(videoPipeName, PipeDirection.Out, 1, PipeTransmissionMode.Byte, PipeOptions.Asynchronous, 0, _videoBuffer.Length);
           Process=StartFFmpeg($"{videoInArgs} {videoOutArgs} \"{"outputencoded.mp4"}\"", "outputencoded.mp4");
       }

    bool WaitForConnection(NamedPipeServerStream ServerStream, int Timeout)
       {
           var asyncResult = ServerStream.BeginWaitForConnection(Ar => { }, null);

           if (asyncResult.AsyncWaitHandle.WaitOne(Timeout))
           {
               ServerStream.EndWaitForConnection(asyncResult);

               return ServerStream.IsConnected;
           }

           return false;
       }
     static string GetPipeName() => $"record-{Guid.NewGuid()}";

    public static Process StartFFmpeg(string Arguments, string OutputFileName)
           {
               var process = new Process
               {
                   StartInfo =
                   {
                       FileName = "ffmpeg.exe",
                       Arguments = Arguments,
                       UseShellExecute = false,
                       CreateNoWindow = true,
                       RedirectStandardError = true,
                       RedirectStandardInput = true,

                   },
                   EnableRaisingEvents = true
               };

               //  var logItem = ServiceProvider.Get<ffmpeglog>().CreateNew(Path.GetFileName(OutputFileName));

               process.ErrorDataReceived += (s, e) => ProcessTheErrorData(s,e);

               process.Start();

               process.BeginErrorReadLine();

               return process;
           }
    </ffmpeglog>

    and Writing each frame like this.

    private void video_NewFrame(object sender, NewFrameEventArgs eventArgs)
           {

               try
               {
                   if (_recording)
                   {

                       using (var bitmap = (Bitmap) eventArgs.Frame.Clone())
                       {
                          var _videoBuffers = ImageToByte(bitmap);


                               if (_firstFrameTime != null)
                               {
                               bitmap.Save("image/" + DateTime.Now.ToString("ddMMyyyyHHmmssfftt")+".bmp");

                                   _lastFrameTask?.Wait();


                                   _lastFrameTask = _ffmpegIn.WriteAsync(_videoBuffers, 0, _videoBuffers.Length);
                               }
                               else
                               {
                                   if (_firstFrame)
                                   {
                                       if (!WaitForConnection(_ffmpegIn, 5000))
                                       {
                                           throw new Exception("Cannot connect Video pipe to FFmpeg");
                                       }

                                       _firstFrame = false;
                                   }

                                   _firstFrameTime = DateTime.Now;
                                   _lastFrameTask?.Wait();

                                   _lastFrameTask = _ffmpegIn.WriteAsync(_videoBuffers, 0, _videoBuffers.Length);

                               }

                       }
                   }
                   using (var bitmap = (Bitmap) eventArgs.Frame.Clone())
                   {
                       var bi = bitmap.ToBitmapImage();
                       bi.Freeze();
                       Dispatcher.CurrentDispatcher.Invoke(() => Image = bi);
                   }
               }
               catch (Exception exc)
               {
                   MessageBox.Show("Error on _videoSource_NewFrame:\n" + exc.Message, "Error", MessageBoxButton.OK,
                       MessageBoxImage.Error);
                   StopCamera();
               }
           }

    Even i have written each frame to disk as bitmap .bmp and frames are correct but i don’t know what’s i am missing here ? please help thanks in advance.