Recherche avancée

Médias (0)

Mot : - Tags -/signalement

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (29)

  • (Dés)Activation de fonctionnalités (plugins)

    18 février 2011, par

    Pour gérer l’ajout et la suppression de fonctionnalités supplémentaires (ou plugins), MediaSPIP utilise à partir de la version 0.2 SVP.
    SVP permet l’activation facile de plugins depuis l’espace de configuration de MediaSPIP.
    Pour y accéder, il suffit de se rendre dans l’espace de configuration puis de se rendre sur la page "Gestion des plugins".
    MediaSPIP est fourni par défaut avec l’ensemble des plugins dits "compatibles", ils ont été testés et intégrés afin de fonctionner parfaitement avec chaque (...)

  • Activation de l’inscription des visiteurs

    12 avril 2011, par

    Il est également possible d’activer l’inscription des visiteurs ce qui permettra à tout un chacun d’ouvrir soit même un compte sur le canal en question dans le cadre de projets ouverts par exemple.
    Pour ce faire, il suffit d’aller dans l’espace de configuration du site en choisissant le sous menus "Gestion des utilisateurs". Le premier formulaire visible correspond à cette fonctionnalité.
    Par défaut, MediaSPIP a créé lors de son initialisation un élément de menu dans le menu du haut de la page menant (...)

  • Diogene : création de masques spécifiques de formulaires d’édition de contenus

    26 octobre 2010, par

    Diogene est un des plugins ? SPIP activé par défaut (extension) lors de l’initialisation de MediaSPIP.
    A quoi sert ce plugin
    Création de masques de formulaires
    Le plugin Diogène permet de créer des masques de formulaires spécifiques par secteur sur les trois objets spécifiques SPIP que sont : les articles ; les rubriques ; les sites
    Il permet ainsi de définir en fonction d’un secteur particulier, un masque de formulaire par objet, ajoutant ou enlevant ainsi des champs afin de rendre le formulaire (...)

Sur d’autres sites (3812)

  • How to set pts and dts of AVPacket from RTP timestamps while muxing VP8 RTP stream to webm using ffmpeg libavformat ?

    30 janvier 2018, par user2595786

    I am using ffmpeg libavformat library to write a video only webm file. I recieve VP8 encoded rtp stream on my server. I have successfully grouped the rtp byte stream (from rtp payload) into individual frames, and constructed a AVPacket. I am NOT re-encoding the payload to VP8 here as it is already vp8 encoded.

    I am writing the AVPacket to the file using av_write_interleaved() method. Though I am getting a webm file as output, it is not playing at all. When I checked for the info on the file using mkv tool’s ’mkvinfo’ command, I found the following info :

    + EBML head
    |+ EBML version: 1
    |+ EBML read version: 1
    |+ EBML maximum ID length: 4
    |+ EBML maximum size length: 8
    |+ Doc type: webm
    |+ Doc type version: 2
    |+ Doc type read version: 2
    + Segment, size 2142500
    |+ Seek head (subentries will be skipped)
    |+ EbmlVoid (size: 170)
    |+ Segment information
    | + Timestamp scale: 1000000
    | + Multiplexing application: Lavf58.0.100
    | + Writing application: Lavf58.0.100
    | + Duration: 78918744.480s (21921:52:24.480)
    |+ Segment tracks
    | + A track
    |  + Track number: 1 (track ID for mkvmerge & mkvextract: 0)
    |  + Track UID: 1
    |  + Lacing flag: 0
    |  + Name: Video Track
    |  + Language: eng
    |  + Codec ID: V_VP8
    |  + Track type: video
    |  + Default duration: 1.000ms (1000.000 frames/fields per second for a
    video track)
    |  + Video track
    |   + Pixel width: 640
    |   + Pixel height: 480
    |+ Tags
    | + Tag
    |  + Targets
    |  + Simple
    |   + Name: ENCODER
    |   + String: Lavf58.0.100
    | + Tag
    |  + Targets
    |   + TrackUID: 1
    |  + Simple
    |   + Name: DURATION
    |   + String: 21921:52:24.4800000
    |+ Cluster

    As we can see, the duration of the stream is very disproportionately high. (My valid stream duration should be around 8-10 secs). And, the frame rate in the track info is also not what I am setting it to be. I am setting frame rate as 25 fps.

    I am applying av_scale_q(rtpTimeStamp, codec_timebase, stream_timebase) and setting the rescaled rtpTimeStamp as pts and dts values. My guess is my way of setting pts and dts is wrong. Please help me how to set pts and dts values on the AVPacket, so as get a working webm file with proper meta info on it.

    EDIT :

    The following is the code I call to init the library :

    #define STREAM_FRAME_RATE 25
    #define STREAM_PIX_FMT AV_PIX_FMT_YUV420P

    typedef struct OutputStream {
      AVStream *st;
      AVCodecContext *enc;
      AVFrame *frame;
    } OutputStream;


    typedef struct WebMWriter {
         OutputStream *audioStream, *videoStream;
         AVFormatContext *ctx;
         AVOutputFormat *outfmt;
         AVCodec *audioCodec, *videoCodec;
    } WebMWriter;

    static OutputStream audioStream = { 0 }, videoStream = { 0 };

    WebMWriter *init(char *filename)
    {
       av_register_all();

       AVFormatContext *ctx = NULL;
       AVCodec *audioCodec = NULL, *videoCodec = NULL;
       const char *fmt_name = NULL;
       const char *file_name = filename;

       int alloc_status = avformat_alloc_output_context2(&ctx, NULL, fmt_name, file_name);

       if(!ctx)
               return NULL;

       AVOutputFormat *fmt = (*ctx).oformat;

       AVDictionary *video_opt = NULL;
       av_dict_set(&video_opt, "language", "eng", 0);
       av_dict_set(&video_opt, "title", "Video Track", 0);

       if(fmt->video_codec != AV_CODEC_ID_NONE)
       {
               addStream(&videoStream, ctx, &videoCodec, AV_CODEC_ID_VP8, video_opt);
       }

    if(videoStream.st)
               openVideo1(&videoStream, videoCodec, NULL);

       av_dump_format(ctx, 0, file_name, 1);

       int ret = -1;
       /* open the output file, if needed */
       if (!(fmt->flags & AVFMT_NOFILE)) {
               ret = avio_open(&ctx->pb, file_name, AVIO_FLAG_WRITE);
               if (ret < 0) {
                       printf("Could not open '%s': %s\n", file_name, av_err2str(ret));
                       return NULL;
               }
       }

       /* Write the stream header, if any. */
       AVDictionary *format_opt = NULL;
       ret = avformat_write_header(ctx, &format_opt);
       if (ret < 0) {
               fprintf(stderr, "Error occurred when opening output file: %s\n",
                               av_err2str(ret));
               return NULL;
       }


       WebMWriter *webmWriter = malloc(sizeof(struct WebMWriter));
       webmWriter->ctx = ctx;
       webmWriter->outfmt = fmt;
       webmWriter->audioStream = &audioStream;
       webmWriter->videoStream = &videoStream;
       webmWriter->videoCodec = videoCodec;

       return webmWriter;
    }

    The following is the openVideo() method :

    void openVideo1(OutputStream *out_st, AVCodec *codec, AVDictionary *opt_arg)
    {      
       AVCodecContext *codec_ctx = out_st->enc;
       int ret = -1;
       AVDictionary *opt = NULL;
       if(opt_arg != NULL)
       {      
               av_dict_copy(&opt, opt_arg, 0);
               ret = avcodec_open2(codec_ctx, codec, &opt);
       }
       else
       {      
               ret = avcodec_open2(codec_ctx, codec, NULL);
       }

       /* copy the stream parameters to the muxer */
       ret = avcodec_parameters_from_context(out_st->st->codecpar, codec_ctx);
       if (ret < 0) {
               printf("Could not copy the stream parameters\n");
               exit(1);
       }

    }

    The following is the addStream() method :

    void addStream(OutputStream *out_st, AVFormatContext *ctx, AVCodec **cdc, enum AVCodecID codecId, AVDictionary *opt_arg)
    {

       (*cdc) = avcodec_find_encoder(codecId);
       if(!(*cdc)) {
               exit(1);
       }

       /*as we are passing a NULL AVCodec cdc, So AVCodecContext codec_ctx will not be allocated, we have to do it explicitly */
       AVStream *st = avformat_new_stream(ctx, *cdc);
       if(!st) {
               exit(1);
       }

       out_st->st = st;
       st->id = ctx->nb_streams-1;

       AVDictionary *opt = NULL;
       av_dict_copy(&opt, opt_arg, 0);
       st->metadata = opt;

       AVCodecContext *codec_ctx = st->codec;
       if (!codec_ctx) {
               fprintf(stderr, "Could not alloc an encoding context\n");
               exit(1);
       }
       out_st->enc = codec_ctx;

       codec_ctx->strict_std_compliance = FF_COMPLIANCE_EXPERIMENTAL;

    switch ((*cdc)->type) {
               case AVMEDIA_TYPE_AUDIO:
                       codec_ctx->codec_id = codecId;
                       codec_ctx->sample_fmt  = AV_SAMPLE_FMT_FLTP;
                       codec_ctx->bit_rate    = 64000;
                       codec_ctx->sample_rate = 48000;
                       codec_ctx->channels    = 2;//1;
                       codec_ctx->channel_layout = AV_CH_LAYOUT_STEREO;
                       codec_ctx->codec_type = AVMEDIA_TYPE_AUDIO;
                       codec_ctx->time_base = (AVRational){1,STREAM_FRAME_RATE};


                       break;

               case AVMEDIA_TYPE_VIDEO:
                       codec_ctx->codec_id = codecId;
                       codec_ctx->bit_rate = 90000;
                       codec_ctx->width    = 640;
                       codec_ctx->height   = 480;


                       codec_ctx->time_base = (AVRational){1,STREAM_FRAME_RATE};
                       codec_ctx->gop_size = 12;
                       codec_ctx->pix_fmt = STREAM_PIX_FMT;
                       codec_ctx->codec_type = AVMEDIA_TYPE_VIDEO;

                       break;

               default:
                       break;
       }

    /* Some formats want stream headers to be separate. */
       if (ctx->oformat->flags & AVFMT_GLOBALHEADER)
               codec_ctx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;
    }

    The following is the code I call to write a frame of data to the file :

    int writeVideoStream(AVFormatContext *ctx, AVStream *st, uint8_t *data, int size, long frameTimeStamp, int isKeyFrame, AVCodecContext *codec_ctx)
    {      
       AVRational rat = st->time_base;
       AVPacket pkt = {0};
       av_init_packet(&pkt);

       void *opaque = NULL;
       int flags = AV_BUFFER_FLAG_READONLY;
       AVBufferRef *bufferRef = av_buffer_create(data, size, NULL, opaque, flags);

       pkt.buf = bufferRef;
       pkt.data = data;
       pkt.size = size;  
       pkt.stream_index  = st->index;

       pkt.pts = pkt.dts = frameTimeStamp;
       pkt.pts = av_rescale_q(pkt.pts, codec_ctx->time_base, st->time_base);
       pkt.dts = av_rescale_q(pkt.dts, codec_ctx->time_base, st->time_base);


       if(isKeyFrame == 1)
               pkt.flags |= AV_PKT_FLAG_KEY;

       int ret = av_interleaved_write_frame(ctx, &pkt);
       return ret;
    }

    NOTE :
    Here ’frameTimeStamp’ is the rtp timeStamp on the rtp packet of that frame.

    EDIT 2.0 :

    My updated addStream() method with codecpars changes :

    void addStream(OutputStream *out_st, AVFormatContext *ctx, AVCodec **cdc, enum AVCodecID codecId, AVDictionary *opt_arg)
    {

       (*cdc) = avcodec_find_encoder(codecId);
       if(!(*cdc)) {
               printf("@@@@@ couldnt find codec \n");
               exit(1);
       }

       AVStream *st = avformat_new_stream(ctx, *cdc);
       if(!st) {
               printf("@@@@@ couldnt init stream\n");
               exit(1);
       }

       out_st->st = st;
       st->id = ctx->nb_streams-1;
       AVCodecParameters *codecpars = st->codecpar;
       codecpars->codec_id = codecId;
       codecpars->codec_type = (*cdc)->type;

       AVDictionary *opt = NULL;
       av_dict_copy(&opt, opt_arg, 0);
       st->metadata = opt;
       //av_dict_free(&opt);

       AVCodecContext *codec_ctx = st->codec;
       if (!codec_ctx) {
               fprintf(stderr, "Could not alloc an encoding context\n");
               exit(1);
       }
       out_st->enc = codec_ctx;

       //since opus is experimental codec
       //codec_ctx->strict_std_compliance = FF_COMPLIANCE_EXPERIMENTAL;

    switch ((*cdc)->type) {
               case AVMEDIA_TYPE_AUDIO:
                       codec_ctx->codec_id = codecId;
                       codec_ctx->sample_fmt  = AV_SAMPLE_FMT_FLTP;//AV_SAMPLE_FMT_U8 or AV_SAMPLE_FMT_S16;
                       codec_ctx->bit_rate    = 64000;
                       codec_ctx->sample_rate = 48000;
                       codec_ctx->channels    = 2;//1;
                       codec_ctx->channel_layout = AV_CH_LAYOUT_STEREO; //AV_CH_LAYOUT_MONO;
                       codec_ctx->codec_type = AVMEDIA_TYPE_AUDIO;
                       codec_ctx->time_base = (AVRational){1,STREAM_FRAME_RATE};

                       codecpars->format = codec_ctx->sample_fmt;
                       codecpars->channels = codec_ctx->channels;
                       codecpars->sample_rate = codec_ctx->sample_rate;

                       break;

               case AVMEDIA_TYPE_VIDEO:
                       codec_ctx->codec_id = codecId;
                       codec_ctx->bit_rate = 90000;
                       codec_ctx->width    = 640;
                       codec_ctx->height   = 480;

                       codec_ctx->time_base = (AVRational){1,STREAM_FRAME_RATE};
                       codec_ctx->gop_size = 12;
                       codec_ctx->pix_fmt = STREAM_PIX_FMT;
                       //codec_ctx->max_b_frames = 1;
                       codec_ctx->codec_type = AVMEDIA_TYPE_VIDEO;
                       codec_ctx->framerate = av_inv_q(codec_ctx->time_base);
                       st->avg_frame_rate = codec_ctx->framerate;//(AVRational){25000, 1000};

                       codecpars->format = codec_ctx->pix_fmt;
                       codecpars->width = codec_ctx->width;
                       codecpars->height = codec_ctx->height;
                       codecpars->sample_aspect_ratio = (AVRational){codec_ctx->width, codec_ctx->height};

                       break;

               default:
                       break;
       }      
       codecpars->bit_rate = codec_ctx->bit_rate;

       int ret = avcodec_parameters_to_context(codec_ctx, codecpars);
       if (ret < 0) {
               printf("Could not copy the stream parameters\n");
               exit(1);
       }

       /* Some formats want stream headers to be separate. */
       if (ctx->oformat->flags & AVFMT_GLOBALHEADER)
               codec_ctx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;
    }
  • Ffplay : Change filter options while playing audio

    11 février 2018, par artha

    I am trying to apply equalizer filters to ffplay while it is playing an audio. Is it possible ?

    Like start playing the audio with the command :

    ffplay -i foo.wav

    Then while foo.wav is playing change it to

    ffplay -af "equalizer=f=1000:width_type=h:width=200:g=-10" -i foo.wav

    without stopping the audio.

  • latency when streaming x264

    18 novembre 2013, par tobsen

    I would like to produce a zerolatency live video stream and play it in VLC player with as little latency as possible.

    This are the settings I currently use :

    x264_param_default_preset( &m_Params, "veryfast", "zerolatency" );

    m_Params.i_threads              =   2;
    m_Params.b_sliced_threads       =   true;
    m_Params.i_width                =   m_SourceWidth;
    m_Params.i_height               =   m_SourceHeight;

    m_Params.b_intra_refresh        =   1;

    m_Params.b_vfr_input            =   true;
    m_Params.i_timebase_num         =   1;
    m_Params.i_timebase_den         =   1000;

    m_Params.i_fps_num              =   1;
    m_Params.i_fps_den              =   60;

    m_Params.rc.i_vbv_max_bitrate   =   512;
    m_Params.rc.i_vbv_buffer_size   =   256;
    m_Params.rc.f_vbv_buffer_init   =   1.1f;

    m_Params.rc.i_rc_method         =   X264_RC_CRF;
    m_Params.rc.f_rf_constant       =   24;
    m_Params.rc.f_rf_constant_max   =   35;

    m_Params.b_annexb               =   0;
    m_Params.b_repeat_headers       =   0;
    m_Params.b_aud                  =   0;

    x264_param_apply_profile( &m_Params, "high" );

    Using those settings, I have the following issues :

    • VLC shows lots of missing frames (see screenshot, "verloren"). I am not sure if this is an issue.
    • If I set a value <200ms for the network stream delay in VLC, VLC renders a few frames and than stops to decode/render frames.
    • If I set a value >= 200ms for the network stream delay in VLC, everything looks good so far but the latency is, obviously, 200ms, which is too high.

    Question :
    Which settings (x264lib and VLC) should I use in order to encode and stream with as little latency as possible ?

    enter image description here