Recherche avancée

Médias (91)

Autres articles (88)

  • Des sites réalisés avec MediaSPIP

    2 mai 2011, par

    Cette page présente quelques-uns des sites fonctionnant sous MediaSPIP.
    Vous pouvez bien entendu ajouter le votre grâce au formulaire en bas de page.

  • Organiser par catégorie

    17 mai 2013, par

    Dans MédiaSPIP, une rubrique a 2 noms : catégorie et rubrique.
    Les différents documents stockés dans MédiaSPIP peuvent être rangés dans différentes catégories. On peut créer une catégorie en cliquant sur "publier une catégorie" dans le menu publier en haut à droite ( après authentification ). Une catégorie peut être rangée dans une autre catégorie aussi ce qui fait qu’on peut construire une arborescence de catégories.
    Lors de la publication prochaine d’un document, la nouvelle catégorie créée sera proposée (...)

  • Récupération d’informations sur le site maître à l’installation d’une instance

    26 novembre 2010, par

    Utilité
    Sur le site principal, une instance de mutualisation est définie par plusieurs choses : Les données dans la table spip_mutus ; Son logo ; Son auteur principal (id_admin dans la table spip_mutus correspondant à un id_auteur de la table spip_auteurs)qui sera le seul à pouvoir créer définitivement l’instance de mutualisation ;
    Il peut donc être tout à fait judicieux de vouloir récupérer certaines de ces informations afin de compléter l’installation d’une instance pour, par exemple : récupérer le (...)

Sur d’autres sites (5269)

  • Audio Video Mixing - Sync issue in Android with FFMPEG, Media Codec in different devices

    24 novembre 2020, par khushbu

    I have already tried everything for Audio Video mixing and it's not working perfectly as in processing while mixing audio into the recorded video, sometimes the audio is ahead of video and vice-versa.

    


    Using FFMPEG :

    


    This is for add an Audio file to the Video file and generated the final Video where audio is replaced in the video.

    


    val cmd ="-i $inputVideoPath -i ${inputAudio.absolutePath} -map 0:v -map 1:a -c:v copy -shortest ${outputVideo.absolutePath}"


    


    After generating the final video, found some delay based on device performance so added delay in the below two cases :

    


    1)Added delay in Audio if audio is ahead of the video.

    


    val  cmd =  "-i ${tmpVideo.absolutePath} -itsoffset $hms -i ${tmpVideo.absolutePath} -map 0:v -map 1:a -c copy -preset veryfast ${createdVideo1?.absolutePath}"


    


    2)Added delay in Video if the video is ahead of the audio.

    


    val  cmd =   "-i ${tmpVideo.absolutePath} -itsoffset $hms -i ${tmpVideo.absolutePath} -map 1:v -map 0:a -c copy -preset veryfast ${createdVideo1?.absolutePath}"


    


    NOTE : Here $hms is delay in 00:00:00.000 formate

    


    but still, it's not working on all the devices like readmi, oneplus etc.

    


    Using Media Codec :

    


    Found some better performance in this solution but still not working on all the devices.

    


    In this process, It's supporting .aac format so first if the user selected .mp3 formate than i have to convert it into .aac format using the below function :

    


    fun Convert_Mp3_to_acc() {

   
    AndroidAudioConverter.load(requireActivity(), object : ILoadCallback {
        override fun onSuccess() {

            val callback: IConvertCallback = object : IConvertCallback {
                override fun onSuccess(convertedFile: File) {
                    toggleLoader(false)
                    audioLink = convertedFile.absolutePath
                    append()
                 

                }

                override fun onFailure(error: java.lang.Exception) {
                    toggleLoader(false)
                    Toast.makeText(requireActivity(), "" + error, Toast.LENGTH_SHORT).show()
                }
            }
            AndroidAudioConverter.with(requireActivity())
                .setFile(File(audioLink))
                .setFormat(AudioFormat.AAC)
                .setCallback(callback)
                .convert()
        }

        override fun onFailure(error: java.lang.Exception) {
            toggleLoader(false)
        }
    })
}


    


    After successful conversion from .mp3 to .aac formate, It's extracting audio track and video track for merge

    


     private fun append(): Boolean {&#xA;&#xA;    val progressDialog = ProgressDialog(requireContext())&#xA;    Thread {&#xA;        requireActivity().runOnUiThread {&#xA;            progressDialog.setMessage("Please wait..")&#xA;            progressDialog.show()&#xA;        }&#xA;        val video_list = ArrayList<string>()&#xA;        for (i in videopaths.indices) {&#xA;            val file: File = File(videopaths.get(i))&#xA;            if (file.exists()) {&#xA;                val retriever = MediaMetadataRetriever()&#xA;                retriever.setDataSource(requireActivity(), Uri.fromFile(file))&#xA;                val hasVideo =&#xA;                    retriever.extractMetadata(MediaMetadataRetriever.METADATA_KEY_HAS_VIDEO)&#xA;                val isVideo = "yes" == hasVideo&#xA;                if (isVideo /*&amp;&amp; file.length() > 1000*/) {&#xA;                    Log.d("resp", videopaths.get(i))&#xA;                    video_list.add(videopaths.get(i))&#xA;                }&#xA;            }&#xA;        }&#xA;        try {&#xA;            val inMovies = arrayOfNulls<movie>(video_list.size)&#xA;            for (i in video_list.indices) {&#xA;                inMovies[i] = MovieCreator.build(video_list[i])&#xA;            }&#xA;            val videoTracks: MutableList<track> =&#xA;                LinkedList()&#xA;            val audioTracks: MutableList<track> =&#xA;                LinkedList()&#xA;            for (m in inMovies) {&#xA;                for (t in m!!.tracks) {&#xA;                    if (t.handler == "soun") {&#xA;                        audioTracks.add(t)&#xA;                    }&#xA;                    if (t.handler == "vide") {&#xA;                        videoTracks.add(t)&#xA;                    }&#xA;                }&#xA;            }&#xA;            val result = Movie()&#xA;            if (audioTracks.size > 0) {&#xA;                result.addTrack(AppendTrack(*audioTracks.toTypedArray()))&#xA;            }&#xA;            if (videoTracks.size > 0) {&#xA;                result.addTrack(AppendTrack(*videoTracks.toTypedArray()))&#xA;            }&#xA;            val out = DefaultMp4Builder().build(result)&#xA;            var outputFilePath: String? = null&#xA;            outputFilePath =  Variables.outputfile&#xA;&#xA;            /*if (audio != null) {&#xA;                Variables.outputfile&#xA;            } else {&#xA;                Variables.outputfile2&#xA;            }*/&#xA;&#xA;            val fos = FileOutputStream(File(outputFilePath))&#xA;            out.writeContainer(fos.channel)&#xA;            fos.close()&#xA;&#xA;            requireActivity().runOnUiThread {&#xA;                progressDialog.dismiss()&#xA;&#xA;                Merge_withAudio()&#xA;&#xA;                /* if (audio != null) else {&#xA;                     //Go_To_preview_Activity()&#xA;                 }*/&#xA;            }&#xA;        } catch (e: java.lang.Exception) {&#xA;        }&#xA;    }.start()&#xA;&#xA;    return true&#xA;}&#xA;</track></track></movie></string>

    &#xA;

    This will add the selected audio with the recorded video

    &#xA;

    fun Merge_withAudio() {&#xA;    val root = Environment.getExternalStorageDirectory().toString()&#xA;&#xA;    // Uri mediaPath = Uri.parse("android.resource://" &#x2B; getPackageName() &#x2B; "/" &#x2B; R.raw.file_copy);&#xA;    //String audio_file =Variables.app_folder&#x2B;Variables.SelectedAudio_AAC;&#xA;&#xA;    //String filename = "android.resource://" &#x2B; getPackageName() &#x2B; "/raw/file_copy.aac";&#xA;    val audio_file: String = audioLink!!&#xA;    Log.e("Merge ", audio_file)&#xA;    val video = "$root/output.mp4"&#xA;&#xA;    val bundle=Bundle()&#xA;    bundle.putString("FinalVideo", createdVideo?.absolutePath)&#xA;&#xA;    val merge_video_audio = Merge_Video_Audio(this, bundle, object : AsyncResponse {&#xA;        override fun processFinish(output: Bundle?) {&#xA;&#xA;            requireActivity().runOnUiThread {&#xA;                finalVideo = bundle.getString("FinalVideo")&#xA;                createdVideo = File(finalVideo)&#xA;&#xA;                Log.e("Final Path ", finalVideo)&#xA;&#xA;                createThumb {&#xA;                    setUpExoPlayer()&#xA;                }&#xA;            }&#xA;&#xA;        }&#xA;    })&#xA;    merge_video_audio.doInBackground(audio_file, video, createdVideo?.absolutePath)&#xA;}&#xA;&#xA;&#xA; public class Merge_Video_Audio extends AsyncTask {&#xA;&#xA;   ProgressDialog progressDialog;&#xA;   RecentCompletedVideoFragment context;&#xA;   public AsyncResponse delegate = null;&#xA;&#xA;&#xA;Bundle bundleValue;&#xA;&#xA;String audio,video,output;&#xA;&#xA;public Merge_Video_Audio(RecentCompletedVideoFragment context, Bundle bundle , AsyncResponse delegate ){&#xA;    this.context=context;&#xA;    this.bundleValue=bundle;&#xA;    this.delegate=delegate;&#xA;    progressDialog=new ProgressDialog(context.requireContext());&#xA;    progressDialog.setMessage("Please Wait...");&#xA;}&#xA;&#xA;@Override&#xA;protected void onPreExecute() {&#xA;    super.onPreExecute();&#xA;}&#xA;&#xA;@Override&#xA;public String doInBackground(String... strings) {&#xA;    try {&#xA;        progressDialog.show();&#xA;    }catch (Exception e){&#xA;&#xA;    }&#xA;     audio=strings[0];&#xA;     video=strings[1];&#xA;     output=strings[2];&#xA;&#xA;     Log.d("resp",audio&#x2B;"----"&#x2B;video&#x2B;"-----"&#x2B;output);&#xA;&#xA;    Thread thread = new Thread(runnable);&#xA;    thread.start();&#xA;&#xA;    return null;&#xA;}&#xA;&#xA;&#xA;@Override&#xA;protected void onPostExecute(String s) {&#xA;    super.onPostExecute(s);&#xA;    Log.e("On Post Execute ", "True");&#xA;&#xA;&#xA;}&#xA;&#xA;&#xA;   public void Go_To_preview_Activity(){&#xA;&#xA;    delegate.processFinish(bundleValue);&#xA;   }&#xA;&#xA;  public Track CropAudio(String videopath, Track fullAudio){&#xA;    try {&#xA;&#xA;        IsoFile isoFile = new IsoFile(videopath);&#xA;&#xA;        double lengthInSeconds = (double)&#xA;                isoFile.getMovieBox().getMovieHeaderBox().getDuration() /&#xA;                isoFile.getMovieBox().getMovieHeaderBox().getTimescale();&#xA;&#xA;&#xA;        Track audioTrack = (Track) fullAudio;&#xA;&#xA;&#xA;        double startTime1 = 0;&#xA;        double endTime1 = lengthInSeconds;&#xA;&#xA;&#xA;        long currentSample = 0;&#xA;        double currentTime = 0;&#xA;        double lastTime = -1;&#xA;        long startSample1 = -1;&#xA;        long endSample1 = -1;&#xA;&#xA;&#xA;        for (int i = 0; i &lt; audioTrack.getSampleDurations().length; i&#x2B;&#x2B;) {&#xA;&#xA;            long delta = audioTrack.getSampleDurations()[i];&#xA;&#xA;            if (currentTime > lastTime &amp;&amp; currentTime &lt;= startTime1) {&#xA;                // current sample is still before the new starttime&#xA;                startSample1 = currentSample;&#xA;            }&#xA;            if (currentTime > lastTime &amp;&amp; currentTime &lt;= endTime1) {&#xA;                // current sample is after the new start time and still before the new endtime&#xA;                endSample1 = currentSample;&#xA;            }&#xA;&#xA;            lastTime = currentTime;&#xA;            currentTime &#x2B;= (double) delta / (double) audioTrack.getTrackMetaData().getTimescale();&#xA;            currentSample&#x2B;&#x2B;;&#xA;        }&#xA;&#xA;        CroppedTrack cropperAacTrack = new CroppedTrack(fullAudio, startSample1, endSample1);&#xA;&#xA;        return cropperAacTrack;&#xA;&#xA;    } catch (IOException e) {&#xA;        e.printStackTrace();&#xA;    }&#xA;&#xA;    return fullAudio;&#xA;}&#xA;&#xA;&#xA;&#xA;  public Runnable runnable =new Runnable() {&#xA;    @Override&#xA;    public void run() {&#xA;&#xA;        try {&#xA;&#xA;            Movie m = MovieCreator.build(video);&#xA;&#xA;&#xA;            List nuTracks = new ArrayList&lt;>();&#xA;&#xA;            for (Track t : m.getTracks()) {&#xA;                if (!"soun".equals(t.getHandler())) {&#xA;&#xA;                    Log.e("Track  ",t.getName());&#xA;                    nuTracks.add(t);&#xA;                }&#xA;            }&#xA;&#xA;            Log.e("Path ",audio.toString());&#xA;&#xA;&#xA;            try {&#xA;                // Track nuAudio = new AACTrackImpl();&#xA;                Track nuAudio = new AACTrackImpl(new FileDataSourceImpl(audio));&#xA;&#xA;                Track crop_track = CropAudio(video, nuAudio);&#xA;&#xA;                nuTracks.add(crop_track);&#xA;&#xA;                m.setTracks(nuTracks);&#xA;&#xA;                Container mp4file = new DefaultMp4Builder().build(m);&#xA;&#xA;                FileChannel fc = new FileOutputStream(new File(output)).getChannel();&#xA;                mp4file.writeContainer(fc);&#xA;                fc.close();&#xA;&#xA;            }catch (FileNotFoundException fnfe){&#xA;                fnfe.printStackTrace();&#xA;            }catch(IOException ioe){&#xA;                ioe.printStackTrace();&#xA;           }&#xA;&#xA;&#xA;            try {&#xA;&#xA;                progressDialog.dismiss();&#xA;            }catch (Exception e){&#xA;                Log.d("resp",e.toString());&#xA;&#xA;            }finally {&#xA;                Go_To_preview_Activity();&#xA;&#xA;            }&#xA;&#xA;        } catch (IOException e) {&#xA;            e.printStackTrace();&#xA;            Log.d("resp",e.toString());&#xA;&#xA;        }&#xA;&#xA;    }&#xA;&#xA; };&#xA;&#xA; }&#xA;

    &#xA;

    This solution is also not working in all the devices.

    &#xA;

    Can anyone suggest where i am going wrong or any solution for it ?

    &#xA;

  • ffmpeg : problems playing video on android

    25 novembre 2020, par Jonathan García

    (Translated) Hello ! I have the following problem. I concatenate multiple ts files and convert to mp4 with ffmpeg. I do this operation multiple times in an automated way, so I don't always check the results, but whenever I do, on the computer, the result obtained is as expected. However, some videos, when played on an Android device, are seen incorrectly in any application : Chrome, Firefox, Vlc, etc. The version of ffmpeg I use is the latest. This is the command I use :

    &#xA;

    ffmpeg.exe -hwaccel dxva2 -y -f concat -i list.txt -acodec copy -vcodec copy output.mp4 -preset normal

    &#xA;

    Results :

    &#xA;

    PC

    &#xA;

    Android

    &#xA;

    This is the output of ffmpeg :

    &#xA;

    ffmpeg version n4.3.1-26-gca55240b8c Copyright (c) 2000-2020 the FFmpeg developers&#xA;  built with gcc 9.3-win32 (GCC) 20200320&#xA;  configuration: --prefix=/ffbuild/prefix --pkg-config-flags=--static --pkg-config=pkg-config --cross-prefix=x86_64-w64-mingw32- --arch=x86_64 --target-os=mingw32 --enable-gpl --enable-version3 --disable-debug --disable-w32threads --enable-pthreads --enable-iconv --enable-zlib --enable-libxml2 --enable-libfreetype --enable-libfribidi --enable-gmp --enable-lzma --enable-fontconfig --enable-opencl --enable-libvmaf --disable-vulkan --enable-libvorbis --enable-amf --enable-libaom --enable-avisynth --enable-libdav1d --enable-libdavs2 --enable-ffnvcodec --enable-cuda-llvm --disable-libglslang --enable-libass --enable-libbluray --enable-libmp3lame --enable-libopus --enable-libtheora --enable-libvpx --enable-libwebp --enable-libmfx --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librav1e --enable-librubberband --enable-schannel --enable-sdl2 --enable-libsoxr --enable-libsrt --enable-libtwolame --enable-libvidstab --enable-libx264 --enable-libx265 --enable-libxavs2 --enable-libxvid --enable-libzimg --extra-cflags=-DLIBTWOLAME_STATIC --extra-cxxflags= --extra-ldflags=-pthread --extra-libs=-lgomp&#xA;  libavutil      56. 51.100 / 56. 51.100&#xA;  libavcodec     58. 91.100 / 58. 91.100&#xA;  libavformat    58. 45.100 / 58. 45.100&#xA;  libavdevice    58. 10.100 / 58. 10.100&#xA;  libavfilter     7. 85.100 /  7. 85.100&#xA;  libswscale      5.  7.100 /  5.  7.100&#xA;  libswresample   3.  7.100 /  3.  7.100&#xA;  libpostproc    55.  7.100 / 55.  7.100&#xA;Trailing option(s) found in the command: may be ignored.&#xA;Input #0, concat, from &#x27;list.txt&#x27;:&#xA;  Duration: N/A, start: 0.000000, bitrate: N/A&#xA;    Stream #0:0: Data: timed_id3 (ID3  / 0x20334449)&#xA;    Stream #0:1: Video: h264 (Main) ([27][0][0][0] / 0x001B), yuv420p(tv, unknown/bt470bg/unknown, progressive), 320x568, 29.50 fps, 29.50 tbr, 90k tbn, 180k tbc&#xA;    Stream #0:2: Audio: aac (LC) ([15][0][0][0] / 0x000F), 44100 Hz, mono, fltp, 64 kb/s&#xA;Output #0, mp4, to &#x27;output.mp4&#x27;:&#xA;  Metadata:&#xA;    encoder         : Lavf58.45.100&#xA;    Stream #0:0: Video: h264 (Main) (avc1 / 0x31637661), yuv420p(tv, unknown/bt470bg/unknown, progressive), 320x568, q=2-31, 29.50 fps, 29.50 tbr, 90k tbn, 90k tbc&#xA;    Stream #0:1: Audio: aac (LC) (mp4a / 0x6134706D), 44100 Hz, mono, fltp, 64 kb/s&#xA;Stream mapping:&#xA;  Stream #0:1 -> #0:0 (copy)&#xA;  Stream #0:2 -> #0:1 (copy)&#xA;Press [q] to stop, [?] for help&#xA;frame= 9504 fps=8330 q=-1.0 Lsize=   24561kB time=00:07:42.26 bitrate= 435.3kbits/s speed= 405x&#xA;video:21200kB audio:3100kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: 1.073735%&#xA;

    &#xA;

    Not all videos are "yuv420p (tv, unknown / bt470bg / unknown, progressive)", but this should not be the problem, since other videos with this information are seen correctly on Android.

    &#xA;

    To correct this type of video I do the following :

    &#xA;

    ffmpeg -y -f concat -i list.txt -c:v libx264 -preset slow -crf 22 -pix_fmt yuv420p -c:a aac -b:a 128k output.mp4

    &#xA;

    So I get the video to play correctly both on pc and Android. Unfortunately, automating the process by always using this last line occasionally causes problems (starting file 40MB, ending file> 1GB, more than 2 hours)

    &#xA;

    I would like, if possible, help me identify which videos will be viewed incorrectly on Android. Thank you very much in advance. Finally, this is the answer that ffmpeg gives when executing the line with which I fix the file :

    &#xA;

    ffmpeg version n4.3.1-26-gca55240b8c Copyright (c) 2000-2020 the FFmpeg developers&#xA;  built with gcc 9.3-win32 (GCC) 20200320&#xA;  configuration: --prefix=/ffbuild/prefix --pkg-config-flags=--static --pkg-config=pkg-config --cross-prefix=x86_64-w64-mingw32- --arch=x86_64 --target-os=mingw32 --enable-gpl --enable-version3 --disable-debug --disable-w32threads --enable-pthreads --enable-iconv --enable-zlib --enable-libxml2 --enable-libfreetype --enable-libfribidi --enable-gmp --enable-lzma --enable-fontconfig --enable-opencl --enable-libvmaf --disable-vulkan --enable-libvorbis --enable-amf --enable-libaom --enable-avisynth --enable-libdav1d --enable-libdavs2 --enable-ffnvcodec --enable-cuda-llvm --disable-libglslang --enable-libass --enable-libbluray --enable-libmp3lame --enable-libopus --enable-libtheora --enable-libvpx --enable-libwebp --enable-libmfx --enable-libopencore-amrnb --enable-libopencore-amrwb --enable-libopenjpeg --enable-librav1e --enable-librubberband --enable-schannel --enable-sdl2 --enable-libsoxr --enable-libsrt --enable-libtwolame --enable-libvidstab --enable-libx264 --enable-libx265 --enable-libxavs2 --enable-libxvid --enable-libzimg --extra-cflags=-DLIBTWOLAME_STATIC --extra-cxxflags= --extra-ldflags=-pthread --extra-libs=-lgomp&#xA;  libavutil      56. 51.100 / 56. 51.100&#xA;  libavcodec     58. 91.100 / 58. 91.100&#xA;  libavformat    58. 45.100 / 58. 45.100&#xA;  libavdevice    58. 10.100 / 58. 10.100&#xA;  libavfilter     7. 85.100 /  7. 85.100&#xA;  libswscale      5.  7.100 /  5.  7.100&#xA;  libswresample   3.  7.100 /  3.  7.100&#xA;  libpostproc    55.  7.100 / 55.  7.100&#xA;Input #0, concat, from &#x27;list.txt&#x27;:&#xA;  Duration: N/A, start: 0.000000, bitrate: N/A&#xA;    Stream #0:0: Data: timed_id3 (ID3  / 0x20334449)&#xA;    Stream #0:1: Video: h264 (Main) ([27][0][0][0] / 0x001B), yuv420p(tv, unknown/bt470bg/unknown, progressive), 320x568, 29.50 fps, 29.50 tbr, 90k tbn, 180k tbc&#xA;    Stream #0:2: Audio: aac (LC) ([15][0][0][0] / 0x000F), 44100 Hz, mono, fltp, 64 kb/s&#xA;Stream mapping:&#xA;  Stream #0:1 -> #0:0 (h264 (native) -> h264 (libx264))&#xA;  Stream #0:2 -> #0:1 (aac (native) -> aac (native))&#xA;Press [q] to stop, [?] for help&#xA;[libx264 @ 000001efdbaee540] using cpu capabilities: MMX2 SSE2Fast SSSE3 SSE4.2 AVX FMA3 BMI2 AVX2&#xA;[libx264 @ 000001efdbaee540] profile High, level 3.0, 4:2:0, 8-bit&#xA;[libx264 @ 000001efdbaee540] 264 - core 161 - H.264/MPEG-4 AVC codec - Copyleft 2003-2020 - http://www.videolan.org/x264.html - options: cabac=1 ref=5 deblock=1:0:0 analyse=0x3:0x113 me=hex subme=8 psy=1 psy_rd=1.00:0.00 mixed_ref=1 me_range=16 chroma_me=1 trellis=2 8x8dct=1 cqm=0 deadzone=21,11 fast_pskip=1 chroma_qp_offset=-2 threads=12 lookahead_threads=2 sliced_threads=0 nr=0 decimate=1 interlaced=0 bluray_compat=0 constrained_intra=0 bframes=3 b_pyramid=2 b_adapt=1 b_bias=0 direct=3 weightb=1 open_gop=0 weightp=2 keyint=250 keyint_min=25 scenecut=40 intra_refresh=0 rc_lookahead=50 rc=crf mbtree=1 crf=22.0 qcomp=0.60 qpmin=0 qpmax=69 qpstep=4 ip_ratio=1.40 aq=1:1.00&#xA;Output #0, mp4, to &#x27;d.mp4&#x27;:&#xA;  Metadata:&#xA;    encoder         : Lavf58.45.100&#xA;    Stream #0:0: Video: h264 (libx264) (avc1 / 0x31637661), yuv420p, 320x568, q=-1--1, 29.50 fps, 15104 tbn, 29.50 tbc&#xA;    Metadata:&#xA;      encoder         : Lavc58.91.100 libx264&#xA;    Side data:&#xA;      cpb: bitrate max/min/avg: 0/0/0 buffer size: 0 vbv_delay: N/A&#xA;    Stream #0:1: Audio: aac (LC) (mp4a / 0x6134706D), 44100 Hz, mono, fltp, 128 kb/s&#xA;    Metadata:&#xA;      encoder         : Lavc58.91.100 aac&#xA;More than 1000 frames duplicated    8960kB time=00:02:06.74 bitrate= 579.1kbits/s dup=999 drop=0 speed=15.7x&#xA;frame=13638 fps=468 q=-1.0 Lsize=   32033kB time=00:07:42.20 bitrate= 567.8kbits/s dup=4134 drop=0 speed=15.9x&#xA;video:25547kB audio:5995kB subtitle:0kB other streams:0kB global headers:0kB muxing overhead: 1.557852%&#xA;[libx264 @ 000001efdbaee540] frame I:87    Avg QP:19.17  size: 12750&#xA;[libx264 @ 000001efdbaee540] frame P:4630  Avg QP:21.89  size:  4286&#xA;[libx264 @ 000001efdbaee540] frame B:8921  Avg QP:23.89  size:   583&#xA;[libx264 @ 000001efdbaee540] consecutive B-frames:  8.9%  8.6%  9.1% 73.4%&#xA;[libx264 @ 000001efdbaee540] mb I  I16..4: 12.2% 76.2% 11.6%&#xA;[libx264 @ 000001efdbaee540] mb P  I16..4:  3.7% 11.0%  0.8%  P16..4: 37.1% 16.2%  5.7%  0.0%  0.0%    skip:25.4%&#xA;[libx264 @ 000001efdbaee540] mb B  I16..4:  0.3%  0.9%  0.1%  B16..8: 30.4%  3.1%  0.3%  direct: 0.8%  skip:64.2%  L0:51.4% L1:44.3% BI: 4.3%&#xA;[libx264 @ 000001efdbaee540] 8x8 transform intra:71.2% inter:66.8%&#xA;[libx264 @ 000001efdbaee540] direct mvs  spatial:99.9% temporal:0.1%&#xA;[libx264 @ 000001efdbaee540] coded y,uvDC,uvAC intra: 52.5% 42.1% 5.5% inter: 9.7% 9.0% 0.3%&#xA;[libx264 @ 000001efdbaee540] i16 v,h,dc,p: 19% 21%  9% 50%&#xA;[libx264 @ 000001efdbaee540] i8 v,h,dc,ddl,ddr,vr,hd,vl,hu: 22% 11% 13%  6%  9% 11%  9% 11%  8%&#xA;[libx264 @ 000001efdbaee540] i4 v,h,dc,ddl,ddr,vr,hd,vl,hu: 23%  9%  8%  6% 14% 14% 11%  9%  6%&#xA;[libx264 @ 000001efdbaee540] i8c dc,h,v,p: 46% 20% 23% 12%&#xA;[libx264 @ 000001efdbaee540] Weighted P-Frames: Y:2.9% UV:0.8%&#xA;[libx264 @ 000001efdbaee540] ref P L0: 72.3% 12.2% 11.3%  2.1%  1.9%  0.2%  0.0%&#xA;[libx264 @ 000001efdbaee540] ref B L0: 93.1%  5.5%  1.1%  0.3%&#xA;[libx264 @ 000001efdbaee540] ref B L1: 97.6%  2.4%&#xA;[libx264 @ 000001efdbaee540] kb/s:452.67&#xA;[aac @ 000001efdbaee9c0] Qavg: 10682.834&#xA;

    &#xA;

  • Frame sliced into 2 under some degree. How fix it ?

    26 novembre 2020, par Алекс Аникей

    I trying use h264 codec in videochat application. And in some reason frame sliced into 2 triangle (picture below). I try send my desktop image to another person and get this image on another client.

    &#xA;

    What settings i set wrong ?&#xA;My code :

    &#xA;

    Init :

    &#xA;

    VCSession *vc_new_x264(Logger *log, ToxAV *av, uint32_t friend_number, toxav_video_receive_frame_cb *cb, void *cb_data,&#xA;                       VCSession *vc)&#xA;{&#xA;&#xA;    if (x264_param_default_preset(&amp;param, "slow", "zerolatency") &lt; 0) {&#xA;        // goto fail;&#xA;    }&#xA;&#xA;    param.i_csp = X264_CSP_I420;&#xA;    param.i_width  = 1920;&#xA;    param.i_height = 1080;&#xA;    vc->h264_enc_width = param.i_width;&#xA;    vc->h264_enc_height = param.i_height;&#xA;&#xA;    param.i_keyint_max = 30;&#xA;&#xA;    param.b_vfr_input = 1; /* VFR input.  If 1, use timebase and timestamps for ratecontrol purposes.&#xA;                            * If 0, use fps only. */&#xA;    param.i_timebase_num = 1;       // 1 ms = timebase units = (1/1000)s&#xA;    param.i_timebase_den = 1000;   // 1 ms = timebase units = (1/1000)s&#xA;    param.b_repeat_headers = 1;&#xA;    param.b_annexb = 1;&#xA;&#xA;    param.rc.f_rate_tolerance = VIDEO_F_RATE_TOLERANCE_H264;&#xA;    param.rc.i_vbv_buffer_size = 1500;&#xA;    param.rc.i_vbv_max_bitrate = VIDEO_BITRATE_INITIAL_VALUE_H264 * 1;&#xA;&#xA;    vc->h264_enc_bitrate = VIDEO_BITRATE_INITIAL_VALUE_H264;&#xA;&#xA;    param.rc.i_qp_min = 13;&#xA;    param.rc.i_qp_max = 35; // max quantizer for x264&#xA;&#xA;    vc->h264_enc_bitrate = VIDEO_BITRATE_INITIAL_VALUE_H264;&#xA;&#xA;    param.rc.b_stat_read = 0;&#xA;    param.rc.b_stat_write = 0;&#xA;&#xA;&#xA;    if (x264_param_apply_profile(&amp;param,&#xA;                                 "high") &lt; 0) { // "baseline", "main", "high", "high10", "high422", "high444"&#xA;        // goto fail;&#xA;    }&#xA;&#xA;&#xA;    if (x264_picture_alloc(&amp;(vc->h264_in_pic), param.i_csp, param.i_width, param.i_height) &lt; 0) {&#xA;        // goto fail;&#xA;    }&#xA;&#xA;    vc->h264_encoder = x264_encoder_open(&amp;param);&#xA;&#xA;    AVCodec *codec = NULL;&#xA;    vc->h264_decoder = NULL;&#xA;    avcodec_register_all();&#xA;    codec = NULL;&#xA;&#xA;    codec = avcodec_find_decoder(AV_CODEC_ID_H264);&#xA;&#xA;    if (!codec) {&#xA;        LOGGER_WARNING(log, "codec not found H264 on decoder");&#xA;    }&#xA;&#xA;    vc->h264_decoder = avcodec_alloc_context3(codec);&#xA;&#xA;    if (codec->capabilities &amp; AV_CODEC_CAP_TRUNCATED) {&#xA;        vc->h264_decoder->flags |= AV_CODEC_FLAG_TRUNCATED; /* we do not send complete frames */&#xA;    }&#xA;&#xA;&#xA;    vc->h264_decoder->delay = 5;&#xA;&#xA;    if (avcodec_open2(vc->h264_decoder, codec, NULL) &lt; 0) {&#xA;        LOGGER_WARNING(log, "could not open codec H264 on decoder");&#xA;    }&#xA;&#xA;&#xA;    return vc;&#xA;}&#xA;

    &#xA;

    Get frame and decoding him :

    &#xA;

    void vc_iterate_x264(VCSession *vc)&#xA;{&#xA;&#xA;    if (!vc) {&#xA;        return;&#xA;    }&#xA;&#xA;    pthread_mutex_lock(vc->queue_mutex);&#xA;&#xA;    struct RTPMessage *p;&#xA;&#xA;    if (!rb_read(vc->vbuf_raw, (void **)&amp;p)) {&#xA;        LOGGER_TRACE(vc->log, "no Video frame data available");&#xA;        pthread_mutex_unlock(vc->queue_mutex);&#xA;        return;&#xA;    }&#xA;&#xA;    pthread_mutex_unlock(vc->queue_mutex);&#xA;    const struct RTPHeader *const header = &amp;p->header;&#xA;&#xA;    uint32_t full_data_len;&#xA;&#xA;    if (header->flags &amp; RTP_LARGE_FRAME) {&#xA;        full_data_len = header->data_length_full;&#xA;        LOGGER_WARNING(vc->log, "vc_iterate:001:full_data_len=%d", (int)full_data_len);&#xA;    } else {&#xA;        full_data_len = p->len;&#xA;        if (header->data_length_lower != full_data_len)&#xA;        {&#xA;            LOGGER_ERROR("Data header and packet don&#x27;t equal: %d - header %d - packet", header->data_length_lower, full_data_len);&#xA;        }&#xA;        LOGGER_DEBUG(vc->log, "vc_iterate:002");&#xA;    }&#xA;&#xA;    decode_frame_h264(vc, p, full_data_len);&#xA;}&#xA;&#xA;void decode_frame_h264(VCSession *vc,&#xA;                       struct RTPMessage *p,&#xA;                       uint32_t full_data_len)&#xA;{&#xA;&#xA;    AVPacket *compr_data;&#xA;    compr_data = av_packet_alloc();&#xA;&#xA;&#xA;    uint8_t *tmp_buf = calloc(1, full_data_len &#x2B; FF_INPUT_BUFFER_PADDING_SIZE);&#xA;    memcpy(tmp_buf, p->data, full_data_len);&#xA;&#xA;    compr_data->data = tmp_buf; // p->data;&#xA;    compr_data->size = (int)full_data_len; // hmm, "int" again&#xA;&#xA;    avcodec_send_packet(vc->h264_decoder, compr_data);&#xA;&#xA;    int ret_ = 0;&#xA;    while (ret_ >= 0) {&#xA;        AVFrame *frame = av_frame_alloc();&#xA;        ret_ = avcodec_receive_frame(vc->h264_decoder, frame);&#xA;        if (ret_ == AVERROR(EAGAIN) || ret_ == AVERROR_EOF) {&#xA;            // error&#xA;            break;&#xA;        } else if (ret_ &lt; 0) {&#xA;            // Error during decoding&#xA;            break;&#xA;        } else if (ret_ == 0) {&#xA;            vc->vcb(vc->av, vc->friend_number, frame->width, frame->height,&#xA;                          (const uint8_t *)frame->data[0],&#xA;                          (const uint8_t *)frame->data[1],&#xA;                          (const uint8_t *)frame->data[2],&#xA;                          frame->linesize[0], frame->linesize[1],&#xA;                          frame->linesize[2], vc->vcb_user_data);&#xA;        } else {&#xA;            // some other error&#xA;        }&#xA;        av_frame_free(&amp;frame);&#xA;    }&#xA;    av_packet_free(&amp;compr_data);&#xA;    free(tmp_buf);&#xA;    free(p);&#xA;}&#xA;

    &#xA;

    Send frame and encoding :

    &#xA;

    bool toxav_video_send_frame(ToxAV *av, uint32_t friend_number, uint16_t width, uint16_t height, const uint8_t *y,&#xA;                            const uint8_t *u, const uint8_t *v, Toxav_Err_Send_Frame *error, int16_t kf_max_dist, vpx_codec_er_flags_t error_resilient,&#xA;                            unsigned int my_lag_in_frames, uint16_t kf_mode, uint16_t quality_mode)&#xA;{&#xA;    Toxav_Err_Send_Frame rc = TOXAV_ERR_SEND_FRAME_OK;&#xA;    ToxAVCall *call;&#xA;    uint64_t video_frame_record_timestamp = current_time_monotonic(av->m->mono_time);&#xA;&#xA;    int vpx_encode_flags = 0;&#xA;&#xA;    pthread_mutex_lock(call->mutex_video);&#xA;    pthread_mutex_unlock(av->mutex);&#xA;&#xA;    if (y == nullptr || u == nullptr || v == nullptr) {&#xA;        pthread_mutex_unlock(call->mutex_video);&#xA;        rc = TOXAV_ERR_SEND_FRAME_NULL;&#xA;        goto RETURN;&#xA;    }&#xA;&#xA;&#xA;    if (call->video_rtp->ssrc &lt; VIDEO_SEND_X_KEYFRAMES_FIRST) {&#xA;        // Key frame flag for first frames&#xA;        vpx_encode_flags = VPX_EFLAG_FORCE_KF;&#xA;        LOGGER_INFO(av->m->log, "I_FRAME_FLAG:%d only-i-frame mode", call->video_rtp->ssrc);&#xA;&#xA;        &#x2B;&#x2B;call->video_rtp->ssrc;&#xA;    } else if (call->video_rtp->ssrc == VIDEO_SEND_X_KEYFRAMES_FIRST) {&#xA;        // normal keyframe placement&#xA;        vpx_encode_flags = 0;&#xA;        LOGGER_INFO(av->m->log, "I_FRAME_FLAG:%d normal mode", call->video_rtp->ssrc);&#xA;&#xA;        &#x2B;&#x2B;call->video_rtp->ssrc;&#xA;    }&#xA;&#xA;&#xA;    x264_nal_t *nal = NULL;&#xA;    int i_frame_size = 0;&#xA;&#xA;    uint32_t result = encode_frame_h264(av, friend_number, width, height,&#xA;                                        y, u, v,&#xA;                                        &amp;video_frame_record_timestamp,&#xA;                                        vpx_encode_flags,&#xA;                                        &amp;nal,&#xA;                                        &amp;i_frame_size);&#xA;    if (result != 0) {&#xA;        pthread_mutex_unlock(call->mutex_video);&#xA;        rc = TOXAV_ERR_SEND_FRAME_INVALID;&#xA;        goto RETURN;&#xA;    }&#xA;&#xA;    &#x2B;&#x2B;call->video->frame_counter;&#xA;&#xA;    rc = send_frames_h264(av, friend_number, width, height,&#xA;                          y, u, v, call,&#xA;                          &amp;video_frame_record_timestamp,&#xA;                          vpx_encode_flags,&#xA;                          &amp;nal,&#xA;                          &amp;i_frame_size,&#xA;                          &amp;rc);&#xA;&#xA;    pthread_mutex_unlock(call->mutex_video);&#xA;&#xA;RETURN:&#xA;&#xA;    if (error) {&#xA;        *error = rc;&#xA;    }&#xA;&#xA;    return rc == TOXAV_ERR_SEND_FRAME_OK;&#xA;}&#xA;&#xA;uint32_t send_frames_h264(ToxAV *av, uint32_t friend_number, uint16_t width, uint16_t height,&#xA;                          const uint8_t *y,&#xA;                          const uint8_t *u, const uint8_t *v, ToxAVCall *call,&#xA;                          uint64_t *video_frame_record_timestamp,&#xA;                          int vpx_encode_flags,&#xA;                          x264_nal_t **nal,&#xA;                          int *i_frame_size,&#xA;                          TOXAV_ERR_SEND_FRAME *rc)&#xA;{&#xA;&#xA;    if (*i_frame_size > 0) {&#xA;&#xA;        // use the record timestamp that was actually used for this frame&#xA;        *video_frame_record_timestamp = (uint64_t)call->video->h264_in_pic.i_pts;&#xA;        const uint32_t frame_length_in_bytes = *i_frame_size;&#xA;        const int keyframe = (int)call->video->h264_out_pic.b_keyframe;&#xA;&#xA;        LOGGER_DEBUG(av->m->log, "video packet record time: %lu", (*video_frame_record_timestamp));&#xA;&#xA;        int res = rtp_send_data&#xA;                  (&#xA;                      call->video_rtp,&#xA;                      (const uint8_t *)((*nal)->p_payload),&#xA;                      frame_length_in_bytes,&#xA;                      keyframe,&#xA;                      *video_frame_record_timestamp,&#xA;                      av->m->log&#xA;                  );&#xA;&#xA;        (*video_frame_record_timestamp)&#x2B;&#x2B;;&#xA;&#xA;        if (res &lt; 0) {&#xA;            LOGGER_WARNING(av->m->log, "Could not send video frame: %s", strerror(errno));&#xA;            *rc = TOXAV_ERR_SEND_FRAME_RTP_FAILED;&#xA;            return 1;&#xA;        }&#xA;&#xA;        return 0;&#xA;    } else {&#xA;        *rc = TOXAV_ERR_SEND_FRAME_RTP_FAILED;&#xA;        return 1;&#xA;    }&#xA;&#xA;}&#xA;

    &#xA;

    I get image like this :

    &#xA;

    enter image description here

    &#xA;