Recherche avancée

Médias (1)

Mot : - Tags -/Rennes

Autres articles (47)

  • La sauvegarde automatique de canaux SPIP

    1er avril 2010, par

    Dans le cadre de la mise en place d’une plateforme ouverte, il est important pour les hébergeurs de pouvoir disposer de sauvegardes assez régulières pour parer à tout problème éventuel.
    Pour réaliser cette tâche on se base sur deux plugins SPIP : Saveauto qui permet une sauvegarde régulière de la base de donnée sous la forme d’un dump mysql (utilisable dans phpmyadmin) mes_fichiers_2 qui permet de réaliser une archive au format zip des données importantes du site (les documents, les éléments (...)

  • Personnaliser les catégories

    21 juin 2013, par

    Formulaire de création d’une catégorie
    Pour ceux qui connaissent bien SPIP, une catégorie peut être assimilée à une rubrique.
    Dans le cas d’un document de type catégorie, les champs proposés par défaut sont : Texte
    On peut modifier ce formulaire dans la partie :
    Administration > Configuration des masques de formulaire.
    Dans le cas d’un document de type média, les champs non affichés par défaut sont : Descriptif rapide
    Par ailleurs, c’est dans cette partie configuration qu’on peut indiquer le (...)

  • Emballe médias : à quoi cela sert ?

    4 février 2011, par

    Ce plugin vise à gérer des sites de mise en ligne de documents de tous types.
    Il crée des "médias", à savoir : un "média" est un article au sens SPIP créé automatiquement lors du téléversement d’un document qu’il soit audio, vidéo, image ou textuel ; un seul document ne peut être lié à un article dit "média" ;

Sur d’autres sites (6994)

  • Building ffmpeg on mac results in undefined symbols

    9 juin 2017, par Peter

    Environment : macOS 10.12.5, Xcode 8.3.3, pkg-config installed via brew

    I need to build a minimal version of ffmpeg that supports H.264 decoding. I have downloaded the source for ffmpeg version 3.3.1 and have successfully built it for Windows and Linux. Now, I am trying to build it for mac.

    The specific flags of the configuration that are relevant are :

    --disable-yasm
    --disable-everything
    --enable-decoder=h264
    --enable-decoder=h264_vda
    --enable-vda

    After running the configuration, when I run make, all the libraries such as libavcodec.a, libavfilter.a, libavformat.a, are built. However, ffmpeg itself does not get built. The error I get is :

    Undefined symbols for architecture x86_64:
     "_ff_vda_create_decoder", referenced from:
         _vdadec_init in libavcodec.a(vda_h264_dec.o)
     "_ff_vda_destroy_decoder", referenced from:
         _vdadec_init in libavcodec.a(vda_h264_dec.o)
         _vdadec_close in libavcodec.a(vda_h264_dec.o)
    ld: symbol(s) not found for architecture x86_64

    Looks like the functions are defined in ./libavcodec/vda_h264.c. However, it appears vda_h264.c is never compiled. Other vda related files such as vda.c and vda_h264_dec.c do get compiled (and added to libavcodec.a).

    I am thinking perhaps I am missing a configuration flag. Can someone please help ? Regards.

  • avcodec/eatgv : Check remaining size after the keyframe header

    28 juillet 2019, par Michael Niedermayer
    avcodec/eatgv : Check remaining size after the keyframe header
    

    The minimal size which unpack() will not fail on is 5 bytes
    Fixes : Timeout (14sec -> 77ms) (testcase 15508)
    Fixes : 15508/clusterfuzz-testcase-minimized-ffmpeg_AV_CODEC_ID_EATGV_fuzzer-5700053513011200
    Fixes : 15996/clusterfuzz-testcase-minimized-ffmpeg_AV_CODEC_ID_EATGV_fuzzer-5751353223151616

    Found-by : continuous fuzzing process https://github.com/google/oss-fuzz/tree/master/projects/ffmpeg
    Signed-off-by : Michael Niedermayer <michael@niedermayer.cc>

    • [DH] libavcodec/eatgv.c
  • Pipe numpy array to virtual video device

    16 mars 2021, par sre

    I want to pipe images to a virtual video device (e.g. /dev/video0), the images are created inside a loop with the desired frame rate.

    &#xA;

    In this minimal example i only two arrays which alternate in the cv2 window. Now i look for a good solution to pipe the arrays to the virtual device.

    &#xA;

    I saw that ffmpeg-python can run asynchronous with ffmpeg.run_async(), but so far i could not make anything work with this package.

    &#xA;

    example code without the ffmpeg stuff :

    &#xA;

    #!/usr/bin/env python3&#xA;&#xA;import cv2&#xA;import numpy as np&#xA;import time&#xA;&#xA;window_name = &#x27;virtual-camera&#x27;&#xA;cv2.namedWindow(window_name, cv2.WINDOW_GUI_EXPANDED)&#xA;&#xA;img1 = np.random.uniform(0, 255, (1080, 1440, 3)).astype(&#x27;uint8&#x27;)&#xA;img2 = np.random.uniform(0, 255, (1080, 1440, 3)).astype(&#x27;uint8&#x27;)&#xA;&#xA;for i in range(125):&#xA;    time.sleep(0.04)&#xA;    if i % 2:&#xA;        img = img1&#xA;    else:&#xA;        img = img2&#xA;    cv2.imshow(window_name, img)&#xA;    cv2.waitKey(1)&#xA;cv2.destroyAllWindows()&#xA;

    &#xA;