Recherche avancée

Médias (91)

Autres articles (57)

  • Qu’est ce qu’un masque de formulaire

    13 juin 2013, par

    Un masque de formulaire consiste en la personnalisation du formulaire de mise en ligne des médias, rubriques, actualités, éditoriaux et liens vers des sites.
    Chaque formulaire de publication d’objet peut donc être personnalisé.
    Pour accéder à la personnalisation des champs de formulaires, il est nécessaire d’aller dans l’administration de votre MediaSPIP puis de sélectionner "Configuration des masques de formulaires".
    Sélectionnez ensuite le formulaire à modifier en cliquant sur sont type d’objet. (...)

  • Personnaliser en ajoutant son logo, sa bannière ou son image de fond

    5 septembre 2013, par

    Certains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;

  • Ecrire une actualité

    21 juin 2013, par

    Présentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
    Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
    Vous pouvez personnaliser le formulaire de création d’une actualité.
    Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...)

Sur d’autres sites (6126)

  • How do I reduce the video size captured by the default camera using FFMPEG in Android ?

    12 octobre 2011, par Krishnendu

    I am trying to reduce the video size captured by the default camera (it's generating high resolution video) in Android. Does FFMPEG have a property to encode a video with given resolution ? I tried to Google, but all examples are using command line mode for FFMPEG.

    My questions are :

    1. Can we use ffmpeg command line in Android ?
    2. If not then how we will achieve it ?
    3. Can we able record a video directly using ffmpeg in Android ?
    4. Is there any other solution for this ?
  • Decode android's hardware encoded H264 camera feed using ffmpeg in real time

    31 octobre 2012, par user971871

    I'm trying to use the hardware H264 encoder on Android to create video from the camera, and use FFmpeg to mux in audio (all on the Android phone itself)

    What I've accomplished so far is packetizing the H264 video into rtsp packets, and decoding it using VLC (over UDP), so I know the video is at least correctly formatted. However, I'm having trouble getting the video data to ffmpeg in a format it can understand.

    I've tried sending the same rtsp packets to a port 5006 on localhost (over UDP), then providing ffmpeg with the sdp file that tells it which local port the video stream is coming in on and how to decode the video, if I understand rtsp streaming correctly. However this doesn't work and I'm having trouble diagnosing why, as ffmpeg just sits there waiting for input.

    For reasons of latency and scalability I can't just send the video and audio to the server and mux it there, it has to be done on the phone, in as lightweight a manner as possible.

    What I guess I'm looking for are suggestions as to how this can be accomplished. The optimal solution would be sending the packetized H264 video to ffmpeg over a pipe, but then I can't send ffmpeg the sdp file parameters it needs to decode the video.

    I can provide more information on request, like how ffmpeg is compiled for Android but I doubt that's necessary.

    Oh, and the way I start ffmpeg is through command line, I would really rather avoid mucking about with jni if that's at all possible.

    And help would be much appreciated, thanks.

  • FFMpeg on Android : Streaming HTTP audio stream

    21 février 2012, par ebarch

    I'm having an issue being able to open streams with FFMpeg on Android. I downloaded the FFMpeg code from http://bambuser.com/opensource and compiled it without any issues. I tried adding —enable-protocol=http to the build options and then wrote some test JNI to setup the stream.

    When calling av_open_input_file with the URL to a valid HTTP MP3 stream, I'm always receiving -2 (No such file or directory) back as the error code. I've seen other projects that use this method to open streams, so I'm thinking it has to do with my FFMpeg build.

    Any help would be greatly appreciated !