
Recherche avancée
Médias (16)
-
#7 Ambience
16 octobre 2011, par
Mis à jour : Juin 2015
Langue : English
Type : Audio
-
#6 Teaser Music
16 octobre 2011, par
Mis à jour : Février 2013
Langue : English
Type : Audio
-
#5 End Title
16 octobre 2011, par
Mis à jour : Février 2013
Langue : English
Type : Audio
-
#3 The Safest Place
16 octobre 2011, par
Mis à jour : Février 2013
Langue : English
Type : Audio
-
#4 Emo Creates
15 octobre 2011, par
Mis à jour : Février 2013
Langue : English
Type : Audio
-
#2 Typewriter Dance
15 octobre 2011, par
Mis à jour : Février 2013
Langue : English
Type : Audio
Autres articles (17)
-
Personnaliser en ajoutant son logo, sa bannière ou son image de fond
5 septembre 2013, parCertains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;
-
Ecrire une actualité
21 juin 2013, parPrésentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
Vous pouvez personnaliser le formulaire de création d’une actualité.
Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...) -
Publier sur MédiaSpip
13 juin 2013Puis-je poster des contenus à partir d’une tablette Ipad ?
Oui, si votre Médiaspip installé est à la version 0.2 ou supérieure. Contacter au besoin l’administrateur de votre MédiaSpip pour le savoir
Sur d’autres sites (4055)
-
FFmpeg : The filename, directory name or volume label syntax is incorrect
15 mai 2015, par m_pro_mI am making an app which auto-converts videos recorded from another program. I am trying to use command line to exec ffmpeg conversion. This is the command I am typing to the console :
cmd /c "C:\Users\Mark\IdeaProjects\Converter\ffmpeg\ffmpeg.exe" -i "C:\Users\Mark\Videos\Arma 3\Arma 3 05.10.2015 - 16.27.24.06.DVR.mp4" -b:v 15M -y "C:\Users\Mark\Videos\Converted\Arma 3 05.10.2015 - 16.27.24.06.DVR.mp4.avi"
It returns error message
The filename, directory name or volume label syntax is incorrect
If I run that command without cmd /c part, it works like it should. I also tried adding /s but without success.
EDIT
I solved the problem using Apache Commons library (Java) for executing commands in Command Line.
-
What is Web Log Analytics and Why You Should Use It
26 juin 2024, par Erin -
ffmpeg live stream latency
22 août 2014, par Alex FuI’m currently working on live streaming video from device A (source) to device B (destination) directly via local WiFi network.
I’ve built FFMPEG to work on the Android platform and I have been able to stream video from
A -> B
successfully at the expense of latency (takes about 20 seconds for a movement or change to appear on screen ; as if the video was 20 seconds behind actual events).Initial start up is around 4 seconds. I’ve been able to trim that initial start up time down by lowering
probesize
andmax_analyze_duration
but the 20 second delay is still there.I’ve sprinkled some timing events around the code to try an figure out where the most time is being spent...
- naInit : 0.24575 sec
- naSetup : 0.043705 sec
The first video frame isn’t obtained until 0.035342 sec after the decodeAndRender function is called. Subsequent decoding times can be illustrated here :
http://jsfiddle.net/uff0jdf7/1/ (interactive graph)
From all the timing data i’ve recorded, nothing really jumps out at me unless I’m doing the timing wrong. Some have suggested that I am buffering too much data, however, as far as I can tell, I’m only buffering an image at a time. Is this too much ?
Also, the source video that’s coming in is in the format of P264 ; it’s a custom implementation of H264 apparently.
jint naSetup(JNIEnv *pEnv, jobject pObj, int pWidth, int pHeight) {
width = pWidth;
height = pHeight;
//create a bitmap as the buffer for frameRGBA
bitmap = createBitmap(pEnv, pWidth, pHeight);
if (AndroidBitmap_lockPixels(pEnv, bitmap, &pixel_buffer) < 0) {
LOGE("Could not lock bitmap pixels");
return -1;
}
//get the scaling context
sws_ctx = sws_getContext(codecCtx->width, codecCtx->height, codecCtx->pix_fmt,
pWidth, pHeight, AV_PIX_FMT_RGBA, SWS_BILINEAR, NULL, NULL, NULL);
// Assign appropriate parts of bitmap to image planes in pFrameRGBA
// Note that pFrameRGBA is an AVFrame, but AVFrame is a superset
// of AVPicture
av_image_fill_arrays(frameRGBA->data, frameRGBA->linesize, pixel_buffer, AV_PIX_FMT_RGBA, pWidth, pHeight, 1);
return 0;
}
void decodeAndRender(JNIEnv *pEnv) {
ANativeWindow_Buffer windowBuffer;
AVPacket packet;
AVPacket outputPacket;
int frame_count = 0;
int got_frame;
while (!stop && av_read_frame(formatCtx, &packet) >= 0) {
// Is this a packet from the video stream?
if (packet.stream_index == video_stream_index) {
// Decode video frame
avcodec_decode_video2(codecCtx, decodedFrame, &got_frame, &packet);
// Did we get a video frame?
if (got_frame) {
// Convert the image from its native format to RGBA
sws_scale(sws_ctx, (uint8_t const * const *) decodedFrame->data,
decodedFrame->linesize, 0, codecCtx->height, frameRGBA->data,
frameRGBA->linesize);
// lock the window buffer
if (ANativeWindow_lock(window, &windowBuffer, NULL) < 0) {
LOGE("Cannot lock window");
} else {
// draw the frame on buffer
int h;
for (h = 0; h < height; h++) {
memcpy(windowBuffer.bits + h * windowBuffer.stride * 4,
pixel_buffer + h * frameRGBA->linesize[0],
width * 4);
}
// unlock the window buffer and post it to display
ANativeWindow_unlockAndPost(window);
// count number of frames
++frame_count;
}
}
}
// Free the packet that was allocated by av_read_frame
av_free_packet(&packet);
}
LOGI("Total # of frames decoded and rendered %d", frame_count);
}