
Recherche avancée
Autres articles (86)
-
Personnaliser en ajoutant son logo, sa bannière ou son image de fond
5 septembre 2013, parCertains thèmes prennent en compte trois éléments de personnalisation : l’ajout d’un logo ; l’ajout d’une bannière l’ajout d’une image de fond ;
-
Ecrire une actualité
21 juin 2013, parPrésentez les changements dans votre MédiaSPIP ou les actualités de vos projets sur votre MédiaSPIP grâce à la rubrique actualités.
Dans le thème par défaut spipeo de MédiaSPIP, les actualités sont affichées en bas de la page principale sous les éditoriaux.
Vous pouvez personnaliser le formulaire de création d’une actualité.
Formulaire de création d’une actualité Dans le cas d’un document de type actualité, les champs proposés par défaut sont : Date de publication ( personnaliser la date de publication ) (...) -
Emballe médias : à quoi cela sert ?
4 février 2011, parCe plugin vise à gérer des sites de mise en ligne de documents de tous types.
Il crée des "médias", à savoir : un "média" est un article au sens SPIP créé automatiquement lors du téléversement d’un document qu’il soit audio, vidéo, image ou textuel ; un seul document ne peut être lié à un article dit "média" ;
Sur d’autres sites (5733)
-
Watson NarrowBand Speech to Text not accepting ogg file
19 janvier 2017, par Bob DillNodeJS app using ffmpeg to create ogg files from mp3 & mp4. If the source file is broadband, Watson Speech to Text accepts the file with no issues. If the source file is narrow band, Watson Speech to Text fails to read the ogg file. I’ve tested the output from ffmpeg and the narrowband ogg file has the same audio content (e.g. I can listen to it and hear the same people) as the mp3 file. Yes, in advance, I am changing the call to Watson to correctly specify the model and content_type. Code follows :
exports.createTranscript = function(req, res, next)
{ var _name = getNameBase(req.body.movie);
var _type = getType(req.body.movie);
var _voice = (_type == "mp4") ? "en-US_BroadbandModel" : "en-US_NarrowbandModel" ;
var _contentType = (_type == "mp4") ? "audio/ogg" : "audio/basic" ;
var _audio = process.cwd()+"/HTML/movies/"+_name+'ogg';
var transcriptFile = process.cwd()+"/HTML/movies/"+_name+'json';
speech_to_text.createSession({model: _voice}, function(error, session) {
if (error) {console.log('error:', error);}
else
{
var params = { content_type: _contentType, continuous: true,
audio: fs.createReadStream(_audio),
session_id: session.session_id
};
speech_to_text.recognize(params, function(error, transcript) {
if (error) {console.log('error:', error);}
else
{ fs.writeFile(transcriptFile, JSON.stringify(transcript), function(err) {if (err) {console.log(err);}});
res.send(transcript);
}
});
}
});
}_type
is either mp3 (narrowband from phone recording) or mp4 (broadband)
model: _voice
has been traced to ensure correct setting
content_type: _contentType
has been traced to ensure correct settingAny ogg file submitted to Speech to Text with narrowband settings fails with
Error: No speech detected for 30s.
Tested with both real narrowband files and asking Watson to read a broadband ogg file (created from mp4) as narrowband. Same error message. What am I missing ? -
ffmpeg - error when overlay text animation and video
14 novembre 2017, par Abc123I’m using this ffmpeg command to generate a video with fading text animation, this command is running fine with older version of ffmpeg - 2.8.11, but when I try to run the same command in another machine with ffmpeg version - 3.3.3, error occured :
ffmpeg command :
ffmpeg -i ./based_video/720/clip3.mp4 -filter_complex \
"color=black:100x100[c]; \
[c][0]scale2ref[ct][mv]; \
[ct]setsar=1,split=3[t1][t2][t3]; \
[t1]drawtext=fontfile=../../public/fonts/Roboto-Regular-webfont.ttf: \
text='Test Text 1':fontsize=36:fontcolor=white,split[text1][alpha1]; \
[text1][alpha1]alphamerge,fade=t=in:st=2:d=2:alpha=1,fade=t=out:st=7:d=2:alpha=1[txta1]; \
[t2]drawtext=fontfile=../../public/fonts/Roboto-Regular-webfont.ttf: \
text='Test Text 2':fontsize=36:fontcolor=white,split[text2][alpha2]; \
[text2][alpha2]alphamerge,fade=t=in:st=2:d=2:alpha=1,fade=t=out:st=7:d=2:alpha=1[txta2]; \
[t3]drawtext=fontfile=../../public/fonts/Roboto-Regular-webfont.ttf: \
text='Test Text 3':fontsize=36:fontcolor=white,split[text3][alpha3]; \
[text3][alpha3]alphamerge,fade=t=in:st=2:d=2:alpha=1,fade=t=out:st=7:d=2:alpha=1[txta3]; \
[mv][txta1]overlay=x='300':y='300':shortest=1[mv1]; \
[mv1][txta2]overlay=x='300':y='400':shortest=1[mv2]; \
[mv2][txta3]overlay=x='300':y='500':shortest=1" \
-c:v libx264 -c:a copy output.mp4Error : Error marking filter as finished, Conversion failed
-
Use ffmpeg to add text subtitles [closed]
9 octobre 2024, par 0-alphaI am trying to add text subtitles to an .mp4 container using ffmpeg :



ffmpeg -i input.mp4 -i input.srt -map 0.0 -map 0.1 -map 1.0 output.mp4




When I am trying to run this line, it gives me an error :





Nmber of stream maps must match number of output streams.





If I try to change the mp4 to mkv (although mp4 supports text subtitles), like this :



ffmpeg -i input.mp4 -i input.srt -map 0.0 -map 0.1 -map 1.0 output.mkv




It correctly maps the streams, but gives an error :





Encoder (codec id 94210) not found for output stream #0.2





When I launch



ffmpeg -codecs




I can see that srt codec is supported as decoder and encoder, however I am not sure what is used for mp4 and mkv subs encoding, and whether I need to switch it on or compile separately.