Recherche avancée

Médias (0)

Mot : - Tags -/xmlrpc

Aucun média correspondant à vos critères n’est disponible sur le site.

Autres articles (31)

  • (Dés)Activation de fonctionnalités (plugins)

    18 février 2011, par

    Pour gérer l’ajout et la suppression de fonctionnalités supplémentaires (ou plugins), MediaSPIP utilise à partir de la version 0.2 SVP.
    SVP permet l’activation facile de plugins depuis l’espace de configuration de MediaSPIP.
    Pour y accéder, il suffit de se rendre dans l’espace de configuration puis de se rendre sur la page "Gestion des plugins".
    MediaSPIP est fourni par défaut avec l’ensemble des plugins dits "compatibles", ils ont été testés et intégrés afin de fonctionner parfaitement avec chaque (...)

  • Le plugin : Podcasts.

    14 juillet 2010, par

    Le problème du podcasting est à nouveau un problème révélateur de la normalisation des transports de données sur Internet.
    Deux formats intéressants existent : Celui développé par Apple, très axé sur l’utilisation d’iTunes dont la SPEC est ici ; Le format "Media RSS Module" qui est plus "libre" notamment soutenu par Yahoo et le logiciel Miro ;
    Types de fichiers supportés dans les flux
    Le format d’Apple n’autorise que les formats suivants dans ses flux : .mp3 audio/mpeg .m4a audio/x-m4a .mp4 (...)

  • Personnaliser les catégories

    21 juin 2013, par

    Formulaire de création d’une catégorie
    Pour ceux qui connaissent bien SPIP, une catégorie peut être assimilée à une rubrique.
    Dans le cas d’un document de type catégorie, les champs proposés par défaut sont : Texte
    On peut modifier ce formulaire dans la partie :
    Administration > Configuration des masques de formulaire.
    Dans le cas d’un document de type média, les champs non affichés par défaut sont : Descriptif rapide
    Par ailleurs, c’est dans cette partie configuration qu’on peut indiquer le (...)

Sur d’autres sites (5115)

  • swscale : aarch64 : Optimize the final summation in the hscale routine

    20 avril 2022, par Martin Storsjö
    swscale : aarch64 : Optimize the final summation in the hscale routine
    

    Before : Cortex A53 A72 A73 Graviton 2 Graviton 3
    hscale_8_to_15_width8_neon : 8273.0 4602.5 4289.5 2429.7 1629.1
    hscale_8_to_15_width16_neon : 12405.7 6803.0 6359.0 3549.0 2378.4
    hscale_8_to_15_width32_neon : 21258.7 11491.7 11469.2 5797.2 3919.6
    hscale_8_to_15_width40_neon : 25652.0 14173.7 12488.2 6893.5 4810.4

    After :
    hscale_8_to_15_width8_neon : 7633.0 3981.5 3350.2 1980.7 1261.1
    hscale_8_to_15_width16_neon : 11666.7 5951.0 5512.0 3080.7 2131.4
    hscale_8_to_15_width32_neon : 20900.7 10733.2 9481.7 5275.2 3862.1
    hscale_8_to_15_width40_neon : 24826.0 13536.2 11502.0 6397.2 4731.9

    Thus, this gives overall a 8-29% speedup for the smaller filter
    sizes, around 1-8% for the larger filter sizes.

    Inspired by a patch by Jonathan Swinney <jswinney@amazon.com>.

    Signed-off-by : Martin Storsjö <martin@martin.st>

    • [DH] libswscale/aarch64/hscale.S
  • I tried to play the audio on Alexa skill from my S3 Bucket, from the test tab, **it show but in fact, I can't hear any sound

    19 avril 2022, par Siti Mayna

    So I tried to play the audio on Alexa skill from my S3 Bucket, from the test tab, it show but in fact, I can't hear any sound. Another fact is, that I tried to use the sample audio from https://developer.amazon.com/en-US/docs/alexa/custom-skills/ask-soundlibrary.html and it is worked, but why it won't work when it comes from my own S3 Bucket ?

    &#xA;

    Notes :

    &#xA;

    I've tried to test the skill using my mobile phone also.

    &#xA;

    I've tried to encode the audio using FFmpeg.

    &#xA;

    I've tried to use Jovo to convert the audio. https://v3.jovo.tech/audio-converter

    &#xA;

    I don't know how to fix this error.

    &#xA;

    There is no error message on cloud watch.

    &#xA;

    Assumptions :&#xA;There is some problem related to the audio resources or there is more set to play audio from S3 Bucket since the sample audio is working.

    &#xA;

    Steps to reproduce :

    &#xA;

    &#xA;

    Build the interaction model

    &#xA;

    &#xA;

    &#xA;

    Encode the audio to make it Alexa skill friendly (fulfill the requirements, like sample rate, etc), I used and tried all of these :

    &#xA;

    &#xA;

    A :

    &#xA;

    ffmpeg -i  -ac 2 -codec:a libmp3lame -b:a 48k -ar 16000 -write_xing 0 &#xA;

    &#xA;

    B :

    &#xA;

    ffmpeg -i  -ac 2 -codec:a libmp3lame -b:a 48k -ar 24000 -write_xing 0 &#xA;

    &#xA;

    C :

    &#xA;

    ffmpeg -y -i input.mp3 -ar 16000 -ab 48k -codec:a libmp3lame -ac 1 output.mp3&#xA;

    &#xA;

    &#xA;

    Upload the audio resources on S3Bucket&#xA;Audio sample on s3 storage but none of them are produce any sounds

    &#xA;

    &#xA;

    &#xA;

    Use the link and insert it to APLA.json

    &#xA;

    &#xA;

    &#xA;    {&#xA;      "type": "APLA",&#xA;      "version": "0.91",&#xA;      "description": "Simple document that generates speech",&#xA;      "mainTemplate": {&#xA;        "parameters": [&#xA;          "payload"&#xA;        ],&#xA;        "type": "Sequencer",&#xA;        "items": [&#xA;          {&#xA;            "type": "Audio",&#xA;            "source": "https://72578561-d9d8-47b4-811c-cafbcbc5ddb9-us-east-1.s3.amazonaws.com/Media/one-small-step-alexa-24.mp3"&#xA;          }&#xA;        ]&#xA;      }&#xA;    }&#xA;&#xA;

    &#xA;

    notes : I change the link sources based on audio that I tried.

    &#xA;

    &#xA;

    the intent on lambda_function.py :

    &#xA;

    &#xA;

    def _load_apl_document(file_path):&#xA;    # type: (str) -> Dict[str, Any]&#xA;    """Load the apl json document at the path into a dict object."""&#xA;    with open(file_path) as f:&#xA;        return json.load(f)&#xA;&#xA;class LaunchRequestHandler(AbstractRequestHandler):&#xA;    """Handler for Skill Launch."""&#xA;    def can_handle(self, handler_input):&#xA;        # type: (HandlerInput) -> bool&#xA;&#xA;        return ask_utils.is_request_type("LaunchRequest")(handler_input)&#xA;&#xA;    def handle(self, handler_input):&#xA;        # type: (HandlerInput) -> Response&#xA;        logger.info("In LaunchRequestHandler")&#xA;&#xA;        # type: (HandlerInput) -> Response&#xA;        speak_output = "Hello World!"&#xA;        # .ask("add a reprompt if you want to keep the session open for the user to respond")&#xA;&#xA;        return (&#xA;            handler_input.response_builder&#xA;                #.speak(speak_output)&#xA;                .add_directive(&#xA;                        RenderDocumentDirective(&#xA;                            token="pagerToken",&#xA;                            document=_load_apl_document("APLA.json"),&#xA;                            datasources={}&#xA;                        )&#xA;                    )&#xA;                .response&#xA;        )&#xA;

    &#xA;

    &#xA;

    Deploy

    &#xA;

    &#xA;

    &#xA;

    Test it

    &#xA;

    &#xA;

    &#xA;

    The result of the test on my end :&#xA;&#xA;The response for testing

    &#xA;

    &#xA;

    the JSON response :

    &#xA;

    {&#xA;    "body": {&#xA;        "version": "1.0",&#xA;        "response": {&#xA;            "directives": [&#xA;                {&#xA;                    "type": "Alexa.Presentation.APLA.RenderDocument",&#xA;                    "token": "pagerToken",&#xA;                    "document": {&#xA;                        "type": "APLA",&#xA;                        "version": "0.91",&#xA;                        "description": "Simple document that generates speech",&#xA;                        "mainTemplate": {&#xA;                            "parameters": [&#xA;                                "payload"&#xA;                            ],&#xA;                            "type": "Sequencer",&#xA;                            "items": [&#xA;                                {&#xA;                                    "type": "Audio",&#xA;                                    "source": "https://72578561-d9d8-47b4-811c-cafbcbc5ddb9-us-east-1.s3.amazonaws.com/Media/one-small-step-alexa-24.mp3"&#xA;                                }&#xA;                            ]&#xA;                        }&#xA;                    },&#xA;                    "datasources": {}&#xA;                }&#xA;            ],&#xA;            "type": "_DEFAULT_RESPONSE"&#xA;        },&#xA;        "sessionAttributes": {},&#xA;        "userAgent": "ask-python/1.16.1 Python/3.7.12"&#xA;    }&#xA;}&#xA;

    &#xA;

    &#xA;

    On my cloud Watch :&#xA;Cloud Watch

    &#xA;

    &#xA;

  • net core and video transcoding on aws lambda

    14 septembre 2022, par user1765862

    I'm looking for a solution to :

    &#xA;

      &#xA;
    1. upload video to s3 bucket
    2. &#xA;

    3. after video upload an aws lambda function will be triggered
    4. &#xA;

    5. lambda function will use ffmpeg layer in order to transcode video (mainly cropping with other functionalities)
    6. &#xA;

    7. save result (transcoded video into s3 bucket)
    8. &#xA;

    &#xA;

    My language of choice inside lambda is c# and net core runtime.

    &#xA;

    I have found various resources for video manipulation with aws ffmpeg layer using lambda function but no examples in net core lambda.

    &#xA;

    My question is :

    &#xA;

    &#xA;

    Can I use existing FFmpeg/FFprobe Lambda Layer for Amazon Linux such&#xA;as this one with lambda function written in c# and .net core ?

    &#xA;

    &#xA;

    Another question :

    &#xA;

    &#xA;

    Would you suggest Amazon Elastic Transcoder as a better choice with&#xA;lambda function .net core integration ?

    &#xA;

    &#xA;