• 鸿蒙(API 12 Beta2版)媒体开发【使用OHAudio开发音频播放功能(C/C++)】


    OHAudio是系统在API version 10中引入的一套C API,此API在设计上实现归一,同时支持普通音频通路和低时延通路。仅支持PCM格式,适用于依赖Native层实现音频输出功能的场景。

    使用入门

    开发者要使用OHAudio提供的播放或者录制能力,需要添加对应的头文件。

    在 CMake 脚本中链接动态库

    target_link_libraries(sample PUBLIC libohaudio.so)
    

    添加头文件

    开发者通过引入<[native_audiostreambuilder.h]>和<[native_audiorenderer.h]>头文件,使用音频播放相关API。

    #include 
    #include 
    

    音频流构造器

    OHAudio提供OH_AudioStreamBuilder接口,遵循构造器设计模式,用于构建音频流。开发者需要根据业务场景,指定对应的[OH_AudioStream_Type] 。

    OH_AudioStream_Type包含两种类型:

    • AUDIOSTREAM_TYPE_RENDERER
    • AUDIOSTREAM_TYPE_CAPTURER

    使用[OH_AudioStreamBuilder_Create]创建构造器示例:

    OH_AudioStreamBuilder* builder;
    OH_AudioStreamBuilder_Create(&builder, streamType);
    

    在音频业务结束之后,开发者应该执行[OH_AudioStreamBuilder_Destroy]接口来销毁构造器。

    OH_AudioStreamBuilder_Destroy(builder);
    

    开发步骤及注意事项

    详细的API说明请参考[OHAudio API参考]

    开发者可以通过以下几个步骤来实现一个简单的播放功能。

    1. 创建构造器
    OH_AudioStreamBuilder* builder;
    OH_AudioStreamBuilder_Create(&builder, AUDIOSTREAM_TYPE_RENDERER);
    
    1. 配置音频流参数

      创建音频播放构造器后,可以设置音频流所需要的参数,可以参考下面的案例。

    // 设置音频采样率
    OH_AudioStreamBuilder_SetSamplingRate(builder, 48000);
    // 设置音频声道
    OH_AudioStreamBuilder_SetChannelCount(builder, 2);
    // 设置音频采样格式
    OH_AudioStreamBuilder_SetSampleFormat(builder, AUDIOSTREAM_SAMPLE_S16LE);
    // 设置音频流的编码类型
    OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_RAW);
    // 设置输出音频流的工作场景
    OH_AudioStreamBuilder_SetRendererInfo(builder, AUDIOSTREAM_USAGE_MUSIC);
    

    注意,播放的音频数据要通过回调接口写入,开发者要实现回调接口,使用OH_AudioStreamBuilder_SetRendererCallback设置回调函数。回调函数的声明请查看[OH_AudioRenderer_Callbacks]) 。

    1. 设置音频回调函数

      多音频并发处理可参考[多音频播放的并发策略],仅接口语言差异。

    // 自定义写入数据函数
    int32_t MyOnWriteData(
        OH_AudioRenderer* renderer,
        void* userData,
        void* buffer,
        int32_t length)
    {
        // 将待播放的数据,按length长度写入buffer
        return 0;
    }
    // 自定义音频流事件函数
    int32_t MyOnStreamEvent(
        OH_AudioRenderer* renderer,
        void* userData,
        OH_AudioStream_Event event)
    {
        // 根据event表示的音频流事件信息,更新播放器状态和界面
        return 0;
    }
    // 自定义音频中断事件函数
    int32_t MyOnInterruptEvent(
        OH_AudioRenderer* renderer,
        void* userData,
        OH_AudioInterrupt_ForceType type,
        OH_AudioInterrupt_Hint hint)
    {
        // 根据type和hint表示的音频中断信息,更新播放器状态和界面
        return 0;
    }
    // 自定义异常回调函数
    int32_t MyOnError(
        OH_AudioRenderer* renderer,
        void* userData,
        OH_AudioStream_Result error)
    {
        // 根据error表示的音频异常信息,做出相应的处理
        return 0;
    }
    
    OH_AudioRenderer_Callbacks callbacks;
    // 配置回调函数
    callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData;
    callbacks.OH_AudioRenderer_OnStreamEvent = MyOnStreamEvent;
    callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent;
    callbacks.OH_AudioRenderer_OnError = MyOnError;
    
    //设置输出音频流的回调
    OH_AudioStreamBuilder_SetRendererCallback(builder, callbacks, nullptr);
    

    为了避免不可预期的行为,在设置音频回调函数时,请确保[OH_AudioRenderer_Callbacks]的每一个回调都被自定义的回调方法空指针初始化。

    // 自定义写入数据函数
    int32_t MyOnWriteData(
        OH_AudioRenderer* renderer,
        void* userData,
        void* buffer,
        int32_t length)
    {
        // 将待播放的数据,按length长度写入buffer
        return 0;
    }
    // 自定义音频中断事件函数
    int32_t MyOnInterruptEvent(
        OH_AudioRenderer* renderer,
        void* userData,
        OH_AudioInterrupt_ForceType type,
        OH_AudioInterrupt_Hint hint)
    {
        // 根据type和hint表示的音频中断信息,更新播放器状态和界面
        return 0;
    }
    OH_AudioRenderer_Callbacks callbacks;
    
    // 配置回调函数,如果需要监听,则赋值
    callbacks.OH_AudioRenderer_OnWriteData = MyOnWriteData;
    callbacks.OH_AudioRenderer_OnInterruptEvent = MyOnInterruptEvent;
    
    // (必选)如果不需要监听,使用空指针初始化
    callbacks.OH_AudioRenderer_OnStreamEvent = nullptr;
    callbacks.OH_AudioRenderer_OnError = nullptr;
    
    1. 构造播放音频流
    OH_AudioRenderer* audioRenderer;
    OH_AudioStreamBuilder_GenerateRenderer(builder, &audioRenderer);
    
    1. 使用音频流

      音频流包含下面接口,用来实现对音频流的控制。

      接口说明
      OH_AudioStream_Result OH_AudioRenderer_Start(OH_AudioRenderer* renderer)开始播放
      OH_AudioStream_Result OH_AudioRenderer_Pause(OH_AudioRenderer* renderer)暂停播放
      OH_AudioStream_Result OH_AudioRenderer_Stop(OH_AudioRenderer* renderer)停止播放
      OH_AudioStream_Result OH_AudioRenderer_Flush(OH_AudioRenderer* renderer)释放缓存数据
      OH_AudioStream_Result OH_AudioRenderer_Release(OH_AudioRenderer* renderer)释放播放实例
    2. 释放构造器

      构造器不再使用时,需要释放相关资源。

      OH_AudioStreamBuilder_Destroy(builder);
      

    设置低时延模式

    当设备支持低时延通路时,开发者可以使用低时延模式创建播放器,获得更高质量的音频体验。

    开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetLatencyMode()]设置低时延模式。

    开发示例

    OH_AudioStreamBuilder_SetLatencyMode(builder, AUDIOSTREAM_LATENCY_MODE_FAST);
    

    设置音频声道布局

    播放音频文件时,可以通过设置音频的声道布局信息,指定渲染或播放时的扬声器摆位,使得渲染和播放效果更佳,获得更高质量的音频体验。

    开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetChannelLayout()]设置声道布局信息。

    当声道布局与声道数不匹配时,创建音频流会失败。建议在设置声道布局时,确认下发的声道布局信息是正确的。

    如果不知道准确的声道布局信息,或者开发者需要使用默认声道布局,可以不调用设置声道布局接口,或者下发CH_LAYOUT_UNKNOWN,以使用基于声道数的默认声道布局。

    对于HOA格式的音频,想要获得正确的渲染和播放效果,必须指定声道布局信息。

    开发示例

    OH_AudioStreamBuilder_SetChannelLayout(builder, CH_LAYOUT_STEREO);
    

    播放AudioVivid格式音源

    播放AudioVivid格式音频文件时,需要使用与普通播放不同的数据写入回调函数,该回调可以同时写入PCM数据与元数据。

    开发流程与普通播放场景一致,仅需要在创建音频流构造器时,调用[OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback()]设置PCM数据与元数据同时写入的回调函数,同时调用[OH_AudioStreamBuilder_SetEncodingType()]设置编码类型为AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID。

    在播放AudioVivid时,帧长是固定的,不可通过[OH_AudioStreamBuilder_SetFrameSizeInCallback()]设置回调帧长。同时,在设置播放声道数和声道布局时,需要将写入音源的声床数和对象数相加后进行设置。

    开发示例

    // 自定义同时写入PCM数据和元数据函数
    int32_t MyOnWriteDataWithMetadata(
        OH_AudioRenderer* renderer,
        void* userData,
        void* audioData,
        int32_t audioDataSize,
        void* metadata,
        int32_t metadataSize)
    {
        // 将待播放的PCM数据和元数据,分别按audioDataSize和metadataSize写入buffer
        return 0;
    }
    
    // 设置编码类型
    OH_AudioStreamBuilder_SetEncodingType(builder, AUDIOSTREAM_ENCODING_TYPE_AUDIOVIVID);
    // 配置回调函数
    OH_AudioRenderer_WriteDataWithMetadataCallback metadataCallback = MyOnWriteDataWithMetadata;
    // 设置同时写入PCM数据和元数据的回调
    OH_AudioStreamBuilder_SetWriteDataWithMetadataCallback(builder, metadataCallback, nullptr);
    

    最后呢

    很多开发朋友不知道需要学习那些鸿蒙技术?鸿蒙开发岗位需要掌握那些核心技术点?为此鸿蒙的开发学习必须要系统性的进行。

    而网上有关鸿蒙的开发资料非常的少,假如你想学好鸿蒙的应用开发与系统底层开发。你可以参考这份资料,少走很多弯路,节省没必要的麻烦。由两位前阿里高级研发工程师联合打造的《鸿蒙NEXT星河版OpenHarmony开发文档》里面内容包含了(ArkTS、ArkUI开发组件、Stage模型、多端部署、分布式应用开发、音频、视频、WebGL、OpenHarmony多媒体技术、Napi组件、OpenHarmony内核、Harmony南向开发、鸿蒙项目实战等等)鸿蒙(Harmony NEXT)技术知识点

    如果你是一名Android、Java、前端等等开发人员,想要转入鸿蒙方向发展。可以直接领取这份资料辅助你的学习。下面是鸿蒙开发的学习路线图。

    在这里插入图片描述

    针对鸿蒙成长路线打造的鸿蒙学习文档。话不多说,我们直接看详细鸿蒙(OpenHarmony )手册(共计1236页)与鸿蒙(OpenHarmony )开发入门视频,帮助大家在技术的道路上更进一步。

    • 《鸿蒙 (OpenHarmony)开发学习视频》
    • 《鸿蒙生态应用开发V2.0白皮书》
    • 《鸿蒙 (OpenHarmony)开发基础到实战手册》
    • OpenHarmony北向、南向开发环境搭建
    • 《鸿蒙开发基础》
    • 《鸿蒙开发进阶》
    • 《鸿蒙开发实战》

    在这里插入图片描述

    总结

    鸿蒙—作为国家主力推送的国产操作系统。部分的高校已经取消了安卓课程,从而开设鸿蒙课程;企业纷纷跟进启动了鸿蒙研发。

    并且鸿蒙是完全具备无与伦比的机遇和潜力的;预计到年底将有 5,000 款的应用完成原生鸿蒙开发,未来将会支持 50 万款的应用。那么这么多的应用需要开发,也就意味着需要有更多的鸿蒙人才。鸿蒙开发工程师也将会迎来爆发式的增长,学习鸿蒙势在必行! 自↓↓↓拿

  • 相关阅读:
    COPU陆首群教授应邀在ApacheCon Asia会议上致辞
    【Java】三种方案实现 Redis 分布式锁
    React使用西瓜播放器
    计算机网络(七) | 应用层:HTTPS协议
    横板格斗类游戏实战:UI框架的制作
    SQL语句学习
    【Typescript】学习笔记(三)之接口与泛型的使用
    【车载测试收徒】【UDS诊断中的协议:ISO-14229中文】
    【C语言】通讯录联系(文件版)
    计算机网络-网络层 (IPV6,IPV4与IPV6对比,IPV6地址类型)
  • 原文地址:https://blog.csdn.net/m0_70748845/article/details/140966163