1# 使用AudioRenderer开发音频播放功能 2 3AudioRenderer是音频渲染器,用于播放PCM(Pulse Code Modulation)音频数据,相比AVPlayer而言,可以在输入前添加数据预处理,更适合有音频开发经验的开发者,以实现更灵活的播放功能。 4 5## 开发指导 6 7使用AudioRenderer播放音频涉及到AudioRenderer实例的创建、音频渲染参数的配置、渲染的开始与停止、资源的释放等。本开发指导将以一次渲染音频数据的过程为例,向开发者讲解如何使用AudioRenderer进行音频渲染,建议搭配[AudioRenderer的API说明](../reference/apis/js-apis-audio.md#audiorenderer8)阅读。 8 9下图展示了AudioRenderer的状态变化,在创建实例后,调用对应的方法可以进入指定的状态实现对应的行为。需要注意的是在确定的状态执行不合适的方法可能导致AudioRenderer发生错误,建议开发者在调用状态转换的方法前进行状态检查,避免程序运行产生预期以外的结果。 10 11为保证UI线程不被阻塞,大部分AudioRenderer调用都是异步的。对于每个API均提供了callback函数和Promise函数,以下示例均采用callback函数。 12 13**图1** AudioRenderer状态变化示意图 14 15 16 17在进行应用开发的过程中,建议开发者通过on('stateChange')方法订阅AudioRenderer的状态变更。因为针对AudioRenderer的某些操作,仅在音频播放器在固定状态时才能执行。如果应用在音频播放器处于错误状态时执行操作,系统可能会抛出异常或生成其他未定义的行为。 18 19- prepared状态: 通过调用createAudioRenderer()方法进入到该状态。 20 21- running状态: 正在进行音频数据播放,可以在prepared状态通过调用start()方法进入此状态,也可以在paused状态和stopped状态通过调用start()方法进入此状态。 22 23- paused状态: 在running状态可以通过调用pause()方法暂停音频数据的播放并进入paused状态,暂停播放之后可以通过调用start()方法继续音频数据播放。 24 25- stopped状态: 在paused/running状态可以通过stop()方法停止音频数据的播放。 26 27- released状态: 在prepared、paused、stopped等状态,用户均可通过release()方法释放掉所有占用的硬件和软件资源,并且不会再进入到其他的任何一种状态了。 28 29### 开发步骤及注意事项 30 311. 配置音频渲染参数并创建AudioRenderer实例,音频渲染参数的详细信息可以查看[AudioRendererOptions](../reference/apis/js-apis-audio.md#audiorendereroptions8)。 32 33```ts 34import audio from '@ohos.multimedia.audio'; 35 36let audioStreamInfo: audio.AudioStreamInfo = { 37 samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_44100, 38 channels: audio.AudioChannel.CHANNEL_1, 39 sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE, 40 encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW 41}; 42 43let audioRendererInfo: audio.AudioRendererInfo = { 44 content: audio.ContentType.CONTENT_TYPE_SPEECH, 45 usage: audio.StreamUsage.STREAM_USAGE_VOICE_COMMUNICATION, 46 rendererFlags: 0 47}; 48 49let audioRendererOptions: audio.AudioRendererOptions = { 50 streamInfo: audioStreamInfo, 51 rendererInfo: audioRendererInfo 52}; 53 54audio.createAudioRenderer(audioRendererOptions, (err, data) => { 55 if (err) { 56 console.error(`Invoke createAudioRenderer failed, code is ${err.code}, message is ${err.message}`); 57 return; 58 } else { 59 console.info('Invoke createAudioRenderer succeeded.'); 60 let audioRenderer = data; 61 } 62}); 63``` 64 652. 调用start()方法进入running状态,开始渲染音频。 66 67```ts 68audioRenderer.start((err: BusinessError) => { 69 if (err) { 70 console.error(`Renderer start failed, code is ${err.code}, message is ${err.message}`); 71 } else { 72 console.info('Renderer start success.'); 73 } 74}); 75``` 76 773. 指定待渲染文件地址,打开文件调用write()方法向缓冲区持续写入音频数据进行渲染播放。如果需要对音频数据进行处理以实现个性化的播放,在写入之前操作即可。 78 79```ts 80import fs from '@ohos.file.fs'; 81 82let context = getContext(this); 83async function read() { 84 const bufferSize: number = await audioRenderer.getBufferSize(); 85 let path = context.filesDir; 86 87 const filePath = path + '/voice_call_data.wav'; 88 let file: fs.File = fs.openSync(filePath, fs.OpenMode.READ_ONLY); 89 let buf = new ArrayBuffer(bufferSize); 90 let readsize: number = await fs.read(file.fd, buf); 91 let writeSize: number = await audioRenderer.write(buf); 92} 93``` 94 954. 调用stop()方法停止渲染。 96 97```ts 98audioRenderer.stop((err: BusinessError) => { 99 if (err) { 100 console.error(`Renderer stop failed, code is ${err.code}, message is ${err.message}`); 101 } else { 102 console.info('Renderer stopped.'); 103 } 104}); 105``` 106 1075. 调用release()方法销毁实例,释放资源。 108 109```ts 110audioRenderer.release((err: BusinessError) => { 111 if (err) { 112 console.error(`Renderer release failed, code is ${err.code}, message is ${err.message}`); 113 } else { 114 console.info('Renderer released.'); 115 } 116}); 117``` 118 119### 完整示例 120 121下面展示了使用AudioRenderer渲染音频文件的示例代码。 122 123```ts 124import audio from '@ohos.multimedia.audio'; 125import fs from '@ohos.file.fs'; 126 127const TAG = 'AudioRendererDemo'; 128 129let context = getContext(this); 130let renderModel: audio.AudioRenderer | undefined = undefined; 131let audioStreamInfo: audio.AudioStreamInfo = { 132 samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_48000, // 采样率 133 channels: audio.AudioChannel.CHANNEL_2, // 通道 134 sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE, // 采样格式 135 encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW // 编码格式 136} 137let audioRendererInfo: audio.AudioRendererInfo = { 138 content: audio.ContentType.CONTENT_TYPE_MUSIC, // 媒体类型 139 usage: audio.StreamUsage.STREAM_USAGE_MEDIA, // 音频流使用类型 140 rendererFlags: 0 // 音频渲染器标志 141} 142let audioRendererOptions: audio.AudioRendererOptions = { 143 streamInfo: audioStreamInfo, 144 rendererInfo: audioRendererInfo 145} 146 147// 初始化,创建实例,设置监听事件 148async function init() { 149 audio.createAudioRenderer(audioRendererOptions, (err, renderer) => { // 创建AudioRenderer实例 150 if (!err) { 151 console.info(`${TAG}: creating AudioRenderer success`); 152 renderModel = renderer; 153 if (renderModel !== undefined) { 154 (renderModel as audio.AudioRenderer).on('stateChange', (state: audio.AudioState) => { // 设置监听事件,当转换到指定的状态时触发回调 155 if (state == 2) { 156 console.info('audio renderer state is: STATE_RUNNING'); 157 } 158 }); 159 (renderModel as audio.AudioRenderer).on('markReach', 1000, (position: number) => { // 订阅markReach事件,当渲染的帧数达到1000帧时触发回调 160 if (position == 1000) { 161 console.info('ON Triggered successfully'); 162 } 163 }); 164 } 165 } else { 166 console.info(`${TAG}: creating AudioRenderer failed, error: ${err.message}`); 167 } 168 }); 169} 170 171// 开始一次音频渲染 172async function start() { 173 if (renderModel !== undefined) { 174 let stateGroup = [audio.AudioState.STATE_PREPARED, audio.AudioState.STATE_PAUSED, audio.AudioState.STATE_STOPPED]; 175 if (stateGroup.indexOf((renderModel as audio.AudioRenderer).state.valueOf()) === -1) { // 当且仅当状态为prepared、paused和stopped之一时才能启动渲染 176 console.error(TAG + 'start failed'); 177 return; 178 } 179 await (renderModel as audio.AudioRenderer).start(); // 启动渲染 180 181 const bufferSize = await (renderModel as audio.AudioRenderer).getBufferSize(); 182 183 let path = context.filesDir; 184 const filePath = path + '/test.wav'; // 使用沙箱路径获取文件,实际路径为/data/storage/el2/base/haps/entry/files/test.wav 185 186 let file = fs.openSync(filePath, fs.OpenMode.READ_ONLY); 187 let stat = await fs.stat(filePath); 188 let buf = new ArrayBuffer(bufferSize); 189 let len = stat.size % bufferSize === 0 ? Math.floor(stat.size / bufferSize) : Math.floor(stat.size / bufferSize + 1); 190 class Options { 191 offset: number = 0; 192 length: number = 0 193 } 194 for (let i = 0; i < len; i++) { 195 let options: Options = { 196 offset: i * bufferSize, 197 length: bufferSize 198 }; 199 let readsize = await fs.read(file.fd, buf, options); 200 201 // buf是要写入缓冲区的音频数据,在调用AudioRenderer.write()方法前可以进行音频数据的预处理,实现个性化的音频播放功能,AudioRenderer会读出写入缓冲区的音频数据进行渲染 202 203 let writeSize: number = await (renderModel as audio.AudioRenderer).write(buf); 204 if ((renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_RELEASED) { // 如果渲染器状态为released,停止渲染 205 fs.close(file); 206 await (renderModel as audio.AudioRenderer).stop(); 207 } 208 if ((renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_RUNNING) { 209 if (i === len - 1) { // 如果音频文件已经被读取完,停止渲染 210 fs.close(file); 211 await (renderModel as audio.AudioRenderer).stop(); 212 } 213 } 214 } 215 } 216} 217 218// 暂停渲染 219async function pause() { 220 if (renderModel !== undefined) { 221 // 只有渲染器状态为running的时候才能暂停 222 if ((renderModel as audio.AudioRenderer).state.valueOf() !== audio.AudioState.STATE_RUNNING) { 223 console.info('Renderer is not running'); 224 return; 225 } 226 await (renderModel as audio.AudioRenderer).pause(); // 暂停渲染 227 if ((renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_PAUSED) { 228 console.info('Renderer is paused.'); 229 } else { 230 console.error('Pausing renderer failed.'); 231 } 232 } 233} 234 235// 停止渲染 236async function stop() { 237 if (renderModel !== undefined) { 238 // 只有渲染器状态为running或paused的时候才可以停止 239 if ((renderModel as audio.AudioRenderer).state.valueOf() !== audio.AudioState.STATE_RUNNING && (renderModel as audio.AudioRenderer).state.valueOf() !== audio.AudioState.STATE_PAUSED) { 240 console.info('Renderer is not running or paused.'); 241 return; 242 } 243 await (renderModel as audio.AudioRenderer).stop(); // 停止渲染 244 if ((renderModel as audio.AudioRenderer).state.valueOf() === audio.AudioState.STATE_STOPPED) { 245 console.info('Renderer stopped.'); 246 } else { 247 console.error('Stopping renderer failed.'); 248 } 249 } 250} 251 252// 销毁实例,释放资源 253async function release() { 254 if (renderModel !== undefined) { 255 // 渲染器状态不是released状态,才能release 256 if (renderModel.state.valueOf() === audio.AudioState.STATE_RELEASED) { 257 console.info('Renderer already released'); 258 return; 259 } 260 await renderModel.release(); // 释放资源 261 if (renderModel.state.valueOf() === audio.AudioState.STATE_RELEASED) { 262 console.info('Renderer released'); 263 } else { 264 console.error('Renderer release failed.'); 265 } 266 } 267} 268``` 269 270当同优先级或高优先级音频流要使用输出设备时,当前音频流会被中断,应用可以自行响应中断事件并做出处理。具体的音频并发处理方式可参考[多音频播放的并发策略](audio-playback-concurrency.md)。 271