• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1# 使用AudioRenderer开发音频播放功能
2
3AudioRenderer是音频渲染器,用于播放PCM(Pulse Code Modulation)音频数据,相比AVPlayer而言,可以在输入前添加数据预处理,更适合有音频开发经验的开发者,以实现更灵活的播放功能。
4
5## 开发指导
6
7使用AudioRenderer播放音频涉及到AudioRenderer实例的创建、音频渲染参数的配置、渲染的开始与停止、资源的释放等。本开发指导将以一次渲染音频数据的过程为例,向开发者讲解如何使用AudioRenderer进行音频渲染,建议搭配[AudioRenderer的API说明](../reference/apis/js-apis-audio.md#audiorenderer8)阅读。
8
9下图展示了AudioRenderer的状态变化,在创建实例后,调用对应的方法可以进入指定的状态实现对应的行为。需要注意的是在确定的状态执行不合适的方法可能导致AudioRenderer发生错误,建议开发者在调用状态转换的方法前进行状态检查,避免程序运行产生预期以外的结果。
10
11为保证UI线程不被阻塞,大部分AudioRenderer调用都是异步的。对于每个API均提供了callback函数和Promise函数,以下示例均采用callback函数。
12
13**图1** AudioRenderer状态变化示意图  
14
15![AudioRenderer status change](figures/audiorenderer-status-change.png)
16
17在进行应用开发的过程中,建议开发者通过on('stateChange')方法订阅AudioRenderer的状态变更。因为针对AudioRenderer的某些操作,仅在音频播放器在固定状态时才能执行。如果应用在音频播放器处于错误状态时执行操作,系统可能会抛出异常或生成其他未定义的行为。
18
19- prepared状态: 通过调用createAudioRenderer()方法进入到该状态。
20
21- running状态: 正在进行音频数据播放,可以在prepared状态通过调用start()方法进入此状态,也可以在paused状态和stopped状态通过调用start()方法进入此状态。
22
23- paused状态: 在running状态可以通过调用pause()方法暂停音频数据的播放并进入paused状态,暂停播放之后可以通过调用start()方法继续音频数据播放。
24
25- stopped状态: 在paused/running状态可以通过stop()方法停止音频数据的播放。
26
27- released状态: 在prepared、paused、stopped等状态,用户均可通过release()方法释放掉所有占用的硬件和软件资源,并且不会再进入到其他的任何一种状态了。
28
29### 开发步骤及注意事项
30
311. 配置音频渲染参数并创建AudioRenderer实例,音频渲染参数的详细信息可以查看[AudioRendererOptions](../reference/apis/js-apis-audio.md#audiorendereroptions8)。
32
33   ```ts
34   import audio from '@ohos.multimedia.audio';
35
36   let audioStreamInfo = {
37     samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_44100,
38     channels: audio.AudioChannel.CHANNEL_1,
39     sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE,
40     encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW
41   };
42
43   let audioRendererInfo = {
44     content: audio.ContentType.CONTENT_TYPE_SPEECH,
45     usage: audio.StreamUsage.STREAM_USAGE_VOICE_COMMUNICATION,
46     rendererFlags: 0
47   };
48
49   let audioRendererOptions = {
50     streamInfo: audioStreamInfo,
51     rendererInfo: audioRendererInfo
52   };
53
54   audio.createAudioRenderer(audioRendererOptions, (err, data) => {
55     if (err) {
56       console.error(`Invoke createAudioRenderer failed, code is ${err.code}, message is ${err.message}`);
57       return;
58     } else {
59       console.info('Invoke createAudioRenderer succeeded.');
60       let audioRenderer = data;
61     }
62   });
63   ```
64
652. 调用start()方法进入running状态,开始渲染音频。
66
67   ```ts
68   audioRenderer.start((err) => {
69     if (err) {
70       console.error(`Renderer start failed, code is ${err.code}, message is ${err.message}`);
71     } else {
72       console.info('Renderer start success.');
73     }
74   });
75   ```
76
773. 指定待渲染文件地址,打开文件调用write()方法向缓冲区持续写入音频数据进行渲染播放。如果需要对音频数据进行处理以实现个性化的播放,在写入之前操作即可。
78
79   ```ts
80   const bufferSize = await audioRenderer.getBufferSize();
81   let file = fs.openSync(filePath, fs.OpenMode.READ_ONLY);
82   let buf = new ArrayBuffer(bufferSize);
83   let readsize = await fs.read(file.fd, buf);
84   let writeSize = await new Promise((resolve, reject) => {
85     audioRenderer.write(buf, (err, writeSize) => {
86       if (err) {
87         reject(err);
88       } else {
89         resolve(writeSize);
90       }
91     });
92   });
93   ```
94
954. 调用stop()方法停止渲染。
96
97   ```ts
98   audioRenderer.stop((err) => {
99     if (err) {
100       console.error(`Renderer stop failed, code is ${err.code}, message is ${err.message}`);
101     } else {
102       console.info('Renderer stopped.');
103     }
104   });
105   ```
106
1075. 调用release()方法销毁实例,释放资源。
108
109   ```ts
110   audioRenderer.release((err) => {
111     if (err) {
112       console.error(`Renderer release failed, code is ${err.code}, message is ${err.message}`);
113     } else {
114       console.info('Renderer released.');
115     }
116   });
117   ```
118
119### 完整示例
120
121下面展示了使用AudioRenderer渲染音频文件的示例代码。
122
123```ts
124import audio from '@ohos.multimedia.audio';
125import fs from '@ohos.file.fs';
126
127const TAG = 'AudioRendererDemo';
128
129export default class AudioRendererDemo {
130  private renderModel = undefined;
131  private audioStreamInfo = {
132    samplingRate: audio.AudioSamplingRate.SAMPLE_RATE_48000, // 采样率
133    channels: audio.AudioChannel.CHANNEL_2, // 通道
134    sampleFormat: audio.AudioSampleFormat.SAMPLE_FORMAT_S16LE, // 采样格式
135    encodingType: audio.AudioEncodingType.ENCODING_TYPE_RAW // 编码格式
136  }
137  private audioRendererInfo = {
138    content: audio.ContentType.CONTENT_TYPE_MUSIC, // 媒体类型
139    usage: audio.StreamUsage.STREAM_USAGE_MEDIA, // 音频流使用类型
140    rendererFlags: 0 // 音频渲染器标志
141  }
142  private audioRendererOptions = {
143    streamInfo: this.audioStreamInfo,
144    rendererInfo: this.audioRendererInfo
145  }
146
147  // 初始化,创建实例,设置监听事件
148  init() {
149    audio.createAudioRenderer(this.audioRendererOptions, (err, renderer) => { // 创建AudioRenderer实例
150      if (!err) {
151        console.info(`${TAG}: creating AudioRenderer success`);
152        this.renderModel = renderer;
153        this.renderModel.on('stateChange', (state) => { // 设置监听事件,当转换到指定的状态时触发回调
154          if (state == 2) {
155            console.info('audio renderer state is: STATE_RUNNING');
156          }
157        });
158        this.renderModel.on('markReach', 1000, (position) => { // 订阅markReach事件,当渲染的帧数达到1000帧时触发回调
159          if (position == 1000) {
160            console.info('ON Triggered successfully');
161          }
162        });
163      } else {
164        console.info(`${TAG}: creating AudioRenderer failed, error: ${err.message}`);
165      }
166    });
167  }
168
169  // 开始一次音频渲染
170  async start() {
171    let stateGroup = [audio.AudioState.STATE_PREPARED, audio.AudioState.STATE_PAUSED, audio.AudioState.STATE_STOPPED];
172    if (stateGroup.indexOf(this.renderModel.state) === -1) { // 当且仅当状态为prepared、paused和stopped之一时才能启动渲染
173      console.error(TAG + 'start failed');
174      return;
175    }
176    await this.renderModel.start(); // 启动渲染
177
178    const bufferSize = await this.renderModel.getBufferSize();
179    let context = getContext(this);
180    let path = context.filesDir;
181    const filePath = path + '/test.wav'; // 使用沙箱路径获取文件,实际路径为/data/storage/el2/base/haps/entry/files/test.wav
182
183    let file = fs.openSync(filePath, fs.OpenMode.READ_ONLY);
184    let stat = await fs.stat(filePath);
185    let buf = new ArrayBuffer(bufferSize);
186    let len = stat.size % bufferSize === 0 ? Math.floor(stat.size / bufferSize) : Math.floor(stat.size / bufferSize + 1);
187    for (let i = 0; i < len; i++) {
188      let options = {
189        offset: i * bufferSize,
190        length: bufferSize
191      };
192      let readsize = await fs.read(file.fd, buf, options);
193
194      // buf是要写入缓冲区的音频数据,在调用AudioRenderer.write()方法前可以进行音频数据的预处理,实现个性化的音频播放功能,AudioRenderer会读出写入缓冲区的音频数据进行渲染
195
196      let writeSize = await new Promise((resolve, reject) => {
197        this.renderModel.write(buf, (err, writeSize) => {
198          if (err) {
199            reject(err);
200          } else {
201            resolve(writeSize);
202          }
203        });
204      });
205      if (this.renderModel.state === audio.AudioState.STATE_RELEASED) { // 如果渲染器状态为released,停止渲染
206        fs.close(file);
207        await this.renderModel.stop();
208      }
209      if (this.renderModel.state === audio.AudioState.STATE_RUNNING) {
210        if (i === len - 1) { // 如果音频文件已经被读取完,停止渲染
211          fs.close(file);
212          await this.renderModel.stop();
213        }
214      }
215    }
216  }
217
218  // 暂停渲染
219  async pause() {
220    // 只有渲染器状态为running的时候才能暂停
221    if (this.renderModel.state !== audio.AudioState.STATE_RUNNING) {
222      console.info('Renderer is not running');
223      return;
224    }
225    await this.renderModel.pause(); // 暂停渲染
226    if (this.renderModel.state === audio.AudioState.STATE_PAUSED) {
227      console.info('Renderer is paused.');
228    } else {
229      console.error('Pausing renderer failed.');
230    }
231  }
232
233  // 停止渲染
234  async stop() {
235    // 只有渲染器状态为running或paused的时候才可以停止
236    if (this.renderModel.state !== audio.AudioState.STATE_RUNNING && this.renderModel.state !== audio.AudioState.STATE_PAUSED) {
237      console.info('Renderer is not running or paused.');
238      return;
239    }
240    await this.renderModel.stop(); // 停止渲染
241    if (this.renderModel.state === audio.AudioState.STATE_STOPPED) {
242      console.info('Renderer stopped.');
243    } else {
244      console.error('Stopping renderer failed.');
245    }
246  }
247
248  // 销毁实例,释放资源
249  async release() {
250    // 渲染器状态不是released状态,才能release
251    if (this.renderModel.state === audio.AudioState.STATE_RELEASED) {
252      console.info('Renderer already released');
253      return;
254    }
255    await this.renderModel.release(); // 释放资源
256    if (this.renderModel.state === audio.AudioState.STATE_RELEASED) {
257      console.info('Renderer released');
258    } else {
259      console.error('Renderer release failed.');
260    }
261  }
262}
263```
264
265当同优先级或高优先级音频流要使用输出设备时,当前音频流会被中断,应用可以自行响应中断事件并做出处理。具体的音频并发处理方式可参考[多音频播放的并发策略](audio-playback-concurrency.md)。
266