1# 避免在主线程中执行耗时操作 2 3<!--Kit: Common--> 4<!--Subsystem: Demo&Sample--> 5<!--Owner: @mgy917--> 6<!--Designer: @jiangwensai--> 7<!--Tester: @Lyuxin--> 8<!--Adviser: @huipeizi--> 9 10## 简介 11在应用开发中,经常会调用执行耗时的接口,比如服务端数据接口,本地文件读取接口。如果不进行合理的处理,可能会引起卡顿等性能问题。 12## 问题场景 13列表无限滑动的场景,在即将触底的时候需要进行数据请求,如果在主线程中直接处理请求数据,可能会导致滑动动画被中断。如果回调函数处理的耗时较长,会直接阻塞主线程,卡顿就会非常明显。使用异步执行的方式进行异步调用,回调函数的执行还是会在主线程,一样会阻塞UI绘制和渲染。场景预览如下,列表滑动过程中,图片会显示延迟。 14 15 16 17## 优化示例 18### 优化前代码示例 19如下代码实现了一个瀑布流,每一个元素都是一张图片,在滑动即将触底时调用异步函数mockRequestData获取新数据,并将数据写入数据源。异步函数mockRequestData用于模拟耗时的网络请求,从rawfile中读取数据,将数据处理后返回。 20```ts 21 build() { 22 Column({ space: 2 }) { 23 WaterFlow() { 24 LazyForEach(this.dataSource, (item: ModelDetailVO) => { 25 FlowItem() { 26 Column() { 27 Image(item.url) 28 } 29 } 30 .onAppear(() => { 31 // 即将触底时提前增加数据 32 if (item.id + 10 === this.dataSource.totalCount()) { 33 // 通过子线程获取数据,传入当前的数据长度,用于赋给数据的ID值 34 this.mockRequestData().then((data: ModelDetailVO[]) => { 35 for (let i = 0; i < data.length; i++) { 36 this.dataSource.addLastItem(data[i]); 37 } 38 }) 39 } 40 }) 41 }, (item: string) => item) 42 } 43 } 44 } 45 46 async mockRequestData(): Promise<ModelDetailVO[]> { 47 let result: modelDetailDTO[] = []; 48 // data.json是存在本地的json数据,大小大约20M,模拟从网络端获取数据 49 let data: Uint8Array = await context.resourceManager.getRawFileContent("data.json"); 50 let jsonData: string = buffer.from(data).toString(); 51 let res: responseData = JSON.parse(jsonData); 52 result = res.data; 53 return this.transArrayDTO2VO(result); 54 } 55 // ... 56``` 57编译运行后,通过[SmartPerf Host](./performance-optimization-using-smartperf-host.md)工具抓取Trace。如下图所示,其中红色框选的部分就是getRawFileContent的回调耗时。 58 59 60 61从图中可以看到,在主线程中出现了大块的耗时,直接导致用户在滑动的时候能感受到明显的卡顿。异步回调函数最后也由主线程执行,所以应该尽量避免在回调函数中执行耗时操作。 62 63 64 65### 优化思路:使用多线程能力 66使用系统自带的[TaskPool](../arkts-utils//taskpool-introduction.md)多线程能力。 67```ts 68 build() { 69 Column({ space: 2 }) { 70 WaterFlow() { 71 LazyForEach(this.dataSource, (item: ModelDetailVO) => { 72 FlowItem() { 73 Column() { 74 Image(item.url) 75 } 76 } 77 .onAppear(() => { 78 // 即将触底时提前增加数据 79 if (item.id + 10 === this.dataSource.totalCount()) { 80 // 通过子线程获取数据,传入当前的数据长度,用于赋给数据的ID值 81 taskpoolExecute(this.dataSource.totalCount(), 82 this.getUIContext().getHostContext() as common.UIAbilityContext).then((data: ModelDetailVO[]) => { 83 for (let i = 0; i < data.length; i++) { 84 this.dataSource.addLastItem(data[i]); 85 } 86 }) 87 } 88 }) 89 }, (item: string) => item) 90 } 91 } 92 } 93 94 // 注意:以下方法和类声明均在组件外声明 95 async function taskpoolExecute(index: number, context: Context): Promise<ModelDetailVO[]> { 96 // context需要手动传入子线程 97 let task: taskpool.Task = new taskpool.Task(mockRequestData, index, context); 98 return await taskpool.execute(task) as ModelDetailVO[]; 99 } 100 101 // 标记并发执行函数 102 @Concurrent 103 async function mockRequestData(index: number, context: Context): Promise<ModelDetailVO[]> { 104 let result: modelDetailDTO[] = []; 105 // data.json是存在本地的json数据,大小大约20M,模拟从网络端获取数据 106 let data: Uint8Array = await context.resourceManager.getRawFileContent("data.json"); 107 let jsonData: string = buffer.from(data).toString(); 108 let res: responseData = JSON.parse(jsonData); 109 result = res.data; 110 return transArrayDTO2VO(result, index); 111 } 112``` 113 114在上面的代码里,优化的思路主要是用子线程处理耗时操作,避免在主线程中执行耗时操作影响UI渲染,编译运行后,通过[SmartPerf Host](./performance-optimization-using-smartperf-host.md)工具抓取Trace。如下图所示,原先在主线程中的getRawFileContent的标签转移到了TaskWorker线程。 115 116 117 118从图中可以看到,主线程阻塞耗时明显减少,同时在右上角出现了新的trace,__H:Deserialize__,这个trace表示在反序列化taskpool线程返回的数据。依然存在一定耗时(17ms) 容易出现丢帧等问题。针对跨线程的序列化耗时问题,系统提供了[@Sendable装饰器](../arkts-utils/arkts-sendable.md#sendable装饰器)来实现内存共享。可以在返回的类对象ModelDetailVO上使用@Sendable装饰器,继续优化性能。 119 120### 优化思路:可以使用@Sendable装饰器提升数据传输和同步效率 121多线程存在线程间通信耗时问题,如果涉及数据较大的情况,可以使用[@Sendable](../arkts-utils/arkts-sendable.md)。 122 123```c++ 124 build() { 125 Column({ space: 2 }) { 126 WaterFlow({}) { 127 LazyForEach(this.dataSource, (item: ModelDetailVO) => { 128 FlowItem() { 129 Column() { 130 Image(item.url) 131 } 132 } 133 .onAppear(() => { 134 // 即将触底时提前增加数据 135 if (item.id + 10 === this.dataSource.totalCount()) { 136 // 通过子线程获取数据,传入当前的数据长度,用于赋给数据的ID值 137 taskpoolExecute(this.dataSource.totalCount(), 138 this.getUIContext().getHostContext() as common.UIAbilityContext).then((data: ModelDetailVO[]) => { 139 for (let i = 0; i < data.length; i++) { 140 this.dataSource.addLastItem(data[i]); 141 } 142 }) 143 } 144 }) 145 }, (item: string) => item) 146 } 147 } 148 } 149 150 // 注意:以下方法和类声明均在组件外声明 151 async function taskpoolExecute(index: number, context: Context): Promise<ModelDetailVO[]> { 152 // context需要手动传入子线程 153 let task: taskpool.Task = new taskpool.Task(mockRequestData, index, context); 154 return await taskpool.execute(task) as ModelDetailVO[]; 155 } 156 157 // 标记并发执行函数 158 @Concurrent 159 async function mockRequestData(index: number, context: Context): Promise<ModelDetailVO[]> { 160 let result: modelDetailDTO[] = []; 161 // data.json是存在本地的json数据,大小大约20M,模拟从网络端获取数据 162 await context.resourceManager.getRawFileContent("data.json").then((data: Uint8Array) => { 163 let jsonData = buffer.from(data).toString(); 164 let res: responseData = JSON.parse(jsonData); 165 result = res.data; 166 }) 167 return transArrayDTO2VO(result, index); 168 } 169 170 @Sendable 171 class ModelDetailVO { 172 id: number = 0; 173 name: string = ""; 174 url: string = ""; 175 } 176 177 // ... 178``` 179上面的代码在子线程返回的类对象上使用了@Sendable,系统会使用共享内存的方式处理使用了@Sendable的类,从而降低反序列化的开销。 180 181 182 183从图中可以看到,反序列化的大小和耗时明显变少。 184 185## 总结 186通过上面的示例代码和优化过程,可以看到在主线程的回调函数中处理耗时操作会直接阻塞主线程,用户能感知到明显的卡顿,用子线程配合@Sendable可以有效的优化该场景的性能。 187