/external/XNNPACK/src/f32-gemm/gen-inc/ |
D | 6x8s4inc-minmax-wasmsimd-x86.c | 100 v128_t va5 = wasm_v128_load(a5); in xnn_f32_gemminc_minmax_ukernel_6x8s4__wasmsimd_x86() local 205 const v128_t va5 = wasm_v32x4_load_splat(a5); in xnn_f32_gemminc_minmax_ukernel_6x8s4__wasmsimd_x86() local
|
D | 6x8inc-minmax-neon-lane-ld64.c | 95 const float32x2_t va5 = vld1_f32(a5); a5 += 2; in xnn_f32_gemminc_minmax_ukernel_6x8__neon_lane_ld64() local 134 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemminc_minmax_ukernel_6x8__neon_lane_ld64() local
|
D | 6x8s4inc-minmax-wasmsimd-arm.c | 102 v128_t va5 = wasm_v128_load(a5); in xnn_f32_gemminc_minmax_ukernel_6x8s4__wasmsimd_arm() local 207 const v128_t va5 = wasm_v32x4_load_splat(a5); in xnn_f32_gemminc_minmax_ukernel_6x8s4__wasmsimd_arm() local
|
D | 6x8inc-minmax-neonfma-lane-ld64.c | 95 const float32x2_t va5 = vld1_f32(a5); a5 += 2; in xnn_f32_gemminc_minmax_ukernel_6x8__neonfma_lane_ld64() local 134 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemminc_minmax_ukernel_6x8__neonfma_lane_ld64() local
|
D | 6x8inc-minmax-neon-lane-ld128.c | 95 const float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemminc_minmax_ukernel_6x8__neon_lane_ld128() local 169 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemminc_minmax_ukernel_6x8__neon_lane_ld128() local
|
D | 6x8s4inc-minmax-neon.c | 95 float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemminc_minmax_ukernel_6x8s4__neon() local 194 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemminc_minmax_ukernel_6x8s4__neon() local
|
D | 6x8s4inc-minmax-neonfma.c | 95 float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemminc_minmax_ukernel_6x8s4__neonfma() local 194 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemminc_minmax_ukernel_6x8s4__neonfma() local
|
D | 6x8inc-minmax-neonfma-lane-ld128.c | 95 const float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemminc_minmax_ukernel_6x8__neonfma_lane_ld128() local 169 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemminc_minmax_ukernel_6x8__neonfma_lane_ld128() local
|
/external/XNNPACK/src/f32-igemm/gen/ |
D | 6x8s4-minmax-wasmsimd-arm.c | 128 v128_t va5 = wasm_v128_load(a5); in xnn_f32_igemm_minmax_ukernel_6x8s4__wasmsimd_arm() local 237 const v128_t va5 = wasm_v32x4_load_splat(a5); in xnn_f32_igemm_minmax_ukernel_6x8s4__wasmsimd_arm() local
|
D | 6x8s4-minmax-wasmsimd-x86.c | 126 v128_t va5 = wasm_v128_load(a5); in xnn_f32_igemm_minmax_ukernel_6x8s4__wasmsimd_x86() local 235 const v128_t va5 = wasm_v32x4_load_splat(a5); in xnn_f32_igemm_minmax_ukernel_6x8s4__wasmsimd_x86() local
|
D | 6x8-minmax-neonfma-lane-ld64.c | 121 const float32x2_t va5 = vld1_f32(a5); a5 += 2; in xnn_f32_igemm_minmax_ukernel_6x8__neonfma_lane_ld64() local 161 const float32x4_t va5 = vld1q_dup_f32(a5); in xnn_f32_igemm_minmax_ukernel_6x8__neonfma_lane_ld64() local
|
D | 6x8-minmax-neon-lane-ld64.c | 121 const float32x2_t va5 = vld1_f32(a5); a5 += 2; in xnn_f32_igemm_minmax_ukernel_6x8__neon_lane_ld64() local 161 const float32x4_t va5 = vld1q_dup_f32(a5); in xnn_f32_igemm_minmax_ukernel_6x8__neon_lane_ld64() local
|
D | 6x8-minmax-neonfma-lane-ld128.c | 121 const float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_igemm_minmax_ukernel_6x8__neonfma_lane_ld128() local 195 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_igemm_minmax_ukernel_6x8__neonfma_lane_ld128() local
|
D | 6x8s4-minmax-neonfma.c | 120 float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_igemm_minmax_ukernel_6x8s4__neonfma() local 219 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_igemm_minmax_ukernel_6x8s4__neonfma() local
|
D | 6x8-minmax-neon-lane-ld128.c | 121 const float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_igemm_minmax_ukernel_6x8__neon_lane_ld128() local 195 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_igemm_minmax_ukernel_6x8__neon_lane_ld128() local
|
D | 6x8s4-minmax-neon.c | 120 float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_igemm_minmax_ukernel_6x8s4__neon() local 219 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_igemm_minmax_ukernel_6x8s4__neon() local
|
/external/XNNPACK/src/f32-gemm/gen/ |
D | 6x8-minmax-neonfma-lane-ld64.c | 93 const float32x2_t va5 = vld1_f32(a5); a5 += 2; in xnn_f32_gemm_minmax_ukernel_6x8__neonfma_lane_ld64() local 132 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemm_minmax_ukernel_6x8__neonfma_lane_ld64() local
|
D | 6x8s4-minmax-wasmsimd-x86.c | 98 v128_t va5 = wasm_v128_load(a5); in xnn_f32_gemm_minmax_ukernel_6x8s4__wasmsimd_x86() local 203 const v128_t va5 = wasm_v32x4_load_splat(a5); in xnn_f32_gemm_minmax_ukernel_6x8s4__wasmsimd_x86() local
|
D | 6x8-minmax-neon-lane-ld64.c | 93 const float32x2_t va5 = vld1_f32(a5); a5 += 2; in xnn_f32_gemm_minmax_ukernel_6x8__neon_lane_ld64() local 132 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemm_minmax_ukernel_6x8__neon_lane_ld64() local
|
D | 6x8s4-minmax-wasmsimd-arm.c | 100 v128_t va5 = wasm_v128_load(a5); in xnn_f32_gemm_minmax_ukernel_6x8s4__wasmsimd_arm() local 205 const v128_t va5 = wasm_v32x4_load_splat(a5); in xnn_f32_gemm_minmax_ukernel_6x8s4__wasmsimd_arm() local
|
D | 6x8-minmax-neonfma-lane-ld128.c | 93 const float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemm_minmax_ukernel_6x8__neonfma_lane_ld128() local 167 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemm_minmax_ukernel_6x8__neonfma_lane_ld128() local
|
D | 6x8s4-minmax-neon.c | 93 float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemm_minmax_ukernel_6x8s4__neon() local 192 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemm_minmax_ukernel_6x8s4__neon() local
|
D | 6x8s4-minmax-neonfma.c | 93 float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemm_minmax_ukernel_6x8s4__neonfma() local 192 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemm_minmax_ukernel_6x8s4__neonfma() local
|
D | 6x8-minmax-neon-lane-ld128.c | 93 const float32x4_t va5 = vld1q_f32(a5); a5 += 4; in xnn_f32_gemm_minmax_ukernel_6x8__neon_lane_ld128() local 167 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemm_minmax_ukernel_6x8__neon_lane_ld128() local
|
D | 6x8-minmax-neon-dup-ld64.c | 93 const float32x2_t va5 = vld1_f32(a5); a5 += 2; in xnn_f32_gemm_minmax_ukernel_6x8__neon_dup_ld64() local 144 const float32x4_t va5 = vld1q_dup_f32(a5); a5 += 1; in xnn_f32_gemm_minmax_ukernel_6x8__neon_dup_ld64() local
|