/external/llvm-project/polly/test/Isl/CodeGen/ |
D | partial_write_impossible_restriction___%for.body344---%if.then.i.i1141.loopexit.jscop.transformed | 14 "context" : "[tmp5] -> { : -2147483648 <= tmp5 <= 2147483647 }", 21 "relation" : "[tmp5] -> { Stmt_for_body344[-1 + tmp5] -> MemRef__pn[-1 + tmp5] }" 24 … "domain" : "[tmp5] -> { Stmt_for_body344[i0] : 0 <= i0 < tmp5; Stmt_for_body344[0] : tmp5 <= 0 }", 26 …"schedule" : "[tmp5] -> { Stmt_for_body344[i0] -> [i0, 0] : i0 < tmp5; Stmt_for_body344[0] -> [0, … 32 "relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef_tmp4[1 + i0] }" 36 …"relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef__pn[i0] : i0 <= -2 + tmp5; Stmt_cond_false… 39 …"domain" : "[tmp5] -> { Stmt_cond_false[i0] : 0 <= i0 <= -2 + tmp5; Stmt_cond_false[0] : tmp5 <= 0… 41 …"schedule" : "[tmp5] -> { Stmt_cond_false[i0] -> [i0, 1] : i0 <= -2 + tmp5; Stmt_cond_false[0] -> … 47 "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef__pn[i0] }" 51 "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef__pn[i0] }" [all …]
|
D | partial_write_impossible_restriction___%for.body344---%if.then.i.i1141.loopexit.jscop | 14 "context" : "[tmp5] -> { : -2147483648 <= tmp5 <= 2147483647 }", 21 … "relation" : "[tmp5] -> { Stmt_for_body344[i0] -> MemRef_cond_in_sroa_speculated__phi[] }" 24 … "domain" : "[tmp5] -> { Stmt_for_body344[i0] : 0 <= i0 < tmp5; Stmt_for_body344[0] : tmp5 <= 0 }", 26 …"schedule" : "[tmp5] -> { Stmt_for_body344[i0] -> [i0, 0] : i0 < tmp5; Stmt_for_body344[0] -> [0, … 32 "relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef_tmp4[1 + i0] }" 36 … "relation" : "[tmp5] -> { Stmt_cond_false[i0] -> MemRef_cond_in_sroa_speculated__phi[] }" 39 …"domain" : "[tmp5] -> { Stmt_cond_false[i0] : 0 <= i0 <= -2 + tmp5; Stmt_cond_false[0] : tmp5 <= 0… 41 …"schedule" : "[tmp5] -> { Stmt_cond_false[i0] -> [i0, 1] : i0 <= -2 + tmp5; Stmt_cond_false[0] -> … 47 … "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef_cond_in_sroa_speculated__phi[] }" 51 "relation" : "[tmp5] -> { Stmt_cond_end[i0] -> MemRef__pn[i0] }" [all …]
|
/external/llvm-project/llvm/test/CodeGen/ARM/ |
D | vaba.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 44 ret <8 x i8> %tmp5 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 55 ret <4 x i16> %tmp5 [all …]
|
D | vmla.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vmls.ll | 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
/external/llvm/test/CodeGen/ARM/ |
D | vaba.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = add <8 x i8> %tmp1, %tmp4 44 ret <8 x i8> %tmp5 54 %tmp5 = add <4 x i16> %tmp1, %tmp4 55 ret <4 x i16> %tmp5 [all …]
|
D | vmls.ll | 10 %tmp5 = sub <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = sub <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = sub <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fsub <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = sub <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | vmla.ll | 10 %tmp5 = add <8 x i8> %tmp1, %tmp4 11 ret <8 x i8> %tmp5 21 %tmp5 = add <4 x i16> %tmp1, %tmp4 22 ret <4 x i16> %tmp5 32 %tmp5 = add <2 x i32> %tmp1, %tmp4 33 ret <2 x i32> %tmp5 43 %tmp5 = fadd <2 x float> %tmp1, %tmp4 44 ret <2 x float> %tmp5 54 %tmp5 = add <16 x i8> %tmp1, %tmp4 55 ret <16 x i8> %tmp5 [all …]
|
D | uxtb.ll | 37 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 38 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 46 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 47 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 54 %tmp5 = lshr i32 %x, 24 ; <i32> [#uses=1] 55 %tmp6 = or i32 %tmp2, %tmp5 ; <i32> [#uses=1] 62 %tmp5 = and i32 %tmp4, 16711680 ; <i32> [#uses=1] 63 %tmp6 = or i32 %tmp5, %tmp1 ; <i32> [#uses=1] 71 %tmp5 = and i32 %tmp4, 458759 ; <i32> [#uses=1] 72 %tmp7 = or i32 %tmp5, %tmp2 ; <i32> [#uses=1]
|
/external/llvm/test/CodeGen/X86/ |
D | 2007-03-15-GEP-Idx-Sink.ll | 16 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1] 17 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1] 18 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1] 19 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1] 20 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1] 21 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1] 22 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1] 31 %tmp5 = getelementptr i8, i8* %tmp3, i32 %col ; <i8*> [#uses=1] 33 store i8 %tmp7, i8* %tmp5 37 %tmp15 = getelementptr i8, i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1] [all …]
|
/external/llvm-project/llvm/test/CodeGen/X86/ |
D | 2007-03-15-GEP-Idx-Sink.ll | 15 %tmp5.sum72 = add i32 %col, 7 ; <i32> [#uses=1] 16 %tmp5.sum71 = add i32 %col, 5 ; <i32> [#uses=1] 17 %tmp5.sum70 = add i32 %col, 3 ; <i32> [#uses=1] 18 %tmp5.sum69 = add i32 %col, 2 ; <i32> [#uses=1] 19 %tmp5.sum68 = add i32 %col, 1 ; <i32> [#uses=1] 20 %tmp5.sum66 = add i32 %col, 4 ; <i32> [#uses=1] 21 %tmp5.sum = add i32 %col, 6 ; <i32> [#uses=1] 30 %tmp5 = getelementptr i8, i8* %tmp3, i32 %col ; <i8*> [#uses=1] 32 store i8 %tmp7, i8* %tmp5 36 %tmp15 = getelementptr i8, i8* %tmp3, i32 %tmp5.sum72 ; <i8*> [#uses=1] [all …]
|
/external/llvm/test/Transforms/InstCombine/ |
D | apint-cast.ll | 10 %tmp5 = shl i37 %tmp, 8 ; <i37> [#uses=1] 11 ; CHECK: %tmp5 = shl i17 %a, 8 12 %tmp.upgrd.32 = or i37 %tmp21, %tmp5 ; <i37> [#uses=1] 13 ; CHECK: %tmp.upgrd.32 = or i17 %tmp21, %tmp5 23 %tmp5 = shl i577 %tmp, 8 ; <i577> [#uses=1] 24 ; CHECK: %tmp5 = shl i167 %a, 8 25 %tmp.upgrd.32 = or i577 %tmp21, %tmp5 ; <i577> [#uses=1] 26 ; CHECK: %tmp.upgrd.32 = or i167 %tmp21, %tmp5
|
D | bswap.ll | 11 %tmp5 = or i32 %tmp1, %tmp4 14 %tmp9 = or i32 %tmp5, %tmp8 25 %tmp5 = and i32 %tmp4, 16711680 26 %tmp6 = or i32 %tmp2, %tmp5 40 %tmp5 = or i16 %tmp2, %tmp4 41 ret i16 %tmp5 49 %tmp5 = or i16 %tmp4, %tmp2 50 ret i16 %tmp5 61 %tmp5 = shl i32 %tmp4, 8 62 %tmp5.upgrd.2 = trunc i32 %tmp5 to i16 [all …]
|
/external/llvm/test/CodeGen/AArch64/ |
D | arm64-trn.ll | 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 13 ret <8 x i8> %tmp5 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 26 ret <4 x i16> %tmp5 39 %tmp5 = add <2 x i32> %tmp3, %tmp4 40 ret <2 x i32> %tmp5 52 %tmp5 = fadd <2 x float> %tmp3, %tmp4 53 ret <2 x float> %tmp5 65 %tmp5 = add <16 x i8> %tmp3, %tmp4 66 ret <16 x i8> %tmp5 [all …]
|
D | arm64-zip.ll | 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 13 ret <8 x i8> %tmp5 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 26 ret <4 x i16> %tmp5 38 %tmp5 = add <16 x i8> %tmp3, %tmp4 39 ret <16 x i8> %tmp5 51 %tmp5 = add <8 x i16> %tmp3, %tmp4 52 ret <8 x i16> %tmp5 64 %tmp5 = add <4 x i32> %tmp3, %tmp4 65 ret <4 x i32> %tmp5 [all …]
|
/external/llvm-project/llvm/test/CodeGen/AArch64/ |
D | arm64-trn.ll | 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 13 ret <8 x i8> %tmp5 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 26 ret <4 x i16> %tmp5 39 %tmp5 = add <2 x i32> %tmp3, %tmp4 40 ret <2 x i32> %tmp5 52 %tmp5 = fadd <2 x float> %tmp3, %tmp4 53 ret <2 x float> %tmp5 65 %tmp5 = add <16 x i8> %tmp3, %tmp4 66 ret <16 x i8> %tmp5 [all …]
|
D | arm64-zip.ll | 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 13 ret <8 x i8> %tmp5 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 26 ret <4 x i16> %tmp5 38 %tmp5 = add <16 x i8> %tmp3, %tmp4 39 ret <16 x i8> %tmp5 51 %tmp5 = add <8 x i16> %tmp3, %tmp4 52 ret <8 x i16> %tmp5 64 %tmp5 = add <4 x i32> %tmp3, %tmp4 65 ret <4 x i32> %tmp5 [all …]
|
D | arm64-uzp.ll | 12 %tmp5 = add <8 x i8> %tmp3, %tmp4 13 ret <8 x i8> %tmp5 25 %tmp5 = add <4 x i16> %tmp3, %tmp4 26 ret <4 x i16> %tmp5 38 %tmp5 = add <16 x i8> %tmp3, %tmp4 39 ret <16 x i8> %tmp5 51 %tmp5 = add <8 x i16> %tmp3, %tmp4 52 ret <8 x i16> %tmp5 64 %tmp5 = add <4 x i32> %tmp3, %tmp4 65 ret <4 x i32> %tmp5 [all …]
|
/external/libjpeg-turbo/ |
D | jfdctint.c | 145 JLONG tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 163 tmp5 = dataptr[2] - dataptr[5]; 191 z2 = tmp5 + tmp6; 193 z4 = tmp5 + tmp7; 197 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */ 209 dataptr[5] = (DCTELEM)DESCALE(tmp5 + z2 + z4, CONST_BITS - PASS1_BITS); 228 tmp5 = dataptr[DCTSIZE * 2] - dataptr[DCTSIZE * 5]; 258 z2 = tmp5 + tmp6; 260 z4 = tmp5 + tmp7; 264 tmp5 = MULTIPLY(tmp5, FIX_2_053119869); /* sqrt(2) * ( c1+c3-c5+c7) */ [all …]
|
D | jidctflt.c | 76 FAST_FLOAT tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; variable 147 tmp5 = DEQUANTIZE(inptr[DCTSIZE * 3], quantptr[DCTSIZE * 3] * _0_125); 151 z13 = tmp6 + tmp5; /* phase 6 */ 152 z10 = tmp6 - tmp5; 164 tmp5 = tmp11 - tmp6; 165 tmp4 = tmp10 - tmp5; 171 wsptr[DCTSIZE * 2] = tmp2 + tmp5; 172 wsptr[DCTSIZE * 5] = tmp2 - tmp5; 222 tmp5 = tmp11 - tmp6; 223 tmp4 = tmp10 - tmp5; [all …]
|
/external/llvm/test/Analysis/DivergenceAnalysis/AMDGPU/ |
D | no-return-blocks.ll | 3 ; CHECK: DIVERGENT: %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2 4 ; CHECK: DIVERGENT: %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4 5 ; CHECK: DIVERGENT: %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4 12 %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2 13 %tmp6 = load volatile float, float addrspace(1)* %tmp5, align 4 18 %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4 22 %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
|
/external/llvm-project/llvm/test/Analysis/LegacyDivergenceAnalysis/AMDGPU/ |
D | no-return-blocks.ll | 3 ; CHECK: DIVERGENT: %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2 4 ; CHECK: DIVERGENT: %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4 5 ; CHECK: DIVERGENT: %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4 12 %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2 13 %tmp6 = load volatile float, float addrspace(1)* %tmp5, align 4 18 %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4 22 %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
|
/external/llvm-project/llvm/test/Analysis/DivergenceAnalysis/AMDGPU/ |
D | no-return-blocks.ll | 3 ; CHECK: DIVERGENT: %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2 4 ; CHECK: DIVERGENT: %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4 5 ; CHECK: DIVERGENT: %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4 12 %tmp5 = getelementptr inbounds float, float addrspace(1)* %arg, i64 %tmp2 13 %tmp6 = load volatile float, float addrspace(1)* %tmp5, align 4 18 %tmp10 = load volatile float, float addrspace(1)* %tmp5, align 4 22 %tmp11 = load volatile float, float addrspace(1)* %tmp5, align 4
|
/external/llvm-project/llvm/test/CodeGen/SystemZ/ |
D | int-cmp-56.ll | 19 %tmp5 = icmp eq i32 %tmp4, 0 20 br i1 %tmp5, label %bb4, label %bb2 46 %tmp5 = icmp eq i32 %tmp4, 0 47 br i1 %tmp5, label %bb4, label %bb2 73 %tmp5 = icmp eq i32 %tmp4, 0 74 br i1 %tmp5, label %bb4, label %bb2 100 %tmp5 = icmp eq i32 %tmp4, 0 101 br i1 %tmp5, label %bb4, label %bb2 126 %tmp5 = icmp eq i32 %tmp4, 0 127 br i1 %tmp5, label %bb4, label %bb2 [all …]
|
/external/llvm-project/llvm/test/CodeGen/AMDGPU/ |
D | alignbit-pat.ll | 13 %tmp5 = lshr i64 %tmp, %tmp4 14 %tmp6 = trunc i64 %tmp5 to i32 33 %tmp5 = lshr i64 %tmp, %tmp4 34 %tmp6 = trunc i64 %tmp5 to i32 49 %tmp5 = lshr i64 %tmp, %tmp4 50 %tmp6 = trunc i64 %tmp5 to i32 65 %tmp5 = lshr i64 %tmp, %tmp4 66 %tmp6 = trunc i64 %tmp5 to i32 78 %tmp5 = lshr i64 %tmp, 30 79 %tmp6 = trunc i64 %tmp5 to i32 [all …]
|