/external/tensorflow/tensorflow/compiler/xla/service/ |
D | algebraic_simplifier_proof_distributive_property.py | 35 import z3 40 FLOAT_TY = z3.Float16 42 a = z3.FP("a", FLOAT_TY()) 43 b = z3.FP("b", FLOAT_TY()) 44 c = z3.FP("c", FLOAT_TY()) 46 s = z3.Solver() 49 s.add(z3.Extract(FLOAT_TY().sbits() - 1, 0, z3.fpToIEEEBV(c)) == 0) 51 for rm in [z3.RTZ(), z3.RNE()]: 52 z3.set_default_rounding_mode(rm) 58 z3.Not( [all …]
|
/external/libjpeg-turbo/ |
D | jidctint.c | 179 JLONG z1, z2, z3, z4, z5; variable 233 z3 = DEQUANTIZE(inptr[DCTSIZE * 6], quantptr[DCTSIZE * 6]); 235 z1 = MULTIPLY(z2 + z3, FIX_0_541196100); 236 tmp2 = z1 + MULTIPLY(z3, -FIX_1_847759065); 240 z3 = DEQUANTIZE(inptr[DCTSIZE * 4], quantptr[DCTSIZE * 4]); 242 tmp0 = LEFT_SHIFT(z2 + z3, CONST_BITS); 243 tmp1 = LEFT_SHIFT(z2 - z3, CONST_BITS); 261 z3 = tmp0 + tmp2; 263 z5 = MULTIPLY(z3 + z4, FIX_1_175875602); /* sqrt(2) * c3 */ 271 z3 = MULTIPLY(z3, -FIX_1_961570560); /* sqrt(2) * (-c3-c5) */ [all …]
|
D | jfdctint.c | 147 JLONG z1, z2, z3, z4, z5; variable 192 z3 = tmp4 + tmp6; 194 z5 = MULTIPLY(z3 + z4, FIX_1_175875602); /* sqrt(2) * c3 */ 202 z3 = MULTIPLY(z3, -FIX_1_961570560); /* sqrt(2) * (-c3-c5) */ 205 z3 += z5; 208 dataptr[7] = (DCTELEM)DESCALE(tmp4 + z1 + z3, CONST_BITS - PASS1_BITS); 210 dataptr[3] = (DCTELEM)DESCALE(tmp6 + z2 + z3, CONST_BITS - PASS1_BITS); 259 z3 = tmp4 + tmp6; 261 z5 = MULTIPLY(z3 + z4, FIX_1_175875602); /* sqrt(2) * c3 */ 269 z3 = MULTIPLY(z3, -FIX_1_961570560); /* sqrt(2) * (-c3-c5) */ [all …]
|
D | jfdctflt.c | 64 FAST_FLOAT z1, z2, z3, z4, z5, z11, z13; variable 105 z3 = tmp11 * ((FAST_FLOAT)0.707106781); /* c4 */ 107 z11 = tmp7 + z3; /* phase 5 */ 108 z13 = tmp7 - z3; 155 z3 = tmp11 * ((FAST_FLOAT)0.707106781); /* c4 */ 157 z11 = tmp7 + z3; /* phase 5 */ 158 z13 = tmp7 - z3;
|
D | jfdctfst.c | 121 DCTELEM z1, z2, z3, z4, z5, z11, z13; variable 163 z3 = MULTIPLY(tmp11, FIX_0_707106781); /* c4 */ 165 z11 = tmp7 + z3; /* phase 5 */ 166 z13 = tmp7 - z3; 213 z3 = MULTIPLY(tmp11, FIX_0_707106781); /* c4 */ 215 z11 = tmp7 + z3; /* phase 5 */ 216 z13 = tmp7 - z3;
|
/external/llvm-project/llvm/test/CodeGen/AMDGPU/GlobalISel/ |
D | combine-shift-of-shifted-logic.ll | 12 %z3 = shl i32 %z2, 2 13 ret i32 %z3 24 %z3 = shl i32 %z2, 3 25 ret i32 %z3 37 %z3 = shl i32 %z2, 2 38 ret i32 %z3 49 %z3 = lshr i32 %z2, 2 50 ret i32 %z3 62 %z3 = lshr i32 %z2, 3 63 ret i32 %z3 [all …]
|
D | combine-shift-imm-chain.ll | 23 %z3 = shl i32 %z2, 3 24 %z4 = shl i32 %z3, 4 36 %z3 = shl i32 %z2, 10 37 %z4 = shl i32 %z3, 10 50 %z3 = shl i64 %z2, 10 51 %z4 = shl i64 %z3, 10 77 %z3 = ashr i32 %z2, 3 78 %z4 = ashr i32 %z3, 4 90 %z3 = ashr i32 %z2, 10 91 %z4 = ashr i32 %z3, 10 [all …]
|
/external/llvm-project/llvm/test/MC/AArch64/SVE/ |
D | st4h-diagnostics.s | 35 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, x0] 40 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, xzr] 45 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, x0, lsl #2] 50 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, w0] 55 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, w0, uxtw] 64 st4h {z2.h, z3.h, z4.h, z5.h}, p8, [x15, #10, MUL VL] 69 st4h {z2.h, z3.h, z4.h, z5.h}, p7.b, [x15, #10, MUL VL] 74 st4h {z2.h, z3.h, z4.h, z5.h}, p7.q, [x15, #10, MUL VL] 88 st4h { z0.h, z1.h, z2.h, z3.h, z4.h }, p0, [x0] 93 st4h { z0.h, z1.h, z2.h, z3.s }, p0, [x0] [all …]
|
D | st4w-diagnostics.s | 35 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, x0] 40 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, xzr] 45 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, x0, lsl #3] 50 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, w0] 55 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, w0, uxtw] 64 st4w {z2.s, z3.s, z4.s, z5.s}, p8, [x15, #10, MUL VL] 69 st4w {z2.s, z3.s, z4.s, z5.s}, p7.b, [x15, #10, MUL VL] 74 st4w {z2.s, z3.s, z4.s, z5.s}, p7.q, [x15, #10, MUL VL] 88 st4w { z0.s, z1.s, z2.s, z3.s, z4.s }, p0, [x0] 93 st4w { z0.s, z1.s, z2.s, z3.d }, p0, [x0] [all …]
|
D | st4d-diagnostics.s | 35 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, x0] 40 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, xzr] 45 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, x0, lsl #2] 50 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, w0] 55 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, w0, uxtw] 64 st4d {z2.d, z3.d, z4.d, z5.d}, p8, [x15, #10, MUL VL] 69 st4d {z2.d, z3.d, z4.d, z5.d}, p7.b, [x15, #10, MUL VL] 74 st4d {z2.d, z3.d, z4.d, z5.d}, p7.q, [x15, #10, MUL VL] 88 st4d { z0.d, z1.d, z2.d, z3.d, z4.d }, p0, [x0] 93 st4d { z0.d, z1.d, z2.d, z3.b }, p0, [x0] [all …]
|
D | st4b-diagnostics.s | 35 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, xzr] 40 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, x0, lsl #1] 45 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, w0] 50 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, w0, uxtw] 59 st4b {z2.b, z3.b, z4.b, z5.b}, p8, [x15, #10, MUL VL] 64 st4b {z2.b, z3.b, z4.b, z5.b}, p7.b, [x15, #10, MUL VL] 69 st4b {z2.b, z3.b, z4.b, z5.b}, p7.q, [x15, #10, MUL VL] 83 st4b { z0.b, z1.b, z2.b, z3.b, z4.b }, p0, [x0] 88 st4b { z0.b, z1.b, z2.b, z3.h }, p0, [x0] 93 st4b { z0.b, z1.b, z3.b, z5.b }, p0, [x0]
|
D | ld4d-diagnostics.s | 35 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, x0] 40 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, xzr] 45 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, x0, lsl #2] 50 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, w0] 55 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, w0, uxtw] 64 ld4d {z2.d, z3.d, z4.d, z5.d}, p8/z, [x15, #10, MUL VL] 78 ld4d { z0.d, z1.d, z2.d, z3.d, z4.d }, p0/z, [x0] 83 ld4d { z0.d, z1.d, z2.d, z3.b }, p0/z, [x0] 88 ld4d { z0.d, z1.d, z3.d, z5.d }, p0/z, [x0]
|
D | ld4w-diagnostics.s | 35 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, x0] 40 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, xzr] 45 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, x0, lsl #3] 50 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, w0] 55 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, w0, uxtw] 64 ld4w {z2.s, z3.s, z4.s, z5.s}, p8/z, [x15, #10, MUL VL] 78 ld4w { z0.s, z1.s, z2.s, z3.s, z4.s }, p0/z, [x0] 83 ld4w { z0.s, z1.s, z2.s, z3.d }, p0/z, [x0] 88 ld4w { z0.s, z1.s, z3.s, z5.s }, p0/z, [x0]
|
D | ld4h-diagnostics.s | 35 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, x0] 40 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, xzr] 45 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, x0, lsl #2] 50 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, w0] 55 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, w0, uxtw] 64 ld4h {z2.h, z3.h, z4.h, z5.h}, p8/z, [x15, #10, MUL VL] 78 ld4h { z0.h, z1.h, z2.h, z3.h, z4.h }, p0/z, [x0] 83 ld4h { z0.h, z1.h, z2.h, z3.s }, p0/z, [x0] 88 ld4h { z0.h, z1.h, z3.h, z5.h }, p0/z, [x0]
|
D | ld4b-diagnostics.s | 35 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, xzr] 40 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, x0, lsl #1] 45 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, w0] 50 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, w0, uxtw] 59 ld4b {z2.b, z3.b, z4.b, z5.b}, p8/z, [x15, #10, MUL VL] 73 ld4b { z0.b, z1.b, z2.b, z3.b, z4.b }, p0/z, [x0] 78 ld4b { z0.b, z1.b, z2.b, z3.h }, p0/z, [x0] 83 ld4b { z0.b, z1.b, z3.b, z5.b }, p0/z, [x0]
|
/external/llvm-project/llvm/test/CodeGen/AArch64/ |
D | sve-copy-zprpair.mir | 40 ; CHECK: $z3 = ORR_ZZZ $z2, $z2 45 ; CHECK: $z2 = ORR_ZZZ $z3, $z3 65 ; CHECK: $z4 = ORR_ZZZ $z3, $z3 66 ; CHECK: $z3 = ORR_ZZZ $z2, $z2 71 ; CHECK: $z2 = ORR_ZZZ $z3, $z3 72 ; CHECK: $z3 = ORR_ZZZ $z4, $z4
|
D | sve-calling-convention-tuple-types.ll | 20 …x i8> %dummy_z0, <vscale x 16 x i8> %z1, <vscale x 16 x i8> %dummy_z2, <vscale x 16 x i8> %z3) #0 { 23 ; CHECK-NEXT: mov z1.d, z3.d 25 …i8> @llvm.aarch64.sve.tuple.create2.nxv32i8.nxv16i8(<vscale x 16 x i8> %z1, <vscale x 16 x i8> %z3) 43 … i16> %dummy_z0, <vscale x 8 x i16> %z1, <vscale x 8 x i16> %dummy_z2, <vscale x 8 x i16> %z3) #0 { 46 ; CHECK-NEXT: mov z1.d, z3.d 48 …6> @llvm.aarch64.sve.tuple.create2.nxv16i16.nxv8i16(<vscale x 8 x i16> %z1, <vscale x 8 x i16> %z3) 66 … i32> %dummy_z0, <vscale x 4 x i32> %z1, <vscale x 4 x i32> %dummy_z2, <vscale x 4 x i32> %z3) #0 { 69 ; CHECK-NEXT: mov z1.d, z3.d 71 …32> @llvm.aarch64.sve.tuple.create2.nxv8i32.nxv4i32(<vscale x 4 x i32> %z1, <vscale x 4 x i32> %z3) 89 … i64> %dummy_z0, <vscale x 2 x i64> %z1, <vscale x 2 x i64> %dummy_z2, <vscale x 2 x i64> %z3) #0 { [all …]
|
D | sve-breakdown-scalable-vectortype.ll | 115 ; CHECK-NEXT: mov z2.d, z3.d 129 ; CHECK-NEXT: mov z2.d, z3.d 143 ; CHECK-NEXT: mov z2.d, z3.d 157 ; CHECK-NEXT: mov z2.d, z3.d 171 ; CHECK-NEXT: mov z2.d, z3.d 185 ; CHECK-NEXT: mov z2.d, z3.d 199 ; CHECK-NEXT: mov z2.d, z3.d 217 ; CHECK-NEXT: mov z2.d, z3.d 218 ; CHECK-NEXT: mov z3.d, z4.d 232 ; CHECK-NEXT: mov z2.d, z3.d [all …]
|
/external/bouncycastle/bcprov/src/main/java/org/bouncycastle/crypto/modes/gcm/ |
D | GCMUtil.java | 115 int z0 = 0, z1 = 0, z2 = 0, z3 = 0; in multiply() local 126 z3 ^= (y3 & m1); in multiply() 139 x[3] = z3; in multiply() 191 long z3 = h3; in multiply() local 193 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in multiply() 195 z2 ^= (z3 << 62) ^ (z3 << 57); in multiply() 313 long z0 = t[0], z1 = t[1], z2 = t[2], z3 = t[3]; in square() local 315 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in square() 316 z2 ^= (z3 << 63) ^ (z3 << 62) ^ (z3 << 57); in square() 436 long z3 = (x0 * y3) ^ (x1 * y2) ^ (x2 * y1) ^ (x3 * y0); in implMul64() local [all …]
|
/external/bouncycastle/repackaged_platform/bcprov/src/main/java/com/android/internal/org/bouncycastle/crypto/modes/gcm/ |
D | GCMUtil.java | 119 int z0 = 0, z1 = 0, z2 = 0, z3 = 0; in multiply() local 130 z3 ^= (y3 & m1); in multiply() 143 x[3] = z3; in multiply() 195 long z3 = h3; in multiply() local 197 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in multiply() 199 z2 ^= (z3 << 62) ^ (z3 << 57); in multiply() 317 long z0 = t[0], z1 = t[1], z2 = t[2], z3 = t[3]; in square() local 319 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in square() 320 z2 ^= (z3 << 63) ^ (z3 << 62) ^ (z3 << 57); in square() 440 long z3 = (x0 * y3) ^ (x1 * y2) ^ (x2 * y1) ^ (x3 * y0); in implMul64() local [all …]
|
/external/bouncycastle/repackaged/bcprov/src/main/java/com/android/org/bouncycastle/crypto/modes/gcm/ |
D | GCMUtil.java | 119 int z0 = 0, z1 = 0, z2 = 0, z3 = 0; in multiply() local 130 z3 ^= (y3 & m1); in multiply() 143 x[3] = z3; in multiply() 195 long z3 = h3; in multiply() local 197 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in multiply() 199 z2 ^= (z3 << 62) ^ (z3 << 57); in multiply() 317 long z0 = t[0], z1 = t[1], z2 = t[2], z3 = t[3]; in square() local 319 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in square() 320 z2 ^= (z3 << 63) ^ (z3 << 62) ^ (z3 << 57); in square() 440 long z3 = (x0 * y3) ^ (x1 * y2) ^ (x2 * y1) ^ (x3 * y0); in implMul64() local [all …]
|
/external/llvm-project/llvm/test/MC/AArch64/SVE2/ |
D | tbl-diagnostics.s | 3 tbl z0.b, { z1.b, z2.b }, z3.h 17 tbl z0.d, { z1.d, z2.d, z3.d }, z4.d 22 tbl z0.d, { z1.d, z2.b }, z3.d 27 tbl z0.d, { z1.d, z21.d }, z3.d
|
/external/libjpeg-turbo/simd/arm/ |
D | jidctred-neon.c | 265 int16x4_t z3 = vmul_s16(vget_high_s16(row6), quant_row6); in jsimd_idct_4x4_neon() local 268 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[0], 1); in jsimd_idct_4x4_neon() 276 z3 = vmul_s16(vget_high_s16(row3), quant_row3); in jsimd_idct_4x4_neon() 281 tmp0 = vmlal_lane_s16(tmp0, z3, consts.val[1], 0); in jsimd_idct_4x4_neon() 286 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[2], 0); in jsimd_idct_4x4_neon() 318 int16x4_t z3 = vmul_s16(vget_low_s16(row6), quant_row6); in jsimd_idct_4x4_neon() local 321 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[0], 1); in jsimd_idct_4x4_neon() 329 z3 = vmul_s16(vget_low_s16(row3), quant_row3); in jsimd_idct_4x4_neon() 334 tmp0 = vmlal_lane_s16(tmp0, z3, consts.val[1], 0); in jsimd_idct_4x4_neon() 339 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[2], 0); in jsimd_idct_4x4_neon() [all …]
|
/external/apache-commons-math/src/main/java/org/apache/commons/math/random/ |
D | Well512a.java | 96 final int z3 = z1 ^ z2; in next() local 97 …final int z4 = (z0 ^ (z0 << 2)) ^ (z1 ^ (z1 << 18)) ^ (z2 << 28) ^ (z3 ^ ((z3 << 5) & 0xda442d24)); in next() 99 v[index] = z3; in next()
|
D | Well19937a.java | 97 final int z3 = z1 ^ z2; in next() local 98 final int z4 = z0 ^ (z1 ^ (z1 << 9)) ^ (z2 ^ (z2 << 21)) ^ (z3 ^ (z3 >>> 21)); in next() 100 v[index] = z3; in next()
|