Home
last modified time | relevance | path

Searched refs:z3 (Results 1 – 25 of 281) sorted by relevance

12345678910>>...12

/external/tensorflow/tensorflow/compiler/xla/service/
Dalgebraic_simplifier_proof_distributive_property.py35 import z3
40 FLOAT_TY = z3.Float16
42 a = z3.FP("a", FLOAT_TY())
43 b = z3.FP("b", FLOAT_TY())
44 c = z3.FP("c", FLOAT_TY())
46 s = z3.Solver()
49 s.add(z3.Extract(FLOAT_TY().sbits() - 1, 0, z3.fpToIEEEBV(c)) == 0)
51 for rm in [z3.RTZ(), z3.RNE()]:
52 z3.set_default_rounding_mode(rm)
58 z3.Not(
[all …]
/external/libjpeg-turbo/
Djidctint.c179 JLONG z1, z2, z3, z4, z5; variable
233 z3 = DEQUANTIZE(inptr[DCTSIZE * 6], quantptr[DCTSIZE * 6]);
235 z1 = MULTIPLY(z2 + z3, FIX_0_541196100);
236 tmp2 = z1 + MULTIPLY(z3, -FIX_1_847759065);
240 z3 = DEQUANTIZE(inptr[DCTSIZE * 4], quantptr[DCTSIZE * 4]);
242 tmp0 = LEFT_SHIFT(z2 + z3, CONST_BITS);
243 tmp1 = LEFT_SHIFT(z2 - z3, CONST_BITS);
261 z3 = tmp0 + tmp2;
263 z5 = MULTIPLY(z3 + z4, FIX_1_175875602); /* sqrt(2) * c3 */
271 z3 = MULTIPLY(z3, -FIX_1_961570560); /* sqrt(2) * (-c3-c5) */
[all …]
Djfdctint.c147 JLONG z1, z2, z3, z4, z5; variable
192 z3 = tmp4 + tmp6;
194 z5 = MULTIPLY(z3 + z4, FIX_1_175875602); /* sqrt(2) * c3 */
202 z3 = MULTIPLY(z3, -FIX_1_961570560); /* sqrt(2) * (-c3-c5) */
205 z3 += z5;
208 dataptr[7] = (DCTELEM)DESCALE(tmp4 + z1 + z3, CONST_BITS - PASS1_BITS);
210 dataptr[3] = (DCTELEM)DESCALE(tmp6 + z2 + z3, CONST_BITS - PASS1_BITS);
259 z3 = tmp4 + tmp6;
261 z5 = MULTIPLY(z3 + z4, FIX_1_175875602); /* sqrt(2) * c3 */
269 z3 = MULTIPLY(z3, -FIX_1_961570560); /* sqrt(2) * (-c3-c5) */
[all …]
Djfdctflt.c64 FAST_FLOAT z1, z2, z3, z4, z5, z11, z13; variable
105 z3 = tmp11 * ((FAST_FLOAT)0.707106781); /* c4 */
107 z11 = tmp7 + z3; /* phase 5 */
108 z13 = tmp7 - z3;
155 z3 = tmp11 * ((FAST_FLOAT)0.707106781); /* c4 */
157 z11 = tmp7 + z3; /* phase 5 */
158 z13 = tmp7 - z3;
Djfdctfst.c121 DCTELEM z1, z2, z3, z4, z5, z11, z13; variable
163 z3 = MULTIPLY(tmp11, FIX_0_707106781); /* c4 */
165 z11 = tmp7 + z3; /* phase 5 */
166 z13 = tmp7 - z3;
213 z3 = MULTIPLY(tmp11, FIX_0_707106781); /* c4 */
215 z11 = tmp7 + z3; /* phase 5 */
216 z13 = tmp7 - z3;
/external/llvm-project/llvm/test/CodeGen/AMDGPU/GlobalISel/
Dcombine-shift-of-shifted-logic.ll12 %z3 = shl i32 %z2, 2
13 ret i32 %z3
24 %z3 = shl i32 %z2, 3
25 ret i32 %z3
37 %z3 = shl i32 %z2, 2
38 ret i32 %z3
49 %z3 = lshr i32 %z2, 2
50 ret i32 %z3
62 %z3 = lshr i32 %z2, 3
63 ret i32 %z3
[all …]
Dcombine-shift-imm-chain.ll23 %z3 = shl i32 %z2, 3
24 %z4 = shl i32 %z3, 4
36 %z3 = shl i32 %z2, 10
37 %z4 = shl i32 %z3, 10
50 %z3 = shl i64 %z2, 10
51 %z4 = shl i64 %z3, 10
77 %z3 = ashr i32 %z2, 3
78 %z4 = ashr i32 %z3, 4
90 %z3 = ashr i32 %z2, 10
91 %z4 = ashr i32 %z3, 10
[all …]
/external/llvm-project/llvm/test/MC/AArch64/SVE/
Dst4h-diagnostics.s35 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, x0]
40 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, xzr]
45 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, x0, lsl #2]
50 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, w0]
55 st4h { z0.h, z1.h, z2.h, z3.h }, p0, [x0, w0, uxtw]
64 st4h {z2.h, z3.h, z4.h, z5.h}, p8, [x15, #10, MUL VL]
69 st4h {z2.h, z3.h, z4.h, z5.h}, p7.b, [x15, #10, MUL VL]
74 st4h {z2.h, z3.h, z4.h, z5.h}, p7.q, [x15, #10, MUL VL]
88 st4h { z0.h, z1.h, z2.h, z3.h, z4.h }, p0, [x0]
93 st4h { z0.h, z1.h, z2.h, z3.s }, p0, [x0]
[all …]
Dst4w-diagnostics.s35 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, x0]
40 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, xzr]
45 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, x0, lsl #3]
50 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, w0]
55 st4w { z0.s, z1.s, z2.s, z3.s }, p0, [x0, w0, uxtw]
64 st4w {z2.s, z3.s, z4.s, z5.s}, p8, [x15, #10, MUL VL]
69 st4w {z2.s, z3.s, z4.s, z5.s}, p7.b, [x15, #10, MUL VL]
74 st4w {z2.s, z3.s, z4.s, z5.s}, p7.q, [x15, #10, MUL VL]
88 st4w { z0.s, z1.s, z2.s, z3.s, z4.s }, p0, [x0]
93 st4w { z0.s, z1.s, z2.s, z3.d }, p0, [x0]
[all …]
Dst4d-diagnostics.s35 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, x0]
40 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, xzr]
45 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, x0, lsl #2]
50 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, w0]
55 st4d { z0.d, z1.d, z2.d, z3.d }, p0, [x0, w0, uxtw]
64 st4d {z2.d, z3.d, z4.d, z5.d}, p8, [x15, #10, MUL VL]
69 st4d {z2.d, z3.d, z4.d, z5.d}, p7.b, [x15, #10, MUL VL]
74 st4d {z2.d, z3.d, z4.d, z5.d}, p7.q, [x15, #10, MUL VL]
88 st4d { z0.d, z1.d, z2.d, z3.d, z4.d }, p0, [x0]
93 st4d { z0.d, z1.d, z2.d, z3.b }, p0, [x0]
[all …]
Dst4b-diagnostics.s35 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, xzr]
40 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, x0, lsl #1]
45 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, w0]
50 st4b { z0.b, z1.b, z2.b, z3.b }, p0, [x0, w0, uxtw]
59 st4b {z2.b, z3.b, z4.b, z5.b}, p8, [x15, #10, MUL VL]
64 st4b {z2.b, z3.b, z4.b, z5.b}, p7.b, [x15, #10, MUL VL]
69 st4b {z2.b, z3.b, z4.b, z5.b}, p7.q, [x15, #10, MUL VL]
83 st4b { z0.b, z1.b, z2.b, z3.b, z4.b }, p0, [x0]
88 st4b { z0.b, z1.b, z2.b, z3.h }, p0, [x0]
93 st4b { z0.b, z1.b, z3.b, z5.b }, p0, [x0]
Dld4d-diagnostics.s35 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, x0]
40 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, xzr]
45 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, x0, lsl #2]
50 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, w0]
55 ld4d { z0.d, z1.d, z2.d, z3.d }, p0/z, [x0, w0, uxtw]
64 ld4d {z2.d, z3.d, z4.d, z5.d}, p8/z, [x15, #10, MUL VL]
78 ld4d { z0.d, z1.d, z2.d, z3.d, z4.d }, p0/z, [x0]
83 ld4d { z0.d, z1.d, z2.d, z3.b }, p0/z, [x0]
88 ld4d { z0.d, z1.d, z3.d, z5.d }, p0/z, [x0]
Dld4w-diagnostics.s35 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, x0]
40 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, xzr]
45 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, x0, lsl #3]
50 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, w0]
55 ld4w { z0.s, z1.s, z2.s, z3.s }, p0/z, [x0, w0, uxtw]
64 ld4w {z2.s, z3.s, z4.s, z5.s}, p8/z, [x15, #10, MUL VL]
78 ld4w { z0.s, z1.s, z2.s, z3.s, z4.s }, p0/z, [x0]
83 ld4w { z0.s, z1.s, z2.s, z3.d }, p0/z, [x0]
88 ld4w { z0.s, z1.s, z3.s, z5.s }, p0/z, [x0]
Dld4h-diagnostics.s35 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, x0]
40 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, xzr]
45 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, x0, lsl #2]
50 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, w0]
55 ld4h { z0.h, z1.h, z2.h, z3.h }, p0/z, [x0, w0, uxtw]
64 ld4h {z2.h, z3.h, z4.h, z5.h}, p8/z, [x15, #10, MUL VL]
78 ld4h { z0.h, z1.h, z2.h, z3.h, z4.h }, p0/z, [x0]
83 ld4h { z0.h, z1.h, z2.h, z3.s }, p0/z, [x0]
88 ld4h { z0.h, z1.h, z3.h, z5.h }, p0/z, [x0]
Dld4b-diagnostics.s35 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, xzr]
40 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, x0, lsl #1]
45 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, w0]
50 ld4b { z0.b, z1.b, z2.b, z3.b }, p0/z, [x0, w0, uxtw]
59 ld4b {z2.b, z3.b, z4.b, z5.b}, p8/z, [x15, #10, MUL VL]
73 ld4b { z0.b, z1.b, z2.b, z3.b, z4.b }, p0/z, [x0]
78 ld4b { z0.b, z1.b, z2.b, z3.h }, p0/z, [x0]
83 ld4b { z0.b, z1.b, z3.b, z5.b }, p0/z, [x0]
/external/llvm-project/llvm/test/CodeGen/AArch64/
Dsve-copy-zprpair.mir40 ; CHECK: $z3 = ORR_ZZZ $z2, $z2
45 ; CHECK: $z2 = ORR_ZZZ $z3, $z3
65 ; CHECK: $z4 = ORR_ZZZ $z3, $z3
66 ; CHECK: $z3 = ORR_ZZZ $z2, $z2
71 ; CHECK: $z2 = ORR_ZZZ $z3, $z3
72 ; CHECK: $z3 = ORR_ZZZ $z4, $z4
Dsve-calling-convention-tuple-types.ll20 …x i8> %dummy_z0, <vscale x 16 x i8> %z1, <vscale x 16 x i8> %dummy_z2, <vscale x 16 x i8> %z3) #0 {
23 ; CHECK-NEXT: mov z1.d, z3.d
25 …i8> @llvm.aarch64.sve.tuple.create2.nxv32i8.nxv16i8(<vscale x 16 x i8> %z1, <vscale x 16 x i8> %z3)
43 … i16> %dummy_z0, <vscale x 8 x i16> %z1, <vscale x 8 x i16> %dummy_z2, <vscale x 8 x i16> %z3) #0 {
46 ; CHECK-NEXT: mov z1.d, z3.d
48 …6> @llvm.aarch64.sve.tuple.create2.nxv16i16.nxv8i16(<vscale x 8 x i16> %z1, <vscale x 8 x i16> %z3)
66 … i32> %dummy_z0, <vscale x 4 x i32> %z1, <vscale x 4 x i32> %dummy_z2, <vscale x 4 x i32> %z3) #0 {
69 ; CHECK-NEXT: mov z1.d, z3.d
71 …32> @llvm.aarch64.sve.tuple.create2.nxv8i32.nxv4i32(<vscale x 4 x i32> %z1, <vscale x 4 x i32> %z3)
89 … i64> %dummy_z0, <vscale x 2 x i64> %z1, <vscale x 2 x i64> %dummy_z2, <vscale x 2 x i64> %z3) #0 {
[all …]
Dsve-breakdown-scalable-vectortype.ll115 ; CHECK-NEXT: mov z2.d, z3.d
129 ; CHECK-NEXT: mov z2.d, z3.d
143 ; CHECK-NEXT: mov z2.d, z3.d
157 ; CHECK-NEXT: mov z2.d, z3.d
171 ; CHECK-NEXT: mov z2.d, z3.d
185 ; CHECK-NEXT: mov z2.d, z3.d
199 ; CHECK-NEXT: mov z2.d, z3.d
217 ; CHECK-NEXT: mov z2.d, z3.d
218 ; CHECK-NEXT: mov z3.d, z4.d
232 ; CHECK-NEXT: mov z2.d, z3.d
[all …]
/external/bouncycastle/bcprov/src/main/java/org/bouncycastle/crypto/modes/gcm/
DGCMUtil.java115 int z0 = 0, z1 = 0, z2 = 0, z3 = 0; in multiply() local
126 z3 ^= (y3 & m1); in multiply()
139 x[3] = z3; in multiply()
191 long z3 = h3; in multiply() local
193 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in multiply()
195 z2 ^= (z3 << 62) ^ (z3 << 57); in multiply()
313 long z0 = t[0], z1 = t[1], z2 = t[2], z3 = t[3]; in square() local
315 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in square()
316 z2 ^= (z3 << 63) ^ (z3 << 62) ^ (z3 << 57); in square()
436 long z3 = (x0 * y3) ^ (x1 * y2) ^ (x2 * y1) ^ (x3 * y0); in implMul64() local
[all …]
/external/bouncycastle/repackaged_platform/bcprov/src/main/java/com/android/internal/org/bouncycastle/crypto/modes/gcm/
DGCMUtil.java119 int z0 = 0, z1 = 0, z2 = 0, z3 = 0; in multiply() local
130 z3 ^= (y3 & m1); in multiply()
143 x[3] = z3; in multiply()
195 long z3 = h3; in multiply() local
197 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in multiply()
199 z2 ^= (z3 << 62) ^ (z3 << 57); in multiply()
317 long z0 = t[0], z1 = t[1], z2 = t[2], z3 = t[3]; in square() local
319 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in square()
320 z2 ^= (z3 << 63) ^ (z3 << 62) ^ (z3 << 57); in square()
440 long z3 = (x0 * y3) ^ (x1 * y2) ^ (x2 * y1) ^ (x3 * y0); in implMul64() local
[all …]
/external/bouncycastle/repackaged/bcprov/src/main/java/com/android/org/bouncycastle/crypto/modes/gcm/
DGCMUtil.java119 int z0 = 0, z1 = 0, z2 = 0, z3 = 0; in multiply() local
130 z3 ^= (y3 & m1); in multiply()
143 x[3] = z3; in multiply()
195 long z3 = h3; in multiply() local
197 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in multiply()
199 z2 ^= (z3 << 62) ^ (z3 << 57); in multiply()
317 long z0 = t[0], z1 = t[1], z2 = t[2], z3 = t[3]; in square() local
319 z1 ^= z3 ^ (z3 >>> 1) ^ (z3 >>> 2) ^ (z3 >>> 7); in square()
320 z2 ^= (z3 << 63) ^ (z3 << 62) ^ (z3 << 57); in square()
440 long z3 = (x0 * y3) ^ (x1 * y2) ^ (x2 * y1) ^ (x3 * y0); in implMul64() local
[all …]
/external/llvm-project/llvm/test/MC/AArch64/SVE2/
Dtbl-diagnostics.s3 tbl z0.b, { z1.b, z2.b }, z3.h
17 tbl z0.d, { z1.d, z2.d, z3.d }, z4.d
22 tbl z0.d, { z1.d, z2.b }, z3.d
27 tbl z0.d, { z1.d, z21.d }, z3.d
/external/libjpeg-turbo/simd/arm/
Djidctred-neon.c265 int16x4_t z3 = vmul_s16(vget_high_s16(row6), quant_row6); in jsimd_idct_4x4_neon() local
268 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[0], 1); in jsimd_idct_4x4_neon()
276 z3 = vmul_s16(vget_high_s16(row3), quant_row3); in jsimd_idct_4x4_neon()
281 tmp0 = vmlal_lane_s16(tmp0, z3, consts.val[1], 0); in jsimd_idct_4x4_neon()
286 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[2], 0); in jsimd_idct_4x4_neon()
318 int16x4_t z3 = vmul_s16(vget_low_s16(row6), quant_row6); in jsimd_idct_4x4_neon() local
321 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[0], 1); in jsimd_idct_4x4_neon()
329 z3 = vmul_s16(vget_low_s16(row3), quant_row3); in jsimd_idct_4x4_neon()
334 tmp0 = vmlal_lane_s16(tmp0, z3, consts.val[1], 0); in jsimd_idct_4x4_neon()
339 tmp2 = vmlal_lane_s16(tmp2, z3, consts.val[2], 0); in jsimd_idct_4x4_neon()
[all …]
/external/apache-commons-math/src/main/java/org/apache/commons/math/random/
DWell512a.java96 final int z3 = z1 ^ z2; in next() local
97 …final int z4 = (z0 ^ (z0 << 2)) ^ (z1 ^ (z1 << 18)) ^ (z2 << 28) ^ (z3 ^ ((z3 << 5) & 0xda442d24)); in next()
99 v[index] = z3; in next()
DWell19937a.java97 final int z3 = z1 ^ z2; in next() local
98 final int z4 = z0 ^ (z1 ^ (z1 << 9)) ^ (z2 ^ (z2 << 21)) ^ (z3 ^ (z3 >>> 21)); in next()
100 v[index] = z3; in next()

12345678910>>...12