Lines Matching refs:u8
57 vmovl.u8 q2, d26
58 vmovl.u8 q3, d27
59 vmovl.u8 q4, d28
60 vmovl.u8 q5, d29
61 vmovl.u8 q6, d30
62 vmovl.u8 q7, d31
126 vmovl.u8 q12, d0 /* R */
127 vmovl.u8 q13, d1 /* G */
128 vmovl.u8 q14, d2 /* B */
129 vmovl.u8 q15, d3 /* A */
193 vmovl.u8 q12, d0
194 vmovl.u8 q13, d1
195 vmovl.u8 q14, d2
249 vmovl.u8 q12, d0
250 vmovl.u8 q13, d1
251 vmovl.u8 q14, d2
258 vmov.u8 d1, d0
259 vmov.u8 d2, d0
305 vmovl.u8 q1, d2
449 vsubl.u8 Q5, d10, d6 @ Y to 16 bit - 16 (in 16bit) (n to n+7)
453 vsubl.u8 Q5, d12, d8 @ V to 16 bit - 128 = Q5 // V(n, n+1, n+2,n+3)
454 vsubl.u8 Q6, d14, d8 @ U to 16 bit - 128 = Q6 // U(n, n+1, n+2,n+3)
543 vsubl.u8 Q5, d10, d6 @ Y to 16 bit - 16 (in 16bit) (n to n+7)
547 vsubl.u8 Q5, d12, d8 @ V to 16 bit - 128 = Q5 // V(n, n+1, n+2,n+3)
548 vsubl.u8 Q6, d14, d8 @ U to 16 bit - 128 = Q6 // U(n, n+1, n+2,n+3)
648 vmovl.u8 q9, d24
649 vmovl.u8 q10, d25
650 vmovl.u8 q11, d26
651 vmovl.u8 q12, d27
652 vmovl.u8 q13, d28
653 vmovl.u8 q14, d29
694 vmovl.u8 q9, d24
695 vmovl.u8 q10, d25
696 vmovl.u8 q11, d26
697 vmovl.u8 q12, d27
698 vmovl.u8 q13, d28
699 vmovl.u8 q14, d29
737 vmovl.u8 q9, d24
738 vmovl.u8 q10, d25
739 vmovl.u8 q11, d26
814 vshll.u8 q12, d0, #8
815 vshll.u8 q13, d1, #8
816 vshll.u8 q14, d2, #8
817 vmovl.u8 q6, d3
819 vshll.u8 q15, d3, #8
830 vmovl.u8 q8, d0
831 vmovl.u8 q9, d1
832 vmovl.u8 q10, d2
833 vmovl.u8 q11, d3
888 vmovl.u8 q12, d0
889 vmovl.u8 q13, d1
890 vmovl.u8 q14, d2
891 vmovl.u8 q15, d3
902 vshll.u8 q8, d0, #8
903 vshll.u8 q9, d1, #8
904 vshll.u8 q10, d2, #8
905 vmovl.u8 q6, d3
907 vshll.u8 q11, d3, #8
960 vmovl.u8 q12, d0
961 vmovl.u8 q13, d1
962 vmovl.u8 q14, d2
963 vmovl.u8 q15, d3
977 vmovl.u8 q11, d3
1032 vmovl.u8 q15, d3
1043 vmovl.u8 q8, d0
1044 vmovl.u8 q9, d1
1045 vmovl.u8 q10, d2
1046 vmovl.u8 q11, d3
1103 vmovl.u8 q12, d0
1104 vmovl.u8 q13, d1
1105 vmovl.u8 q14, d2
1106 vmovl.u8 q15, d3
1120 vmovl.u8 q11, d3
1181 vmovl.u8 q15, d3
1192 vmovl.u8 q8, d0
1193 vmovl.u8 q9, d1
1194 vmovl.u8 q10, d2
1195 vmovl.u8 q11, d3
1254 vmovl.u8 q12, d0
1255 vmovl.u8 q13, d1
1256 vmovl.u8 q14, d2
1257 vmovl.u8 q15, d3
1268 vmovl.u8 q8, d0
1269 vmovl.u8 q9, d1
1270 vmovl.u8 q10, d2
1271 vmovl.u8 q11, d3
1333 vmovl.u8 q12, d0
1334 vmovl.u8 q13, d1
1335 vmovl.u8 q14, d2
1336 vmovl.u8 q15, d3
1347 vmovl.u8 q8, d0
1348 vmovl.u8 q9, d1
1349 vmovl.u8 q10, d2
1350 vmovl.u8 q11, d3
1411 vmov.u8 d4, d0
1412 vmov.u8 d5, d1
1413 vmov.u8 d6, d2
1414 vmov.u8 d7, d3
1475 vmovl.u8 q12, d0
1476 vmovl.u8 q13, d1
1477 vmovl.u8 q14, d2
1478 vmovl.u8 q15, d3
1489 vmovl.u8 q8, d0
1490 vmovl.u8 q9, d1
1491 vmovl.u8 q10, d2
1492 vmovl.u8 q11, d3
1548 vmovl.u8 q12, d0
1549 vmovl.u8 q13, d1
1550 vmovl.u8 q14, d2
1551 vmovl.u8 q15, d3
1562 vmovl.u8 q8, d0
1563 vmovl.u8 q9, d1
1564 vmovl.u8 q10, d2
1565 vmovl.u8 q11, d3
1622 vmovl.u8 q12, d0
1623 vmovl.u8 q13, d1
1624 vmovl.u8 q14, d2
1625 vmovl.u8 q15, d3
1636 vmovl.u8 q8, d0
1637 vmovl.u8 q9, d1
1638 vmovl.u8 q10, d2
1639 vmovl.u8 q11, d3
1756 vand.u8 d25, d4, d24
1757 vmovl.u8 q2, d4
1790 vmovl.u8 q8, d16
1791 vmovl.u8 q9, d18
1792 vmovl.u8 q10, d20
1793 vmovl.u8 q11, d22
1827 vmovl.u8 q8, d16
1828 vmovl.u8 q9, d18
1829 vmovl.u8 q10, d20
1830 vmovl.u8 q11, d22
1858 vbic.u8 d14, d14, d24 // mix in alpha
1859 vorr.u8 d14, d14, d25