HomeSort by relevance Sort by last modified time
    Searched refs:q10 (Results 1 - 25 of 132) sorted by null

1 2 3 4 5 6

  /system/core/libpixelflinger/
col32cb16blend_neon.S 72 // q10 = dst blue0
78 vshr.u16 q8, q10, #11 // shift dst red0 to low 5 bits
80 vshl.u16 q9, q10, #5 // shift dst green0 to top 6 bits
81 vand q10, q10, q14 // extract dst blue0
87 vmul.u16 q10, q10, q3 // multiply dst blue0 by src alpha
94 vadd.u16 q10, q10, q2 // add src blue to dst blue0
100 vshr.u16 q10, q10, #8 // shift down blue
    [all...]
  /external/boringssl/linux-arm/crypto/modes/
ghashv8-armx32.S 16 vshr.u64 q10,q11,#63
18 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
19 vshr.u64 q10,q3,#63
21 vand q10,q10,q8
23 vext.8 q10,q10,q10,#8
25 vorr q3,q3,q10 @ H<<<=1
37 veor q10,q0,q
    [all...]
ghash-armv4.S 398 vmull.p8 q10, d20, d6 @ J = A3*B
408 veor q10, q10, q0 @ N = I + J
420 vext.8 q10, q10, q10, #13
422 veor q10, q10, q11
424 veor q0, q0, q10
436 vmull.p8 q10, d20, d6 @ J = A3*
    [all...]
  /external/libavc/encoder/arm/
ih264e_half_pel.s 294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
316 vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2
    [all...]
  /external/boringssl/linux-arm/crypto/aes/
aesv8-armx32.S 52 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
59 veor q10,q10,q1
62 veor q3,q3,q10
71 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
77 veor q10,q10,q1
80 veor q3,q3,q10
86 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
92 veor q10,q10,q
    [all...]
bsaes-armv7.S 94 veor q10, q0, q9 @ xor with round0 key
96 vtbl.8 d0, {q10}, d16
97 vtbl.8 d1, {q10}, d17
110 veor q10, q6, q9
114 vtbl.8 d12, {q10}, d16
115 vtbl.8 d13, {q10}, d17
120 vshr.u64 q10, q6, #1
122 veor q10, q10, q7
124 vand q10, q10, q
    [all...]
  /external/libmpeg2/common/arm/
icv_variance_a9.s 89 vmull.u8 q10, d0, d0
94 vaddl.u16 q10, d20, d21
99 vadd.u32 q10, q10, q11
101 vadd.u32 q10, q10, q11
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 167 vaddl.u8 q10, d4, d6
170 vmla.u16 q9, q10, q14
172 vaddl.u8 q10, d1, d11
174 vmla.u16 q10, q12, q14
178 vmls.u16 q10, q13, q15
183 vst1.32 {q10}, [r9]!
184 vext.16 q12, q9, q10, #2
185 vext.16 q13, q9, q10, #3
187 vext.16 q11, q9, q10, #5
189 vext.16 q12, q9, q10, #
    [all...]
ih264_inter_pred_luma_bilinear_a9q.s 139 vaddl.u8 q10, d0, d4
150 vqrshrun.s16 d28, q10, #1
152 vaddl.u8 q10, d10, d14
162 vqrshrun.s16 d30, q10, #1
166 vaddl.u8 q10, d0, d4
174 vqrshrun.s16 d28, q10, #1
180 vaddl.u8 q10, d10, d14
187 vqrshrun.s16 d30, q10, #1
198 vaddl.u8 q10, d0, d4
202 vqrshrun.s16 d28, q10, #
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0]
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0]
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2
    [all...]
ih264_inter_pred_filters_luma_vert_a9q.s 132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8]
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5)
156 vaddl.u8 q10, d6, d0
163 vmls.u16 q9, q10, q12
169 vaddl.u8 q10, d8, d2
178 vmls.u16 q7, q10, q12
185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8]
221 vaddl.u8 q10, d4, d
    [all...]
  /external/llvm/test/MC/ARM/
neon-mul-accum-encoding.s 7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
58 vmls.i8 q9, q8, q10
59 vmls.i16 q9, q8, q10
    [all...]
neon-absdiff-encoding.s 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
    [all...]
neont2-absdiff-encoding.s 57 vaba.s8 q9, q8, q10
58 vaba.s16 q9, q8, q10
59 vaba.s32 q9, q8, q10
60 vaba.u8 q9, q8, q10
61 vaba.u16 q9, q8, q10
62 vaba.u32 q9, q8, q10
70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27]
71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27]
72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27]
73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27
    [all...]
neont2-mul-accum-encoding.s 9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
62 vmls.i8 q9, q8, q10
63 vmls.i16 q9, q8, q10
    [all...]
  /external/swiftshader/third_party/LLVM/test/MC/ARM/
neon-mul-accum-encoding.s 11 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
12 vmla.i8 q9, q8, q10
13 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
14 vmla.i16 q9, q8, q10
15 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
16 vmla.i32 q9, q8, q10
17 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
18 vmla.f32 q9, q8, q10
43 @ CHECK: vmls.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf3]
44 vmls.i8 q9, q8, q10
    [all...]
neon-mul-encoding.s 7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
16 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
17 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
18 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
19 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
48 vmls.i8 q9, q8, q10
49 vmls.i16 q9, q8, q10
    [all...]
neont2-mul-accum-encoding.s 9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
18 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29]
19 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29]
20 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29]
21 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d]
50 vmls.i8 q9, q8, q10
51 vmls.i16 q9, q8, q10
    [all...]
neon-absdiff-encoding.s 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
    [all...]
neont2-absdiff-encoding.s 57 vaba.s8 q9, q8, q10
58 vaba.s16 q9, q8, q10
59 vaba.s32 q9, q8, q10
60 vaba.u8 q9, q8, q10
61 vaba.u16 q9, q8, q10
62 vaba.u32 q9, q8, q10
70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27]
71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27]
72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27]
73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingChroma_unsafe_s.S 33 VSUBL.U8 q10,d8,d4
37 VRHADD.S16 q10,q11,q10
39 VQMOVN.S16 d20,q10
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7
    [all...]
ihevc_itrans_recon_32x32.s 225 vmull.s16 q10,d10,d0[0]
226 vmlal.s16 q10,d11,d0[2]
263 vmlal.s16 q10,d12,d1[0]
264 vmlal.s16 q10,d13,d1[2]
295 vmlal.s16 q10,d10,d2[0]
296 vmlal.s16 q10,d11,d2[2]
337 vmlal.s16 q10,d12,d3[0]
338 vmlal.s16 q10,d13,d3[2]
371 vmlal.s16 q10,d10,d0[0]
372 vmlal.s16 q10,d11,d4[2
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
idct_dequant_full_2x_neon.c 21 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
91 q10 = vqaddq_s16(q2, q3);
103 q4 = vqaddq_s16(q10, q3);
106 q7 = vqsubq_s16(q10, q3);
118 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1);
124 q10 = vshrq_n_s16(q10, 1);
127 q10 = vqaddq_s16(q2tmp2.val[1], q10);
131 q9 = vqaddq_s16(q9, q10);
    [all...]
  /external/valgrind/none/tests/arm/
neon128.c 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000);
374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000);
393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000);
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24);
403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24)
    [all...]

Completed in 3154 milliseconds

1 2 3 4 5 6