HomeSort by relevance Sort by last modified time
    Searched refs:q10 (Results 1 - 25 of 155) sorted by null

1 2 3 4 5 6 7

  /system/core/libpixelflinger/
col32cb16blend_neon.S 72 // q10 = dst blue0
78 vshr.u16 q8, q10, #11 // shift dst red0 to low 5 bits
80 vshl.u16 q9, q10, #5 // shift dst green0 to top 6 bits
81 vand q10, q10, q14 // extract dst blue0
87 vmul.u16 q10, q10, q3 // multiply dst blue0 by src alpha
94 vadd.u16 q10, q10, q2 // add src blue to dst blue0
100 vshr.u16 q10, q10, #8 // shift down blue
    [all...]
  /external/boringssl/linux-arm/crypto/modes/
ghashv8-armx32.S 15 vshr.u64 q10,q11,#63
17 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
18 vshr.u64 q10,q3,#63
20 vand q10,q10,q8
22 vext.8 q10,q10,q10,#8
24 vorr q3,q3,q10 @ H<<<=1
36 veor q10,q0,q
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
variance_neon.asm 30 vmov.i8 q9, #0 ;q9, q10 - sse
31 vmov.i8 q10, #0
51 vmlal.s16 q10, d23, d23
57 vmlal.s16 q10, d25, d25
60 vmlal.s16 q10, d27, d27
63 vmlal.s16 q10, d29, d29
67 vadd.u32 q10, q9, q10 ;accumulate sse
72 vpaddl.u32 q1, q10
103 vmov.i8 q9, #0 ;q9, q10 - ss
    [all...]
vp8_subpixelvariance16x16s_neon.asm 38 vmov.i8 q9, #0 ;q9, q10 - sse
39 vmov.i8 q10, #0
77 vmlal.s16 q10, d9, d9
83 vmlal.s16 q10, d11, d11
86 vmlal.s16 q10, d13, d13
89 vmlal.s16 q10, d15, d15
93 vmlal.s16 q10, d1, d1
96 vmlal.s16 q10, d3, d3
99 vmlal.s16 q10, d5, d5
102 vmlal.s16 q10, d7, d
    [all...]
  /external/libavc/encoder/arm/
ih264e_half_pel.s 294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0)
296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0)
297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0)
298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
316 vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2)
334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2)
335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2)
336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2
    [all...]
  /external/boringssl/linux-arm/crypto/aes/
aesv8-armx32.S 51 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
58 veor q10,q10,q1
61 veor q3,q3,q10
70 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
76 veor q10,q10,q1
79 veor q3,q3,q10
85 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0
91 veor q10,q10,q
    [all...]
bsaes-armv7.S 94 veor q10, q0, q9 @ xor with round0 key
96 vtbl.8 d0, {q10}, d16
97 vtbl.8 d1, {q10}, d17
110 veor q10, q6, q9
114 vtbl.8 d12, {q10}, d16
115 vtbl.8 d13, {q10}, d17
120 vshr.u64 q10, q6, #1
122 veor q10, q10, q7
124 vand q10, q10, q
    [all...]
  /external/libmpeg2/common/arm/
icv_variance_a9.s 89 vmull.u8 q10, d0, d0
94 vaddl.u16 q10, d20, d21
99 vadd.u32 q10, q10, q11
101 vadd.u32 q10, q10, q11
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 167 vaddl.u8 q10, d4, d6
170 vmla.u16 q9, q10, q14
172 vaddl.u8 q10, d1, d11
174 vmla.u16 q10, q12, q14
178 vmls.u16 q10, q13, q15
183 vst1.32 {q10}, [r9]!
184 vext.16 q12, q9, q10, #2
185 vext.16 q13, q9, q10, #3
187 vext.16 q11, q9, q10, #5
189 vext.16 q12, q9, q10, #
    [all...]
ih264_inter_pred_luma_bilinear_a9q.s 139 vaddl.u8 q10, d0, d4
150 vqrshrun.s16 d28, q10, #1
152 vaddl.u8 q10, d10, d14
162 vqrshrun.s16 d30, q10, #1
166 vaddl.u8 q10, d0, d4
174 vqrshrun.s16 d28, q10, #1
180 vaddl.u8 q10, d10, d14
187 vqrshrun.s16 d30, q10, #1
198 vaddl.u8 q10, d0, d4
202 vqrshrun.s16 d28, q10, #
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0]
148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0]
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0]
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1)
169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1)
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2
    [all...]
ih264_inter_pred_filters_luma_vert_a9q.s 132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8]
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5
150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5)
156 vaddl.u8 q10, d6, d0
163 vmls.u16 q9, q10, q12
169 vaddl.u8 q10, d8, d2
178 vmls.u16 q7, q10, q12
185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8]
221 vaddl.u8 q10, d4, d
    [all...]
  /external/llvm/test/MC/ARM/
neon-mul-accum-encoding.s 7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2]
18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2]
19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2]
20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2]
58 vmls.i8 q9, q8, q10
59 vmls.i16 q9, q8, q10
    [all...]
neon-absdiff-encoding.s 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2]
58 vaba.s8 q9, q8, q10
59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2]
60 vaba.s16 q9, q8, q10
61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2]
62 vaba.s32 q9, q8, q10
63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3]
64 vaba.u8 q9, q8, q10
65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3]
66 vaba.u16 q9, q8, q10
    [all...]
neont2-absdiff-encoding.s 57 vaba.s8 q9, q8, q10
58 vaba.s16 q9, q8, q10
59 vaba.s32 q9, q8, q10
60 vaba.u8 q9, q8, q10
61 vaba.u16 q9, q8, q10
62 vaba.u32 q9, q8, q10
70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27]
71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27]
72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27]
73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingChroma_unsafe_s.S 33 VSUBL.U8 q10,d8,d4
37 VRHADD.S16 q10,q11,q10
39 VQMOVN.S16 d20,q10
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
267 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct)
315 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7
    [all...]
ihevc_itrans_recon_32x32.s 225 vmull.s16 q10,d10,d0[0]
226 vmlal.s16 q10,d11,d0[2]
263 vmlal.s16 q10,d12,d1[0]
264 vmlal.s16 q10,d13,d1[2]
295 vmlal.s16 q10,d10,d2[0]
296 vmlal.s16 q10,d11,d2[2]
337 vmlal.s16 q10,d12,d3[0]
338 vmlal.s16 q10,d13,d3[2]
371 vmlal.s16 q10,d10,d0[0]
372 vmlal.s16 q10,d11,d4[2
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_16_neon.c 28 uint8x16_t q10, // q3
44 q4 = vabdq_u8(q10, q9);
65 q10 = vdupq_n_u8(0x80);
66 q8 = veorq_u8(q8, q10);
67 q7 = veorq_u8(q7, q10);
68 q6 = veorq_u8(q6, q10);
69 q5 = veorq_u8(q5, q10);
120 *q8r = veorq_u8(vreinterpretq_u8_s8(q12s8), q10);
121 *q7r = veorq_u8(vreinterpretq_u8_s8(q0s8), q10);
122 *q6r = veorq_u8(vreinterpretq_u8_s8(q11s8), q10);
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 30 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse
33 vmov.i8 q10, #0
54 vmlal.s16 q10, d25, d25
58 vmlal.s16 q10, d29, d29
63 vadd.u32 q9, q9, q10
67 vadd.u32 q10, q7, q9
68 vpaddl.u32 q1, q10
102 vmull.s16 q10, d28, d28
105 vadd.u32 q9, q9, q10
fastquantizeb_neon.asm 57 vabs.s16 q10, q0 ; calculate x2 = abs(z_2)
66 vadd.s16 q10, q6 ; x2 + Round
71 vqdmulh.s16 q10, q8 ; y2 = ((Round+abs(z)) * Quant) >> 16
82 vshr.s16 q10, #1 ; right shift 1 after vqdmulh
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
124 vtst.16 q2, q10, q8 ; now find eob
129 vand q10, q6, q2 ; get all valid numbers from scan arra
    [all...]
shortfdct_neon.asm 40 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500
62 vmlal.s16 q10, d7, d17 ; d1*2217 + 7500
64 vmlsl.s16 q10, d6, d16 ; d1*2217 - c1*5352 + 7500
67 vshrn.s32 d3, q10, #12 ; op[3] = (d1*2217 - c1*5352 + 7500)>>12
121 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500
144 vmov.s16 q12, q10 ; 7500
147 vmlal.s16 q10, d28, d17 ; A[3] = d1*2217 + 7500
152 vmlsl.s16 q10, d26, d16 ; A[3] = d1*2217 - c1*5352 + 750
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
idct_dequant_full_2x_neon.c 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
94 q10 = vqaddq_s16(q2, q3);
106 q4 = vqaddq_s16(q10, q3);
109 q7 = vqsubq_s16(q10, q3);
121 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1);
127 q10 = vshrq_n_s16(q10, 1);
130 q10 = vqaddq_s16(q2tmp2.val[1], q10);
134 q9 = vqaddq_s16(q9, q10);
    [all...]
  /ndk/tests/build/b14825026-aarch64-FP_LO_REGS/jni/
idct_dequant_full_2x_neon.c 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
94 q10 = vqaddq_s16(q2, q3);
106 q4 = vqaddq_s16(q10, q3);
109 q7 = vqsubq_s16(q10, q3);
121 q10 = vqdmulhq_n_s16(q2tmp2.val[1], cospi8sqrt2minus1);
127 q10 = vshrq_n_s16(q10, 1);
130 q10 = vqaddq_s16(q2tmp2.val[1], q10);
134 q9 = vqaddq_s16(q9, q10);
    [all...]
  /external/valgrind/none/tests/arm/
neon128.c 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000);
374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000);
393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000);
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24);
403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24)
    [all...]

Completed in 1777 milliseconds

1 2 3 4 5 6 7