HomeSort by relevance Sort by last modified time
    Searched refs:q14 (Results 1 - 25 of 121) sorted by null

1 2 3 4 5

  /toolchain/binutils/binutils-2.27/gas/testsuite/gas/arm/
armv8-2-fp16-simd.d 13 4: f3384d6c vabd.f16 q2, q4, q14
15 c: f2184f6c vmax.f16 q2, q4, q14
17 14: f2384f6c vmin.f16 q2, q4, q14
18 18: f3300dec vabd.f16 q0, q8, q14
19 1c: f2100fec vmax.f16 q0, q8, q14
20 20: f2300fec vmin.f16 q0, q8, q14
32 50: f3184e7c vacge.f16 q2, q4, q14
34 58: f3384e7c vacgt.f16 q2, q4, q14
36 60: f33c4ed8 vacgt.f16 q2, q14, q4
38 68: f31c4ed8 vacge.f16 q2, q14, q
    [all...]
armv8-2-fp16-simd-thumb.d 13 4: ff38 4d6c vabd.f16 q2, q4, q14
15 c: ef18 4f6c vmax.f16 q2, q4, q14
17 14: ef38 4f6c vmin.f16 q2, q4, q14
18 18: ff30 0dec vabd.f16 q0, q8, q14
19 1c: ef10 0fec vmax.f16 q0, q8, q14
20 20: ef30 0fec vmin.f16 q0, q8, q14
32 50: ff18 4e7c vacge.f16 q2, q4, q14
34 58: ff38 4e7c vacgt.f16 q2, q4, q14
36 60: ff3c 4ed8 vacgt.f16 q2, q14, q4
38 68: ff1c 4ed8 vacge.f16 q2, q14, q
    [all...]
armv8-2-fp16-simd-warning.l 3 [^:]*:163: Error: selected processor does not support fp16 instruction -- `vabd.f16 q2,q4,q14'
5 [^:]*:163: Error: selected processor does not support fp16 instruction -- `vmax.f16 q2,q4,q14'
7 [^:]*:163: Error: selected processor does not support fp16 instruction -- `vmin.f16 q2,q4,q14'
8 [^:]*:164: Error: selected processor does not support fp16 instruction -- `vabdq.f16 q0,q8,q14'
9 [^:]*:164: Error: selected processor does not support fp16 instruction -- `vmaxq.f16 q0,q8,q14'
10 [^:]*:164: Error: selected processor does not support fp16 instruction -- `vminq.f16 q0,q8,q14'
22 [^:]*:175: Error: selected processor does not support fp16 instruction -- `vacge.f16 q2,q4,q14'
24 [^:]*:175: Error: selected processor does not support fp16 instruction -- `vacgt.f16 q2,q4,q14'
26 [^:]*:175: Error: selected processor does not support fp16 instruction -- `vaclt.f16 q2,q4,q14'
28 [^:]*:175: Error: selected processor does not support fp16 instruction -- `vacle.f16 q2,q4,q14'
    [all...]
  /external/capstone/suite/MC/ARM/
neon-shuffle-encoding.s.cs 47 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
48 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
49 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
50 0xcc,0xc0,0xf2,0xf3 = vtrn.8 q14, q6
51 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
52 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
53 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
54 0xcc,0xc0,0xf6,0xf3 = vtrn.16 q14, q6
55 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q6
56 0xcc,0xc0,0xfa,0xf3 = vtrn.32 q14, q
    [all...]
  /external/llvm/test/MC/ARM/
neon-shuffle-encoding.s 95 vtrn.8 q14, q6
96 vtrn.i8 q14, q6
97 vtrn.u8 q14, q6
98 vtrn.p8 q14, q6
99 vtrn.16 q14, q6
100 vtrn.i16 q14, q6
101 vtrn.u16 q14, q6
102 vtrn.p16 q14, q6
103 vtrn.32 q14, q6
104 vtrn.i32 q14, q
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blur.S 89 vmovl.u8 q14, d30
103 vmull.u16 q14, d30, d0[0]
131 vmlal.u16 q14, d22, \dreg
158 vmlal.u16 q14, d22, \dreg
238 vqrshrn.u32 d22, q14, #16 - FRACTION_BITS
267 * q14-q15 -- intermediate sums
271 vmull.u16 q14, d18, d0[0]
285 108: vmlal.u16 q14, d16, d2[0]
287 vmlal.u16 q14, d20, d2[0]
291 vmlal.u16 q14, d24, d1[3
    [all...]
rsCpuIntrinsics_neon_Blend.S 88 vmull.u8 q14, d15, d5
98 vrshrn.u16 d13, q14, #8
107 vaddw.u8 q14, d13
116 vrshrn.u16 d5, q14, #8
134 vmull.u8 q14, d15, d21
144 vrshrn.u16 d13, q14, #8
153 vaddw.u8 q14, d13
162 vrshrn.u16 d21, q14, #8
178 vmull.u8 q14, d7, d21
188 vrshrn.u16 d13, q14, #
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 202 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
210 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
242 vmlal.s16 q14,d14,d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
253 vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of r2,r5)
264 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
265 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
267 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
277 vqrshrn.s32 d6,q14,#shift_stage1_idct @// r1 = (a1 + b1 + rnd) >> 7(shift_stage1_idct)
310 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
315 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2
    [all...]
ihevc_itrans_recon_32x32.s 219 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2)
224 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
259 vmlal.s16 q14,d14,d6[1]
265 vmlsl.s16 q14,d15,d7[1]
289 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2)
294 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
333 vmlsl.s16 q14,d14,d0[1]
339 vmlsl.s16 q14,d15,d2[3]
365 vmlsl.s16 q14,d8,d5[1] @// y1 * sin3(part of b2)
370 vmlsl.s16 q14,d9,d7[3] @// y1 * sin3 - y3 * cos1(part of b2
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 201 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
203 vmlal.s16 q14,d2,d13
205 vmlal.s16 q14,d3,d14
207 vmlal.s16 q14,d4,d15
220 vqshrn.s32 d28,q14,#6 @right shift
234 vqrshrun.s16 d28,q14,#6 @rounding shift
250 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
251 vmlal.s16 q14,d2,d13
252 vmlal.s16 q14,d3,d14
253 vmlal.s16 q14,d4,d1
    [all...]
ihevc_intra_pred_chroma_planar.s 193 vmull.u8 q14,d5,d0
195 vmlal.u8 q14,d6,d11
199 vmlal.u8 q14,d31,d4
201 vmlal.u8 q14,d9,d1
209 vadd.i16 q14,q14,q8
211 vshl.s16 q14,q14,q7
224 vmovn.i16 d13,q14
261 vmull.u8 q14,d18,d
    [all...]
ihevc_itrans_recon_16x16.s 245 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
250 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
272 vmlsl.s16 q14,d8,d1[3]
278 vmlsl.s16 q14,d9,d0[3]
320 vmlsl.s16 q14,d6,d3[1] @// y1 * sin3(part of b2)
325 vmlal.s16 q14,d7,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
332 vmlal.s16 q14,d8,d0[1]
338 vmlal.s16 q14,d9,d2[3]
377 vadd.s32 q7,q8,q14
378 vsub.s32 q13,q8,q14
    [all...]
ihevc_inter_pred_chroma_vert.s 246 vmull.u8 q14,d6,d1 @mul_res 2
248 vmlsl.u8 q14,d5,d0
250 vmlal.u8 q14,d7,d2
252 vmlsl.u8 q14,d8,d3
263 vqrshrun.s16 d28,q14,#6
297 vmull.u8 q14,d6,d1 @mul_res 2
299 vmlsl.u8 q14,d5,d0
302 vmlal.u8 q14,d7,d2
307 vmlsl.u8 q14,d8,d3
326 vqrshrun.s16 d28,q14,#
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 200 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
203 vmlal.s16 q14,d2,d13
204 vmlal.s16 q14,d3,d14
206 vmlal.s16 q14,d4,d15
218 vqshrn.s32 d28,q14,#6 @right shift
246 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
247 vmlal.s16 q14,d2,d13
248 vmlal.s16 q14,d3,d14
249 vmlal.s16 q14,d4,d15
266 vqshrn.s32 d28,q14,#6 @right shif
    [all...]
ihevc_inter_pred_chroma_vert_w16out.s 245 vmull.u8 q14,d6,d1 @mul_res 2
247 vmlsl.u8 q14,d5,d0
249 vmlal.u8 q14,d7,d2
251 vmlsl.u8 q14,d8,d3
274 vst1.8 {q14},[r7],r3 @stores the loaded value
291 vmull.u8 q14,d6,d1 @mul_res 2
293 vmlsl.u8 q14,d5,d0
296 vmlal.u8 q14,d7,d2
299 vmlsl.u8 q14,d8,d3
331 vst1.8 {q14},[r7],r3 @stores the loaded valu
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 152 vaddl.u8 q14, d4, d19 @ temp2 = src[0_0] + src[5_0]
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
161 @Q12,Q13,Q14 HAVE VERTICAL FILTERED VALUES
175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2)
182 vext.16 q11, q13, q14, #2 @//extract a[2] (column2)
187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2)
188 vext.16 q11, q13, q14, #1 @//extract a[1] (column2)
191 vext.16 q10, q13, q14, #4 @//extract a[4] (column2)
211 vaddl.u8 q14, d7, d4 @ temp2 = src[0_0] + src[5_0
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 145 vmov.u16 q14, #0x14 @ Filter coeff 20 into Q13
170 vmla.u16 q9, q10, q14
174 vmla.u16 q10, q12, q14
180 vmla.u16 q11, q12, q14
247 vmla.u16 q9, q10, q14
251 vmla.u16 q10, q12, q14
257 vmla.u16 q11, q12, q14
341 vaddl.u8 q14, d2, d0
345 vmla.u16 q14, q8, q13
350 vmls.u16 q14, q9, q1
    [all...]
ih264_intra_pred_luma_16x16_a9q.s 479 vshl.s16 q14, q2, #3
484 vsub.s16 q15, q15, q14
486 vadd.s16 q14, q15, q3
489 vadd.s16 q13, q14, q0
490 vadd.s16 q14, q14, q1
492 vqrshrun.s16 d21, q14, #5
497 vadd.s16 q14, q14, q3
500 vqrshrun.s16 d23, q14, #
    [all...]
  /external/libavc/encoder/arm/
ih264e_evaluate_intra4x4_modes_a9q.s 157 vabdl.u8 q14, d4, d20
158 vabal.u8 q14, d4, d21
182 vabdl.u8 q14, d6, d20
184 vabal.u8 q14, d7, d21
219 vabdl.u8 q14, d8, d20
220 vabal.u8 q14, d9, d21
263 vext.32 q14, q13, q13, #3
267 vabdl.u8 q14, d14, d20
269 vabal.u8 q14, d15, d21
292 vext.32 q14, q13, q13, #
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_8_neon.asm 367 vaddl.u8 q14, d6, d7 ; r_op2 = p0 + q0
368 vmlal.u8 q14, d3, d27 ; r_op2 += p3 * 3
369 vmlal.u8 q14, d4, d23 ; r_op2 += p2 * 2
373 vaddw.u8 q14, d5 ; r_op2 += p1
377 vqrshrn.u16 d30, q14, #3 ; r_op2
379 vsubw.u8 q14, d3 ; r_op1 = r_op2 - p3
380 vsubw.u8 q14, d4 ; r_op1 -= p2
381 vaddw.u8 q14, d5 ; r_op1 += p1
382 vaddw.u8 q14, d16 ; r_op1 += q1
386 vqrshrn.u16 d31, q14, #3 ; r_op
    [all...]
  /external/libxaac/decoder/armv7/
ixheaacd_imdct_using_fft.s 226 VADD.I32 q7, q14, q12
230 VSUB.I32 q3, q14, q12
234 VADD.I32 q14, q15, q13
257 VADD.S32 q7, q14, q10
258 VSUB.S32 q15, q14, q10
260 VADD.S32 q14, q3, q12
265 VADD.S32 q1 , q14, q12
266 VSUB.S32 q13, q14, q12
270 VADD.S32 q14, q3, q10
330 VMULL.u16 q14, d2, d2
    [all...]
ixheaacd_sbr_imdct_using_fft.s 230 VADD.I32 q7, q14, q12
234 VSUB.I32 q3, q14, q12
238 VADD.I32 q14, q15, q13
261 VADD.S32 q7, q14, q10
262 VSUB.S32 q15, q14, q10
264 VADD.S32 q14, q3, q12
269 VADD.S32 q1 , q14, q12
270 VSUB.S32 q13, q14, q12
274 VADD.S32 q14, q3, q10
334 VMULL.u16 q14, d2, d2
    [all...]
  /external/libmpeg2/common/arm/
impeg2_idct.s 451 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
459 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
491 vmlal.s16 q14, d14, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
502 vmlal.s16 q14, d15, d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of r2,r5)
513 vadd.s32 q12, q11, q14 @// a2 + b2(part of r2)
514 vsub.s32 q11, q11, q14 @// a2 - b2(part of r5)
516 vadd.s32 q14, q9, q13 @// a1 + b1(part of r1)
526 vqrshrn.s32 d6, q14, #idct_stg1_shift @// r1 = (a1 + b1 + rnd) >> 7(IDCT_STG1_SHIFT)
563 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
568 vmlsl.s16 q14, d7, d0[1] @// y1 * sin3 - y3 * cos1(part of b2
    [all...]
  /external/boringssl/ios-arm/crypto/fipsmodule/
bsaes-armv7.S 113 veor q14, q4, q9
117 vtbl.8 d8, {q14}, d16
118 vtbl.8 d9, {q14}, d17
259 vand q14, q11, q12
274 veor q10, q10, q14
276 veor q8, q8, q14
278 veor q9, q9, q14
280 vand q14, q7, q1
283 veor q9, q9, q14
291 vand q14, q11, q
    [all...]
  /external/boringssl/linux-arm/crypto/fipsmodule/
bsaes-armv7.S 112 veor q14, q4, q9
116 vtbl.8 d8, {q14}, d16
117 vtbl.8 d9, {q14}, d17
258 vand q14, q11, q12
273 veor q10, q10, q14
275 veor q8, q8, q14
277 veor q9, q9, q14
279 vand q14, q7, q1
282 veor q9, q9, q14
290 vand q14, q11, q
    [all...]

Completed in 363 milliseconds

1 2 3 4 5