HomeSort by relevance Sort by last modified time
    Searched refs:q15 (Results 1 - 25 of 133) sorted by null

1 2 3 4 5 6

  /toolchain/binutils/binutils-2.27/gas/testsuite/gas/arm/
armv8-a+crypto.s 7 vmull.p64 q15, d31, d31
11 aese.8 q15, q15
15 aesd.8 q15, q15
19 aesmc.8 q15, q15
23 aesimc.8 q15, q15
27 sha1c.32 q15, q15, q1
    [all...]
armv8-a+crypto.d 9 0[0-9a-f]+ <[^>]+> f2efeeaf vmull.p64 q15, d31, d31
13 0[0-9a-f]+ <[^>]+> f3f0e32e aese.8 q15, q15
17 0[0-9a-f]+ <[^>]+> f3f0e36e aesd.8 q15, q15
21 0[0-9a-f]+ <[^>]+> f3f0e3ae aesmc.8 q15, q15
25 0[0-9a-f]+ <[^>]+> f3f0e3ee aesimc.8 q15, q15
29 0[0-9a-f]+ <[^>]+> f24eecee sha1c.32 q15, q15, q1
    [all...]
armv8-a+simd.s 13 vmaxnm.f32 q15, q15, q15
21 vminnm.f32 q15, q15, q15
29 vcvtm.u32.f32 q15, q15
39 vrintp.f32 q15, q15
    [all...]
armv8-a+simd.d 15 0[0-9a-f]+ <[^>]+> f34eeffe vmaxnm.f32 q15, q15, q15
23 0[0-9a-f]+ <[^>]+> f36eeffe vminnm.f32 q15, q15, q15
31 0[0-9a-f]+ <[^>]+> f3fbe3ee vcvtm.u32.f32 q15, q15
41 0[0-9a-f]+ <[^>]+> f3fae7ee vrintp.f32 q15, q15
    [all...]
  /external/libavc/encoder/arm/
ih264e_evaluate_intra4x4_modes_a9q.s 258 vext.8 q15, q6, q6, #5
260 vext.8 q15, q6, q6, #15
262 vext.8 q15, q6, q6, #2
265 vext.8 q15, q6, q6, #4
287 vext.8 q15, q6, q6, #3
289 vext.8 q15, q6, q6, #1
291 vext.8 q15, q6, q6, #4
294 vext.8 q15, q6, q6, #6
315 vext.8 q15, q5, q5, #4
317 vext.8 q15, q5, q5, #
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 165 vaddl.s16 q15, d21, d25 @// a0 + a5 (column1)
167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1)
171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
173 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column1)
177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
179 vqrshrun.s32 d23, q15, #10
184 vaddl.s16 q15, d21, d27 @// a0 + a5 (column2)
186 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column2)
190 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column2)
193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2
    [all...]
ih264_deblk_luma_a9.s 119 vabd.u8 q15, q2, q0 @Q15 = Aq = ABS(q2 - q0)
126 vcgt.u8 q11, q8, q15 @Q11=(Aq<Beta)
129 vsubl.u8 q15, d1, d7 @
130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0)
133 vshl.i16 q13, q15, #2 @Q13 = (q0 - p0)<<2
135 vsubl.u8 q15, d9, d3 @Q15 = (p1 - q1)H
138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1)
149 vaddl.u8 q15, d17, d5
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 146 vmov.u16 q15, #0x5 @ Filter coeff 5 into Q12
176 vmls.u16 q9, q11, q15
178 vmls.u16 q10, q13, q15
181 vmls.u16 q11, q13, q15
253 vmls.u16 q9, q11, q15
255 vmls.u16 q10, q13, q15
258 vmls.u16 q11, q13, q15
346 vaddl.s16 q15, d12, d22
357 vmlal.s16 q15, d16, d26
358 vmlsl.s16 q15, d18, d2
    [all...]
  /toolchain/binutils/binutils-2.27/gas/testsuite/gas/aarch64/
ldst-reg-pair.d 62 d8: ad203fe7 stp q7, q15, \[sp,#-1024\]
63 dc: ad30bfe7 stp q7, q15, \[sp,#-496\]
64 e0: ad3fbfe7 stp q7, q15, \[sp,#-16\]
65 e4: ad003fe7 stp q7, q15, \[sp\]
66 e8: ad07bfe7 stp q7, q15, \[sp,#240\]
67 ec: ad1fbfe7 stp q7, q15, \[sp,#1008\]
68 f0: ad603fe7 ldp q7, q15, \[sp,#-1024\]
69 f4: ad70bfe7 ldp q7, q15, \[sp,#-496\]
70 f8: ad7fbfe7 ldp q7, q15, \[sp,#-16\]
71 fc: ad403fe7 ldp q7, q15, \[sp\
    [all...]
crypto.s 41 sha256h q7, q15, v31.4s
42 sha256h2 q7, q15, v31.4s
crypto-directive.d 21 2c: 5e1f41e7 sha256h q7, q15, v31.4s
22 30: 5e1f51e7 sha256h2 q7, q15, v31.4s
crypto.d 20 2c: 5e1f41e7 sha256h q7, q15, v31.4s
21 30: 5e1f51e7 sha256h2 q7, q15, v31.4s
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blur.S 81 * q12-q15 = temporary sums
91 vmovl.u8 q15, d31
105 vmull.u16 q15, d31, d0[0]
132 vmlal.u16 q15, d23, \dreg
160 vmlal.u16 q15, d23, \dreg
239 vqrshrn.u32 d23, q15, #16 - FRACTION_BITS
267 * q14-q15 -- intermediate sums
272 vmull.u16 q15, d19, d0[0]
286 vmlal.u16 q15, d17, d2[0]
288 vmlal.u16 q15, d21, d2[0
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 204 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
212 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3)
243 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3)
254 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4)
270 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
271 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
280 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
311 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
316 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3
    [all...]
ihevc_itrans_recon_32x32.s 220 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3)
225 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3)
260 vmlsl.s16 q15,d14,d7[1]
266 vmlsl.s16 q15,d15,d3[3]
290 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3)
295 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
334 vmlsl.s16 q15,d14,d6[3]
340 vmlal.s16 q15,d15,d5[3]
366 vmlal.s16 q15,d8,d2[1] @// y1 * sin1(part of b3)
371 vmlal.s16 q15,d9,d1[1] @// y1 * sin1 - y3 * sin3(part of b3
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 162 vqrshrun.s16 d30,q15,#6 @rounding shift
193 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
195 vmlal.s16 q15,d1,d13
196 vmlal.s16 q15,d2,d14
198 vmlal.s16 q15,d3,d15
210 vqshrn.s32 d30,q15,#6 @right shift
219 vqrshrun.s16 d30,q15,#6 @rounding shift
239 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
241 vmlal.s16 q15,d1,d13
243 vmlal.s16 q15,d2,d1
    [all...]
ihevc_itrans_recon_16x16.s 246 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
251 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3)
273 vmlsl.s16 q15,d8,d0[3]
279 vmlal.s16 q15,d9,d3[3]
321 vmlal.s16 q15,d6,d0[1] @// y1 * sin1(part of b3)
326 vmlal.s16 q15,d7,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
333 vmlsl.s16 q15,d8,d1[1]
339 vmlsl.s16 q15,d9,d2[1]
381 vadd.s32 q8,q9,q15
382 vsub.s32 q14,q9,q15
    [all...]
ihevc_inter_pred_chroma_vert.s 238 vmull.u8 q15,d5,d1 @mul with coeff 1
240 vmlsl.u8 q15,d4,d0
242 vmlal.u8 q15,d6,d2
243 vmlsl.u8 q15,d7,d3
253 vqrshrun.s16 d30,q15,#6
285 vmull.u8 q15,d5,d1 @mul with coeff 1
287 vmlsl.u8 q15,d4,d0
289 vmlal.u8 q15,d6,d2
291 vmlsl.u8 q15,d7,d3
305 vqrshrun.s16 d30,q15,#
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 192 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
194 vmlal.s16 q15,d1,d13
195 vmlal.s16 q15,d2,d14
197 vmlal.s16 q15,d3,d15
208 vqshrn.s32 d30,q15,#6 @right shift
236 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
238 vmlal.s16 q15,d1,d13
240 vmlal.s16 q15,d2,d14
241 vmlal.s16 q15,d3,d15
254 vqshrn.s32 d30,q15,#6 @right shif
    [all...]
ihevc_inter_pred_chroma_vert_w16out.s 237 vmull.u8 q15,d5,d1 @mul with coeff 1
239 vmlsl.u8 q15,d4,d0
241 vmlal.u8 q15,d6,d2
242 vmlsl.u8 q15,d7,d3
257 vst1.8 {q15},[r1]! @stores the loaded value
280 vmull.u8 q15,d5,d1 @mul with coeff 1
282 vmlsl.u8 q15,d4,d0
284 vmlal.u8 q15,d6,d2
286 vmlsl.u8 q15,d7,d3
311 vst1.8 {q15},[r1]! @stores the loaded valu
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_16_neon.asm 468 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
470 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0)
474 vqmovn.s16 d28, q15
509 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0
510 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
511 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2
513 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2
515 vqrshrn.u16 d18, q15, #3 ; r_op2
517 vsub.i16 q15, q1
    [all...]
  /external/libmpeg2/common/arm/
impeg2_idct.s 151 vdup.s16 q15, r4
156 vaddw.u8 q4, q15, d0
158 vaddw.u8 q5, q15, d1
161 vaddw.u8 q6, q15, d2
165 vaddw.u8 q7, q15, d3
169 vaddw.u8 q8, q15, d4
173 vaddw.u8 q9, q15, d5
177 vaddw.u8 q10, q15, d6
181 vaddw.u8 q11, q15, d7
453 vmull.s16 q15, d6, d1[3] @// y1 * sin1(part of b3
    [all...]
  /external/libxaac/decoder/armv7/
ixheaacd_imdct_using_fft.s 234 VADD.I32 q14, q15, q13
238 VSUB.I32 q12, q15, q13
248 VADD.I32 q15, q10, q1
255 VADD.S32 q11, q7, q15
256 VSUB.S32 q2, q7, q15
258 VSUB.S32 q15, q14, q10
285 VADD.S32 q8, q5, q15
286 VSUB.S32 q7, q5, q15
288 VADD.S32 q15, q0, q2
420 VTRN.32 q15, q1
    [all...]
ixheaacd_sbr_imdct_using_fft.s 238 VADD.I32 q14, q15, q13
242 VSUB.I32 q12, q15, q13
252 VADD.I32 q15, q10, q1
259 VADD.S32 q11, q7, q15
260 VSUB.S32 q2, q7, q15
262 VSUB.S32 q15, q14, q10
289 VADD.S32 q8, q5, q15
290 VSUB.S32 q7, q5, q15
292 VADD.S32 q15, q0, q2
425 VTRN.32 q15, q1
    [all...]
  /external/libhevc/decoder/arm/
ihevcd_itrans_recon_dc_chroma.s 105 vaddw.u8 q15,q0,d2
115 vqmovun.s16 d2,q15
120 vaddw.u8 q15,q0,d16
125 vqmovun.s16 d16,q15
167 vaddw.u8 q15,q0,d2
174 vqmovun.s16 d2,q15

Completed in 171 milliseconds

1 2 3 4 5 6