HomeSort by relevance Sort by last modified time
    Searched refs:q15 (Results 1 - 25 of 127) sorted by null

1 2 3 4 5 6

  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
armv8-a+crypto.s 7 vmull.p64 q15, d31, d31
11 aese.8 q15, q15
15 aesd.8 q15, q15
19 aesmc.8 q15, q15
23 aesimc.8 q15, q15
27 sha1c.32 q15, q15, q1
    [all...]
armv8-a+crypto.d 9 0[0-9a-f]+ <[^>]+> f2efeeaf vmull.p64 q15, d31, d31
13 0[0-9a-f]+ <[^>]+> f3f0e32e aese.8 q15, q15
17 0[0-9a-f]+ <[^>]+> f3f0e36e aesd.8 q15, q15
21 0[0-9a-f]+ <[^>]+> f3f0e3ae aesmc.8 q15, q15
25 0[0-9a-f]+ <[^>]+> f3f0e3ee aesimc.8 q15, q15
29 0[0-9a-f]+ <[^>]+> f24eecee sha1c.32 q15, q15, q1
    [all...]
armv8-a+simd.s 13 vmaxnm.f32 q15, q15, q15
21 vminnm.f32 q15, q15, q15
29 vcvtm.u32.f32 q15, q15
39 vrintp.f32 q15, q15
    [all...]
armv8-a+simd.d 15 0[0-9a-f]+ <[^>]+> f34eeffe vmaxnm.f32 q15, q15, q15
23 0[0-9a-f]+ <[^>]+> f36eeffe vminnm.f32 q15, q15, q15
31 0[0-9a-f]+ <[^>]+> f3fbe3ee vcvtm.u32.f32 q15, q15
41 0[0-9a-f]+ <[^>]+> f3fae7ee vrintp.f32 q15, q15
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_mb_neon.asm 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0)
414 vqmovn.s16 d28, q15
449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0
450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2
453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2
455 vqrshrn.u16 d18, q15, #3 ; r_op2
457 vsub.i16 q15, q1
    [all...]
idct32x32_1_add_neon.asm 28 vld1.8 {q15}, [$src], $stride
40 vqadd.u8 q15, q15, $diff
52 vqsub.u8 q15, q15, $diff
64 vst1.8 {q15},[$dst], $stride
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0)
414 vqmovn.s16 d28, q15
449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0
450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2
453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2
455 vqrshrn.u16 d18, q15, #3 ; r_op2
457 vsub.i16 q15, q1
    [all...]
vp9_idct32x32_1_add_neon.asm 28 vld1.8 {q15}, [$src], $stride
40 vqadd.u8 q15, q15, $diff
52 vqsub.u8 q15, q15, $diff
64 vst1.8 {q15},[$dst], $stride
vp9_iht4x4_add_neon.asm 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use
29 vmull.s16 q15, d17, d2 ; input[1] * cospi_24_64
33 vmlsl.s16 q15, d19, d0 ; input[1] * cospi_24_64 - input[3] * cospi_8_64
39 vqrshrn.s32 d29, q15, #14
56 ; q14,q15 registers and use them as buffer during calculation.
64 vmovl.s16 q15, d16 ; expand x0 from 16 bit to 32 bit
65 vaddw.s16 q15, q15, d19 ; x0 + x3
67 vsubw.s16 q15, q15, d18 ; s7 = x0 + x3 - x
    [all...]
  /external/libavc/encoder/arm/
ih264e_evaluate_intra4x4_modes_a9q.s 258 vext.8 q15, q6, q6, #5
260 vext.8 q15, q6, q6, #15
262 vext.8 q15, q6, q6, #2
265 vext.8 q15, q6, q6, #4
287 vext.8 q15, q6, q6, #3
289 vext.8 q15, q6, q6, #1
291 vext.8 q15, q6, q6, #4
294 vext.8 q15, q6, q6, #6
315 vext.8 q15, q5, q5, #4
317 vext.8 q15, q5, q5, #
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 165 vaddl.s16 q15, d21, d25 @// a0 + a5 (column1)
167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1)
171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
173 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column1)
177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
179 vqrshrun.s32 d23, q15, #10
184 vaddl.s16 q15, d21, d27 @// a0 + a5 (column2)
186 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column2)
190 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column2)
193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2
    [all...]
ih264_deblk_luma_a9.s 119 vabd.u8 q15, q2, q0 @Q15 = Aq = ABS(q2 - q0)
126 vcgt.u8 q11, q8, q15 @Q11=(Aq<Beta)
129 vsubl.u8 q15, d1, d7 @
130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0)
133 vshl.i16 q13, q15, #2 @Q13 = (q0 - p0)<<2
135 vsubl.u8 q15, d9, d3 @Q15 = (p1 - q1)H
138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1)
149 vaddl.u8 q15, d17, d5
    [all...]
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/aarch64/
ldst-reg-pair.d 62 d8: ad203fe7 stp q7, q15, \[sp,#-1024\]
63 dc: ad30bfe7 stp q7, q15, \[sp,#-496\]
64 e0: ad3fbfe7 stp q7, q15, \[sp,#-16\]
65 e4: ad003fe7 stp q7, q15, \[sp\]
66 e8: ad07bfe7 stp q7, q15, \[sp,#240\]
67 ec: ad1fbfe7 stp q7, q15, \[sp,#1008\]
68 f0: ad603fe7 ldp q7, q15, \[sp,#-1024\]
69 f4: ad70bfe7 ldp q7, q15, \[sp,#-496\]
70 f8: ad7fbfe7 ldp q7, q15, \[sp,#-16\]
71 fc: ad403fe7 ldp q7, q15, \[sp\
    [all...]
crypto.s 37 sha256h q7, q15, v31.4s
38 sha256h2 q7, q15, v31.4s
crypto.d 20 2c: 5e1f41e7 sha256h q7, q15, v31.4s
21 30: 5e1f51e7 sha256h2 q7, q15, v31.4s
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blur.S 81 * q12-q15 = temporary sums
91 vmovl.u8 q15, d31
105 vmull.u16 q15, d31, d0[0]
132 vmlal.u16 q15, d23, \dreg
160 vmlal.u16 q15, d23, \dreg
239 vqrshrn.u32 d23, q15, #16 - FRACTION_BITS
267 * q14-q15 -- intermediate sums
272 vmull.u16 q15, d19, d0[0]
286 vmlal.u16 q15, d17, d2[0]
288 vmlal.u16 q15, d21, d2[0
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
206 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3)
237 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3)
248 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4)
264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
274 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
305 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
310 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3
    [all...]
ihevc_itrans_recon_32x32.s 214 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3)
219 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3)
254 vmlsl.s16 q15,d14,d7[1]
260 vmlsl.s16 q15,d15,d3[3]
284 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3)
289 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
328 vmlsl.s16 q15,d14,d6[3]
334 vmlal.s16 q15,d15,d5[3]
360 vmlal.s16 q15,d8,d2[1] @// y1 * sin1(part of b3)
365 vmlal.s16 q15,d9,d1[1] @// y1 * sin1 - y3 * sin3(part of b3
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 156 vqrshrun.s16 d30,q15,#6 @rounding shift
187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
189 vmlal.s16 q15,d1,d13
190 vmlal.s16 q15,d2,d14
192 vmlal.s16 q15,d3,d15
204 vqshrn.s32 d30,q15,#6 @right shift
213 vqrshrun.s16 d30,q15,#6 @rounding shift
233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
235 vmlal.s16 q15,d1,d13
237 vmlal.s16 q15,d2,d1
    [all...]
ihevc_itrans_recon_16x16.s 245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
250 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3)
272 vmlsl.s16 q15,d8,d0[3]
278 vmlal.s16 q15,d9,d3[3]
320 vmlal.s16 q15,d6,d0[1] @// y1 * sin1(part of b3)
325 vmlal.s16 q15,d7,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
332 vmlsl.s16 q15,d8,d1[1]
338 vmlsl.s16 q15,d9,d2[1]
380 vadd.s32 q8,q9,q15
381 vsub.s32 q14,q9,q15
    [all...]
ihevc_inter_pred_chroma_vert.s 232 vmull.u8 q15,d5,d1 @mul with coeff 1
234 vmlsl.u8 q15,d4,d0
236 vmlal.u8 q15,d6,d2
237 vmlsl.u8 q15,d7,d3
247 vqrshrun.s16 d30,q15,#6
279 vmull.u8 q15,d5,d1 @mul with coeff 1
281 vmlsl.u8 q15,d4,d0
283 vmlal.u8 q15,d6,d2
285 vmlsl.u8 q15,d7,d3
299 vqrshrun.s16 d30,q15,#
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
188 vmlal.s16 q15,d1,d13
189 vmlal.s16 q15,d2,d14
191 vmlal.s16 q15,d3,d15
202 vqshrn.s32 d30,q15,#6 @right shift
230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
232 vmlal.s16 q15,d1,d13
234 vmlal.s16 q15,d2,d14
235 vmlal.s16 q15,d3,d15
248 vqshrn.s32 d30,q15,#6 @right shif
    [all...]
ihevc_inter_pred_chroma_vert_w16out.s 232 vmull.u8 q15,d5,d1 @mul with coeff 1
234 vmlsl.u8 q15,d4,d0
236 vmlal.u8 q15,d6,d2
237 vmlsl.u8 q15,d7,d3
252 vst1.8 {q15},[r1]! @stores the loaded value
275 vmull.u8 q15,d5,d1 @mul with coeff 1
277 vmlsl.u8 q15,d4,d0
279 vmlal.u8 q15,d6,d2
281 vmlsl.u8 q15,d7,d3
306 vst1.8 {q15},[r1]! @stores the loaded valu
    [all...]
  /external/libmpeg2/common/arm/
impeg2_idct.s 151 vdup.s16 q15, r4
156 vaddw.u8 q4, q15, d0
158 vaddw.u8 q5, q15, d1
161 vaddw.u8 q6, q15, d2
165 vaddw.u8 q7, q15, d3
169 vaddw.u8 q8, q15, d4
173 vaddw.u8 q9, q15, d5
177 vaddw.u8 q10, q15, d6
181 vaddw.u8 q11, q15, d7
453 vmull.s16 q15, d6, d1[3] @// y1 * sin1(part of b3
    [all...]
  /external/libhevc/decoder/arm/
ihevcd_itrans_recon_dc_chroma.s 105 vaddw.u8 q15,q0,d2
115 vqmovun.s16 d2,q15
120 vaddw.u8 q15,q0,d16
125 vqmovun.s16 d16,q15
167 vaddw.u8 q15,q0,d2
174 vqmovun.s16 d2,q15

Completed in 697 milliseconds

1 2 3 4 5 6