/toolchain/binutils/binutils-2.27/gas/testsuite/gas/arm/ |
armv8-a+crypto.s | 7 vmull.p64 q15, d31, d31 11 aese.8 q15, q15 15 aesd.8 q15, q15 19 aesmc.8 q15, q15 23 aesimc.8 q15, q15 27 sha1c.32 q15, q15, q1 [all...] |
armv8-a+crypto.d | 9 0[0-9a-f]+ <[^>]+> f2efeeaf vmull.p64 q15, d31, d31 13 0[0-9a-f]+ <[^>]+> f3f0e32e aese.8 q15, q15 17 0[0-9a-f]+ <[^>]+> f3f0e36e aesd.8 q15, q15 21 0[0-9a-f]+ <[^>]+> f3f0e3ae aesmc.8 q15, q15 25 0[0-9a-f]+ <[^>]+> f3f0e3ee aesimc.8 q15, q15 29 0[0-9a-f]+ <[^>]+> f24eecee sha1c.32 q15, q15, q1 [all...] |
armv8-a+simd.s | 13 vmaxnm.f32 q15, q15, q15 21 vminnm.f32 q15, q15, q15 29 vcvtm.u32.f32 q15, q15 39 vrintp.f32 q15, q15 [all...] |
armv8-a+simd.d | 15 0[0-9a-f]+ <[^>]+> f34eeffe vmaxnm.f32 q15, q15, q15 23 0[0-9a-f]+ <[^>]+> f36eeffe vminnm.f32 q15, q15, q15 31 0[0-9a-f]+ <[^>]+> f3fbe3ee vcvtm.u32.f32 q15, q15 41 0[0-9a-f]+ <[^>]+> f3fae7ee vrintp.f32 q15, q15 [all...] |
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra4x4_modes_a9q.s | 258 vext.8 q15, q6, q6, #5 260 vext.8 q15, q6, q6, #15 262 vext.8 q15, q6, q6, #2 265 vext.8 q15, q6, q6, #4 287 vext.8 q15, q6, q6, #3 289 vext.8 q15, q6, q6, #1 291 vext.8 q15, q6, q6, #4 294 vext.8 q15, q6, q6, #6 315 vext.8 q15, q5, q5, #4 317 vext.8 q15, q5, q5, # [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 165 vaddl.s16 q15, d21, d25 @// a0 + a5 (column1) 167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1) 171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 173 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column1) 177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 179 vqrshrun.s32 d23, q15, #10 184 vaddl.s16 q15, d21, d27 @// a0 + a5 (column2) 186 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column2) 190 vmlal.s16 q15, d21, d0[0] @// a0 + a5 + 20a2 + 20a3 (column2) 193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2 [all...] |
ih264_deblk_luma_a9.s | 119 vabd.u8 q15, q2, q0 @Q15 = Aq = ABS(q2 - q0) 126 vcgt.u8 q11, q8, q15 @Q11=(Aq<Beta) 129 vsubl.u8 q15, d1, d7 @ 130 vsubl.u8 q12, d0, d6 @Q15,Q12 = (q0 - p0) 133 vshl.i16 q13, q15, #2 @Q13 = (q0 - p0)<<2 135 vsubl.u8 q15, d9, d3 @Q15 = (p1 - q1)H 138 vadd.i16 q13, q13, q15 @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1) 149 vaddl.u8 q15, d17, d5 [all...] |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 146 vmov.u16 q15, #0x5 @ Filter coeff 5 into Q12 176 vmls.u16 q9, q11, q15 178 vmls.u16 q10, q13, q15 181 vmls.u16 q11, q13, q15 253 vmls.u16 q9, q11, q15 255 vmls.u16 q10, q13, q15 258 vmls.u16 q11, q13, q15 346 vaddl.s16 q15, d12, d22 357 vmlal.s16 q15, d16, d26 358 vmlsl.s16 q15, d18, d2 [all...] |
/toolchain/binutils/binutils-2.27/gas/testsuite/gas/aarch64/ |
ldst-reg-pair.d | 62 d8: ad203fe7 stp q7, q15, \[sp,#-1024\] 63 dc: ad30bfe7 stp q7, q15, \[sp,#-496\] 64 e0: ad3fbfe7 stp q7, q15, \[sp,#-16\] 65 e4: ad003fe7 stp q7, q15, \[sp\] 66 e8: ad07bfe7 stp q7, q15, \[sp,#240\] 67 ec: ad1fbfe7 stp q7, q15, \[sp,#1008\] 68 f0: ad603fe7 ldp q7, q15, \[sp,#-1024\] 69 f4: ad70bfe7 ldp q7, q15, \[sp,#-496\] 70 f8: ad7fbfe7 ldp q7, q15, \[sp,#-16\] 71 fc: ad403fe7 ldp q7, q15, \[sp\ [all...] |
crypto.s | 41 sha256h q7, q15, v31.4s 42 sha256h2 q7, q15, v31.4s
|
crypto-directive.d | 21 2c: 5e1f41e7 sha256h q7, q15, v31.4s 22 30: 5e1f51e7 sha256h2 q7, q15, v31.4s
|
crypto.d | 20 2c: 5e1f41e7 sha256h q7, q15, v31.4s 21 30: 5e1f51e7 sha256h2 q7, q15, v31.4s
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blur.S | 81 * q12-q15 = temporary sums 91 vmovl.u8 q15, d31 105 vmull.u16 q15, d31, d0[0] 132 vmlal.u16 q15, d23, \dreg 160 vmlal.u16 q15, d23, \dreg 239 vqrshrn.u32 d23, q15, #16 - FRACTION_BITS 267 * q14-q15 -- intermediate sums 272 vmull.u16 q15, d19, d0[0] 286 vmlal.u16 q15, d17, d2[0] 288 vmlal.u16 q15, d21, d2[0 [all...] |
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 204 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 212 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3) 243 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3) 254 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4) 270 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 271 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4) 280 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct) 311 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 316 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3 [all...] |
ihevc_itrans_recon_32x32.s | 220 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3) 225 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3) 260 vmlsl.s16 q15,d14,d7[1] 266 vmlsl.s16 q15,d15,d3[3] 290 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3) 295 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3) 334 vmlsl.s16 q15,d14,d6[3] 340 vmlal.s16 q15,d15,d5[3] 366 vmlal.s16 q15,d8,d2[1] @// y1 * sin1(part of b3) 371 vmlal.s16 q15,d9,d1[1] @// y1 * sin1 - y3 * sin3(part of b3 [all...] |
ihevc_inter_pred_chroma_vert_w16inp.s | 162 vqrshrun.s16 d30,q15,#6 @rounding shift 193 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 195 vmlal.s16 q15,d1,d13 196 vmlal.s16 q15,d2,d14 198 vmlal.s16 q15,d3,d15 210 vqshrn.s32 d30,q15,#6 @right shift 219 vqrshrun.s16 d30,q15,#6 @rounding shift 239 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 241 vmlal.s16 q15,d1,d13 243 vmlal.s16 q15,d2,d1 [all...] |
ihevc_itrans_recon_16x16.s | 246 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 251 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3) 273 vmlsl.s16 q15,d8,d0[3] 279 vmlal.s16 q15,d9,d3[3] 321 vmlal.s16 q15,d6,d0[1] @// y1 * sin1(part of b3) 326 vmlal.s16 q15,d7,d3[1] @// y1 * sin1 - y3 * sin3(part of b3) 333 vmlsl.s16 q15,d8,d1[1] 339 vmlsl.s16 q15,d9,d2[1] 381 vadd.s32 q8,q9,q15 382 vsub.s32 q14,q9,q15 [all...] |
ihevc_inter_pred_chroma_vert.s | 238 vmull.u8 q15,d5,d1 @mul with coeff 1 240 vmlsl.u8 q15,d4,d0 242 vmlal.u8 q15,d6,d2 243 vmlsl.u8 q15,d7,d3 253 vqrshrun.s16 d30,q15,#6 285 vmull.u8 q15,d5,d1 @mul with coeff 1 287 vmlsl.u8 q15,d4,d0 289 vmlal.u8 q15,d6,d2 291 vmlsl.u8 q15,d7,d3 305 vqrshrun.s16 d30,q15,# [all...] |
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 192 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 194 vmlal.s16 q15,d1,d13 195 vmlal.s16 q15,d2,d14 197 vmlal.s16 q15,d3,d15 208 vqshrn.s32 d30,q15,#6 @right shift 236 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 238 vmlal.s16 q15,d1,d13 240 vmlal.s16 q15,d2,d14 241 vmlal.s16 q15,d3,d15 254 vqshrn.s32 d30,q15,#6 @right shif [all...] |
ihevc_inter_pred_chroma_vert_w16out.s | 237 vmull.u8 q15,d5,d1 @mul with coeff 1 239 vmlsl.u8 q15,d4,d0 241 vmlal.u8 q15,d6,d2 242 vmlsl.u8 q15,d7,d3 257 vst1.8 {q15},[r1]! @stores the loaded value 280 vmull.u8 q15,d5,d1 @mul with coeff 1 282 vmlsl.u8 q15,d4,d0 284 vmlal.u8 q15,d6,d2 286 vmlsl.u8 q15,d7,d3 311 vst1.8 {q15},[r1]! @stores the loaded valu [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_16_neon.asm | 468 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 470 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 474 vqmovn.s16 d28, q15 509 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0 510 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3 511 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2 513 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2 515 vqrshrn.u16 d18, q15, #3 ; r_op2 517 vsub.i16 q15, q1 [all...] |
/external/libmpeg2/common/arm/ |
impeg2_idct.s | 151 vdup.s16 q15, r4 156 vaddw.u8 q4, q15, d0 158 vaddw.u8 q5, q15, d1 161 vaddw.u8 q6, q15, d2 165 vaddw.u8 q7, q15, d3 169 vaddw.u8 q8, q15, d4 173 vaddw.u8 q9, q15, d5 177 vaddw.u8 q10, q15, d6 181 vaddw.u8 q11, q15, d7 453 vmull.s16 q15, d6, d1[3] @// y1 * sin1(part of b3 [all...] |
/external/libxaac/decoder/armv7/ |
ixheaacd_imdct_using_fft.s | 234 VADD.I32 q14, q15, q13 238 VSUB.I32 q12, q15, q13 248 VADD.I32 q15, q10, q1 255 VADD.S32 q11, q7, q15 256 VSUB.S32 q2, q7, q15 258 VSUB.S32 q15, q14, q10 285 VADD.S32 q8, q5, q15 286 VSUB.S32 q7, q5, q15 288 VADD.S32 q15, q0, q2 420 VTRN.32 q15, q1 [all...] |
ixheaacd_sbr_imdct_using_fft.s | 238 VADD.I32 q14, q15, q13 242 VSUB.I32 q12, q15, q13 252 VADD.I32 q15, q10, q1 259 VADD.S32 q11, q7, q15 260 VSUB.S32 q2, q7, q15 262 VSUB.S32 q15, q14, q10 289 VADD.S32 q8, q5, q15 290 VSUB.S32 q7, q5, q15 292 VADD.S32 q15, q0, q2 425 VTRN.32 q15, q1 [all...] |
/external/libhevc/decoder/arm/ |
ihevcd_itrans_recon_dc_chroma.s | 105 vaddw.u8 q15,q0,d2 115 vqmovun.s16 d2,q15 120 vaddw.u8 q15,q0,d16 125 vqmovun.s16 d16,q15 167 vaddw.u8 q15,q0,d2 174 vqmovun.s16 d2,q15
|