/external/boringssl/ios-arm/crypto/fipsmodule/ |
ghashv8-armx32.S | 31 vshr.u64 q10,q11,#63 33 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 34 vshr.u64 q10,q3,#63 36 vand q10,q10,q8 38 vext.8 q10,q10,q10,#8 40 vorr q3,q3,q10 @ H<<<=1 52 veor q10,q0,q [all...] |
aesv8-armx32.S | 69 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 76 veor q10,q10,q1 79 veor q3,q3,q10 88 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 94 veor q10,q10,q1 97 veor q3,q3,q10 103 .byte 0x00,0x43,0xf0,0xf3 @ aese q10,q0 109 veor q10,q10,q [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
ghashv8-armx32.S | 30 vshr.u64 q10,q11,#63 32 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 33 vshr.u64 q10,q3,#63 35 vand q10,q10,q8 37 vext.8 q10,q10,q10,#8 39 vorr q3,q3,q10 @ H<<<=1 51 veor q10,q0,q [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 294 vaddl.u8 q10, d2, d17 @// a0 + a5 (column1,row0) 296 vmlal.u8 q10, d8, d1 @// a0 + a5 + 20a2 (column1,row0) 297 vmlal.u8 q10, d11, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 298 vmlsl.u8 q10, d5, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 299 vmlsl.u8 q10, d14, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 316 vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0) 333 vaddl.s16 q10, d31, d21 @// a0 + a5 (set2) 334 vmlal.s16 q10, d30, d0[1] @// a0 + a5 + 20a2 (set2) 335 vmlal.s16 q10, d29, d0[1] @// a0 + a5 + 20a2 + 20a3 (set2) 336 vmlsl.s16 q10, d28, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (set2 [all...] |
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 89 vmull.u8 q10, d0, d0 94 vaddl.u16 q10, d20, d21 99 vadd.u32 q10, q10, q11 101 vadd.u32 q10, q10, q11
|
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 167 vaddl.u8 q10, d4, d6 170 vmla.u16 q9, q10, q14 172 vaddl.u8 q10, d1, d11 174 vmla.u16 q10, q12, q14 178 vmls.u16 q10, q13, q15 183 vst1.32 {q10}, [r9]! 184 vext.16 q12, q9, q10, #2 185 vext.16 q13, q9, q10, #3 187 vext.16 q11, q9, q10, #5 189 vext.16 q12, q9, q10, # [all...] |
ih264_inter_pred_luma_bilinear_a9q.s | 139 vaddl.u8 q10, d0, d4 150 vqrshrun.s16 d28, q10, #1 152 vaddl.u8 q10, d10, d14 162 vqrshrun.s16 d30, q10, #1 166 vaddl.u8 q10, d0, d4 174 vqrshrun.s16 d28, q10, #1 180 vaddl.u8 q10, d10, d14 187 vqrshrun.s16 d30, q10, #1 198 vaddl.u8 q10, d0, d4 202 vqrshrun.s16 d28, q10, # [all...] |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 144 vaddl.u8 q10, d8, d11 @ temp1 = src[2_0] + src[3_0] 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20 150 vaddl.u8 q10, d6, d15 @ temp = src[1_0] + src[4_0] 154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5 156 vaddl.u8 q10, d7, d16 @ temp = src[1_0] + src[4_0] 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 159 vext.16 q10, q12, q13, #5 @//extract a[5] (column1) 169 vext.16 q10, q12, q13, #3 @//extract a[3] (column1) 175 vext.16 q10, q13, q14, #5 @//extract a[5] (column2) 187 vext.16 q10, q13, q14, #3 @//extract a[3] (column2 [all...] |
ih264_inter_pred_filters_luma_vert_a9q.s | 132 vaddl.u8 q10, d1, d11 @ temp4 = src[0_8] + src[5_8] 134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 142 vmls.u16 q10, q13, q12 @ temp4 -= temp5 * 5 150 vqrshrun.s16 d31, q10, #5 @ dst[0_8] = CLIP_U8((temp4 +16) >> 5) 156 vaddl.u8 q10, d6, d0 163 vmls.u16 q9, q10, q12 169 vaddl.u8 q10, d8, d2 178 vmls.u16 q7, q10, q12 185 vaddl.u8 q10, d9, d7 @ temp4 = src[0_8] + src[5_8] 221 vaddl.u8 q10, d4, d [all...] |
/external/llvm/test/MC/ARM/ |
neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all...] |
neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all...] |
neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27 [all...] |
neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 62 vmls.i8 q9, q8, q10 63 vmls.i16 q9, q8, q10 [all...] |
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
neon-mul-accum-encoding.s | 11 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 12 vmla.i8 q9, q8, q10 13 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 14 vmla.i16 q9, q8, q10 15 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 16 vmla.i32 q9, q8, q10 17 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 18 vmla.f32 q9, q8, q10 43 @ CHECK: vmls.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf3] 44 vmls.i8 q9, q8, q10 [all...] |
neon-mul-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 16 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 17 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 18 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 19 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 48 vmls.i8 q9, q8, q10 49 vmls.i16 q9, q8, q10 [all...] |
neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 18 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 19 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 20 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 21 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 50 vmls.i8 q9, q8, q10 51 vmls.i16 q9, q8, q10 [all...] |
neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all...] |
neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27 [all...] |
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all...] |
neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all...] |
neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27 [all...] |
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 193 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 248 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 249 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 258 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 259 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 261 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 273 vqrshrn.s32 d2,q10,#shift_stage1_idct @// r0 = (a0 + b0 + rnd) >> 7(shift_stage1_idct) 321 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 324 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7 [all...] |
ihevc_itrans_recon_32x32.s | 231 vmull.s16 q10,d10,d0[0] 232 vmlal.s16 q10,d11,d0[2] 269 vmlal.s16 q10,d12,d1[0] 270 vmlal.s16 q10,d13,d1[2] 301 vmlal.s16 q10,d10,d2[0] 302 vmlal.s16 q10,d11,d2[2] 343 vmlal.s16 q10,d12,d3[0] 344 vmlal.s16 q10,d13,d3[2] 377 vmlal.s16 q10,d10,d0[0] 378 vmlal.s16 q10,d11,d4[2 [all...] |
/external/capstone/suite/MC/ARM/ |
neon-mul-accum-encoding.s.cs | 6 0xe4,0x29,0x40,0xf2 = vmla.i8 q9, q8, q10 7 0xe4,0x29,0x50,0xf2 = vmla.i16 q9, q8, q10 8 0xe4,0x29,0x60,0xf2 = vmla.i32 q9, q8, q10 9 0xf4,0x2d,0x40,0xf2 = vmla.f32 q9, q8, q10 27 0xe4,0x29,0x40,0xf3 = vmls.i8 q9, q8, q10 28 0xe4,0x29,0x50,0xf3 = vmls.i16 q9, q8, q10 29 0xe4,0x29,0x60,0xf3 = vmls.i32 q9, q8, q10 30 0xf4,0x2d,0x60,0xf2 = vmls.f32 q9, q8, q10
|
neont2-mul-accum-encoding.s.cs | 6 0x40,0xef,0xe4,0x29 = vmla.i8 q9, q8, q10 7 0x50,0xef,0xe4,0x29 = vmla.i16 q9, q8, q10 8 0x60,0xef,0xe4,0x29 = vmla.i32 q9, q8, q10 9 0x40,0xef,0xf4,0x2d = vmla.f32 q9, q8, q10 28 0x40,0xff,0xe4,0x29 = vmls.i8 q9, q8, q10 29 0x50,0xff,0xe4,0x29 = vmls.i16 q9, q8, q10 30 0x60,0xff,0xe4,0x29 = vmls.i32 q9, q8, q10 31 0x60,0xef,0xf4,0x2d = vmls.f32 q9, q8, q10
|