/external/llvm/test/MC/ARM/ |
neon-shiftaccum-encoding.s | 74 vrsra.s32 d7, d24, #32 92 vrsra.s32 d24, #32 109 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0x38,0x73,0xa0,0xf2] 126 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0x38,0x83,0xe0,0xf2] 152 vsri.32 d24, d13, #32 187 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0x1d,0x84,0xe0,0xf3]
|
neont2-shiftaccum-encoding.s | 77 vrsra.s32 d7, d24, #32 95 vrsra.s32 d24, #32 112 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0xa0,0xef,0x38,0x73] 129 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0xe0,0xef,0x38,0x83] 155 vsri.32 d24, d13, #32 190 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0xe0,0xff,0x1d,0x84]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
neon-shiftaccum-encoding.s | 74 vrsra.s32 d7, d24, #32 92 vrsra.s32 d24, #32 109 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0x38,0x73,0xa0,0xf2] 126 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0x38,0x83,0xe0,0xf2] 152 vsri.32 d24, d13, #32 187 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0x1d,0x84,0xe0,0xf3]
|
neont2-shiftaccum-encoding.s | 77 vrsra.s32 d7, d24, #32 95 vrsra.s32 d24, #32 112 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0xa0,0xef,0x38,0x73] 129 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0xe0,0xef,0x38,0x83] 155 vsri.32 d24, d13, #32 190 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0xe0,0xff,0x1d,0x84]
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_horiz_filter_type1_neon.asm | 45 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs, 113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 153 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 197 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 220 vmlsl.u8 q10, d1, d24 243 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 271 vmlsl.u8 q11, d1, d24 301 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 403 vmlsl.u8 q4, d0, d24
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm | 45 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs, 114 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 154 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 198 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 221 vmlsl.u8 q10, d1, d24 244 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 272 vmlsl.u8 q11, d1, d24 302 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 404 vmlsl.u8 q4, d0, d24
|
vpx_convolve8_horiz_filter_type1_neon.asm | 44 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs, 113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 193 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 216 vmlsl.u8 q10, d1, d24 238 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 262 vmlsl.u8 q11, d1, d24 293 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 383 vmlsl.u8 q4, d0, d24
|
vpx_convolve8_horiz_filter_type2_neon.asm | 45 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs, 113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 193 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 216 vmlsl.u8 q10, d1, d24 238 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 262 vmlsl.u8 q11, d1, d24 293 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0], 383 vmlsl.u8 q4, d0, d24
|
/external/vixl/test/aarch32/ |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 457 {{F64, d3, d19, d24}, 458 "F64 d3 d19 d24", 482 {{F64, d1, d5, d24}, 483 "F64 d1 d5 d24", 562 {{F64, d14, d18, d24}, 563 "F64 d14 d18 d24", 577 {{F64, d29, d27, d24}, 578 "F64 d29 d27 d24", 602 {{F64, d0, d3, d24}, 603 "F64 d0 d3 d24", [all...] |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 457 {{F64, d3, d19, d24}, 458 "F64 d3 d19 d24", 482 {{F64, d1, d5, d24}, 483 "F64 d1 d5 d24", 562 {{F64, d14, d18, d24}, 563 "F64 d14 d18 d24", 577 {{F64, d29, d27, d24}, 578 "F64 d29 d27 d24", 602 {{F64, d0, d3, d24}, 603 "F64 d0 d3 d24", [all...] |
/external/libhevc/common/arm/ |
ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 332 vrshrn.i16 d24, q12, #5 @round shft (row 0) 342 vst1.8 d24, [r2], r3 @st (row 0) 378 vrshrn.i16 d24, q12, #5 @round shft (row 4) 388 vst1.8 d24, [r2], r3 @st (row 4) 462 vst1.8 d24, [r5], r3 @st (row 4) 463 vrshrn.i16 d24, q11, #5 @round shft (row 5) 491 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5) 518 vrshrn.i16 d24, q12, #5 @round shft (row 0) 534 vst1.8 d24, [r2], r3 @st (row 0) 579 vrshrn.i16 d24, q12, #5 @round shft (row 4 [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 220 vrshrn.i16 d24, q12, #5 @round shft (row 0) 230 vst1.8 d24, [r2], r3 @st (row 0) 264 vrshrn.i16 d24, q12, #5 @round shft (row 4) 274 vst1.8 d24, [r2], r3 @st (row 4) 342 vst1.8 d24, [r5], r3 @st (row 4) 390 vrshrn.i16 d24, q12, #5 @round shft (row 0) 405 vst1.8 d24, [r2], r3 @st (row 0) 448 vrshrn.i16 d24, q12, #5 @round shft (row 4) 467 vst1.8 d24, [r5], r3 @st (row 4) 468 vrshrn.i16 d24, q11, #5 @round shft (row 5 [all...] |
ihevc_inter_pred_chroma_vert.s | 293 vqrshrun.s16 d24,q12,#6 300 vst1.8 {d24},[r7],r3 @stores the loaded value 354 vqrshrun.s16 d24,q12,#6 361 vst1.8 {d24},[r7],r3 @stores the loaded value 383 vqrshrun.s16 d24,q12,#6 384 vst1.8 {d24},[r7],r3 @stores the loaded value
|
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 243 vqshrn.s32 d24,q12,#6 @right shift 260 vst1.32 {d24},[r9] @stores the loaded value 293 vqshrn.s32 d24,q12,#6 @right shift 312 vst1.32 {d24},[r9] @stores the loaded value 325 vqshrn.s32 d24,q12,#6 @right shift 328 vst1.32 {d24},[r9] @stores the loaded value
|
ihevc_inter_pred_filters_luma_horz.s | 143 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 225 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 249 vmlsl.u8 q5,d12,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 307 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 323 vmlsl.u8 q10,d1,d24 356 vmlsl.u8 q5,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 375 vmlsl.u8 q11,d1,d24 407 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 516 vmlsl.u8 q4,d0,d24
|
ihevc_deblk_luma_vert.s | 119 vld1.8 {d24},[r7],r1 128 vtrn.8 d24,d1 135 vtrn.16 d24,d2 147 vdup.32 d4,d24[1] 402 vdup.32 d7,d24[0] 438 vmov.i8 d24,#0x1 496 vaddw.u8 q8,q8,d24 554 vaddw.u8 q1,q1,d24
|
ihevc_intra_pred_chroma_mode_27_to_33.s | 219 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 222 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 296 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 301 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 360 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract) 364 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 439 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract) 440 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
|
/external/boringssl/src/crypto/curve25519/asm/ |
x25519-asm-arm.S | 107 vld1.8 {d24},[r2] 263 vld1.8 {d24-d25},[r5,: 128]! 516 vld1.8 {d24},[r2,: 64] 532 vtrn.32 d24,d25 554 vmlal.s32 q8,d24,d6 564 vmlal.s32 q2,d24,d0 596 vmlal.s32 q7,d24,d21 602 vmlal.s32 q5,d24,d20 621 vmlal.s32 q4,d24,d29 623 vmlal.s32 q8,d24,d2 [all...] |
/external/capstone/suite/MC/ARM/ |
neont2-pairwise-encoding.s.cs | 35 0x68,0xff,0x9f,0x5a = vpmin.u32 d21, d24, d15 package 41 0x18,0xff,0x8d,0x7a = vpmax.u16 d7, d24, d13 package
|
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_a9q.s | 197 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 203 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 233 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 238 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
|
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 96 vaddl.u16 q12, d24, d25
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S | 52 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 160 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 204 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 227 vmlsl.u8 q10, d1, d24 250 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0], 278 vmlsl.u8 q11, d1, d24 308 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 410 vmlsl.u8 q4, d0, d24
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S | 52 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 121 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 161 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 205 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 228 vmlsl.u8 q10, d1, d24 251 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0], 279 vmlsl.u8 q11, d1, d24 309 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 411 vmlsl.u8 q4, d0, d24
|
vpx_convolve8_horiz_filter_type1_neon.asm.S | 51 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 200 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 223 vmlsl.u8 q10, d1, d24 245 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0], 269 vmlsl.u8 q11, d1, d24 300 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 390 vmlsl.u8 q4, d0, d24
|
vpx_convolve8_horiz_filter_type2_neon.asm.S | 52 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 200 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 223 vmlsl.u8 q10, d1, d24 245 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0], 269 vmlsl.u8 q11, d1, d24 300 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0], 390 vmlsl.u8 q4, d0, d24
|