/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 139 vld1.u32 {d11, d12, d13}, [r0], r2 @ Vector load from src[3_0] 151 vaddl.u8 q11, d9, d12 @ temp3 = src[2_0] + src[3_0] 210 vaddl.u8 q11, d12, d15 @ temp3 = src[2_0] + src[3_0] 273 vld1.u32 {d12, d13}, [r0], r2 @ Vector load from src[5_0] 278 vaddl.u8 q12, d2, d12 @ temp = src[0_0] + src[5_0] 311 vaddl.u8 q11, d6, d12 @ temp2 = src[1_0] + src4_0] 357 vld1.u32 {d12, d13}, [r0], r2 @ Vector load from src[5_0] 362 vaddl.u8 q12, d2, d12 @ temp = src[0_0] + src[5_0] 395 vaddl.u8 q11, d6, d12 @ temp2 = src[1_0] + src4_0]
|
ih264_deblk_luma_a9.s | 100 vmov.32 d12[0], r4 @d12[0] = ui_Bs 105 vmovl.u8 q6, d12 @q6 = uc_Bs in each 16 bt scalar 113 vtbl.8 d14, {d16}, d12 @ 116 vmovl.u16 q6, d12 @ 272 vrshrn.u16 d12, q8, #3 @(2*(p0+q0+q1)+q2 +p1 +4)>> 3 L [q0'] 291 vrshrn.u16 d12, q14, #2 @(p0+q0+q1+q2+2)>>2 L [q1'] 311 vst1.8 {d12, d13}, [r0], r1 @store q1 343 vrshrn.u16 d12, q6, #3 @((p0+q0+p1)+3*p2+2*p3+4)>>3 L p2' 410 vmov.32 d18[0], r12 @d12[0] = ui_B [all...] |
ih264_intra_pred_chroma_a9q.s | 125 vadd.u16 d12, d4, d5 130 vpadd.u32 d12, d12, d15 132 vqrshrun.s16 d12, q6, #3 134 vdup.u16 d8, d12[0] 137 vdup.u16 d11, d12[1] 428 vrshrn.s32 d12, q12, #6 446 vdup.16 q2, d12[0]
|
/external/libhevc/common/arm/ |
ihevc_inter_pred_filters_luma_vert_w16inp.s | 214 vqshrn.s32 d12, q6, #6 238 vqrshrun.s16 d12,q6,#6 247 vst1.32 {d12[0]},[r14],r6 300 vqshrn.s32 d12, q6, #6 321 vqrshrun.s16 d12,q6,#6 332 vst1.32 {d12[0]},[r14],r6 359 vqshrn.s32 d12, q6, #6 367 vqrshrun.s16 d12,q6,#6 369 vst1.32 {d12[0]},[r14],r6
|
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 251 vshrn.s32 d12, q6, #6 252 @vqrshrun.s16 d12,q6,#6 261 vst1.32 {d12},[r14],r6 338 vshrn.s32 d12, q6, #6 339 @vqrshrun.s16 d12,q6,#6 350 vst1.32 {d12},[r14],r6 388 vshrn.s32 d12, q6, #6 389 @vqrshrun.s16 d12,q6,#6 391 vst1.32 {d12},[r14],r6
|
ihevc_intra_pred_chroma_mode_3_to_9.s | 201 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0) 211 vmull.u8 q12, d12, d7 @mul (row 0) 242 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4) 254 vmull.u8 q12, d12, d7 @mul (row 4) 359 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0) 383 vmull.u8 q12, d12, d7 @mul (row 0) 417 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4) 434 vmull.u8 q12, d12, d7 @mul (row 4)
|
ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 287 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 298 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 345 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 361 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 426 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 443 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 500 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 518 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_inter_pred_chroma_horz_w16out.s | 243 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 313 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 353 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 409 @vld1.u32 {d12,d13},[r4],r11 @vector load pu1_src + src_strd 414 @vext.u8 d14,d12,d13,#2 @vector extract of src[0_2] 417 @vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 418 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 528 vst1.16 {d12, d13},[r4],r8 @(3)store the result pu1_dst 584 vst1.16 {d12, d13},[r4], r8 @(3)store the result pu1_dst 629 @vld1.u32 {d12,d13},[r4] @vector load pu1_src + src_str [all...] |
ihevc_intra_pred_chroma_planar.s | 222 vmovn.i16 d12, q6 233 vst1.s32 {d12,d13}, [r2], r3 347 @ vmovn.i16 d12, q6 348 vrshrn.s16 d12,q6,#3 350 vst1.s32 {d12}, [r2], r3
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
mbloopfilter_neon.c | 207 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 229 d12 = vld1_u8(u); 251 q6 = vcombine_u8(d12, d13); 294 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 318 d12 = vld1_u8(s1); 340 q6 = vcombine_u8(d12, d13); 458 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 482 d12 = vld1_u8(us); 504 q6 = vcombine_u8(d12, d13);
|
vp8_loopfilter_neon.c | 174 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 196 d12 = vld1_u8(u); 218 q6 = vcombine_u8(d12, d13); 322 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 340 d12 = vld1_u8(s); 369 q6 = vcombine_u8(d12, d13); 411 q4ResultL.val[1] = vget_low_u8(q6); // d12 434 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 452 d12 = vld1_u8(us); 482 q6 = vcombine_u8(d12, d13) [all...] |
/external/libxaac/decoder/armv7/ |
ixheaacd_imdct_using_fft.s | 114 VLD2.32 {d12[0], d14[0]}, [r5], r1 125 VLD2.32 {d12[1], d14[1]}, [r6], r1 504 VLD2.32 {d12[0], d14[0]}, [r5], r1 515 VLD2.32 {d12[1], d14[1]}, [r6], r1 588 VSWP d12, d9 675 VSHR.U16 d12, d12, #1 678 VMLSL.S16 q11, d12, d1 681 VMLAL.S16 q12, d12, d0
|
ixheaacd_sbr_imdct_using_fft.s | 118 VLD2.32 {d12[0], d14[0]}, [r5], r1 129 VLD2.32 {d12[1], d14[1]}, [r6], r1 513 VLD2.32 {d12[0], d14[0]}, [r5], r1 524 VLD2.32 {d12[1], d14[1]}, [r6], r1 597 VSWP d12, d9 704 VSHR.U16 d12, d12, #1 707 VMLSL.S16 q11, d12, d1 710 VMLAL.S16 q12, d12, d0
|
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 270 vld1.8 {d11, d12, d13}, [r0], r3 304 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row0) 405 vmlal.u8 q11, d12, d1 @// a0 + a5 + 20a2 (column2,row0) 512 vmlsl.u8 q11, d12, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0) [all...] |
/external/boringssl/src/crypto/test/ |
abi_test.h | 123 CALLER_STATE_REGISTER(uint64_t, d12) \ 164 CALLER_STATE_REGISTER(uint64_t, d12) \
|
/external/llvm/test/MC/ARM/ |
neon-vld-encoding.s | 164 vld3.i8 {d12, d13, d14}, [r6], r1 165 vld3.i16 {d11, d12, d13}, [r7], r2 185 @ CHECK: vld3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x26,0xf4] 186 @ CHECK: vld3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x27,0xf4] 257 vld1.p8 d12[6], [r2]! 258 vld1.i8 d12[6], [r2], r2 259 vld1.u16 d12[3], [r2]! 260 vld1.16 d12[2], [r2], r2 265 @ CHECK: vld1.8 {d12[6]}, [r2]! @ encoding: [0xcd,0xc0,0xa2,0xf4] 266 @ CHECK: vld1.8 {d12[6]}, [r2], r2 @ encoding: [0xc2,0xc0,0xa2,0xf4 [all...] |
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
neon-vld-encoding.s | 164 vld3.i8 {d12, d13, d14}, [r6], r1 165 vld3.i16 {d11, d12, d13}, [r7], r2 185 @ CHECK: vld3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x26,0xf4] 186 @ CHECK: vld3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x27,0xf4] 257 vld1.p8 d12[6], [r2]! 258 vld1.i8 d12[6], [r2], r2 259 vld1.u16 d12[3], [r2]! 260 vld1.16 d12[2], [r2], r2 265 @ CHECK: vld1.8 {d12[6]}, [r2]! @ encoding: [0xcd,0xc0,0xa2,0xf4] 266 @ CHECK: vld1.8 {d12[6]}, [r2], r2 @ encoding: [0xc2,0xc0,0xa2,0xf4 [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_horiz_filter_type1_neon.asm | 118 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 153 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 209 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 258 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 322 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 381 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 383 vzip.32 d0, d12 ;vector zip the i iteration and ii
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm | 119 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 154 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 210 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 259 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 323 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 382 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 384 vzip.32 d0, d12 ;vector zip the i iteration and ii
|
vpx_convolve8_horiz_filter_type1_neon.asm | 118 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 361 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 363 vzip.32 d0, d12 ;vector zip the i iteration and ii
|
vpx_convolve8_horiz_filter_type2_neon.asm | 118 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0], 205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 361 vld1.u32 {d12}, [r4], r11 ;vector load pu1_src + src_strd 363 vzip.32 d0, d12 ;vector zip the i iteration and ii
|
/external/vixl/test/aarch32/ |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 407 {{F64, d12, d16, d21}, 408 "F64 d12 d16 d21", 487 {{F64, d20, d12, d17}, 488 "F64 d20 d12 d17", 557 {{F64, d16, d2, d12}, 558 "F64 d16 d2 d12", [all...] |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 407 {{F64, d12, d16, d21}, 408 "F64 d12 d16 d21", 487 {{F64, d20, d12, d17}, 488 "F64 d20 d12 d17", 557 {{F64, d16, d2, d12}, 558 "F64 d16 d2 d12", [all...] |
/external/boringssl/ios-aarch64/crypto/test/ |
trampoline-armv8.S | 40 stp d12, d13, [sp, #48] 56 ldp d12, d13, [x1], #16 101 stp d12, d13, [x1], #16 121 ldp d12, d13, [sp, #48] 465 fmov d12, xzr
|
/external/capstone/suite/MC/ARM/ |
neon-shift-encoding.s.cs | 53 0xb3,0xc1,0x81,0xf2 = vsra.s64 d12, d19, #63 69 0xb3,0xc1,0x81,0xf3 = vsra.u64 d12, d19, #63 85 0xb3,0xc4,0x81,0xf3 = vsri.64 d12, d19, #63 101 0xb3,0xc5,0xbf,0xf3 = vsli.64 d12, d19, #63 192 0x0c,0xc5,0x15,0xf2 = vrshl.s16 d12, d12, d5 package 208 0x1c,0xc0,0x90,0xf2 = vshr.s16 d12, d12, #16 package 224 0x1c,0xc2,0x90,0xf2 = vrshr.s16 d12, d12, #1 package [all...] |