/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels 111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_chroma_mode2.s | 147 vrev64.8 d20,d4 178 vst2.8 {d20,d21},[r9],r5 211 vrev64.8 d20,d4 240 vst2.8 {d20,d21},[r9],r5
|
ihevc_intra_pred_luma_mode_3_to_9.s | 239 vrshrn.i16 d20, q10, #5 @round shft (row 2) 249 vst1.8 d20, [r2], r3 @st (row 2) 283 vrshrn.i16 d20, q10, #5 @round shft (row 6) 286 vst1.8 d20, [r2], r3 @st (row 6) 362 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 376 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6) 414 vrshrn.i16 d20, q10, #5 @round shft (row 2) 427 vst1.8 d20, [r2], r3 @st (row 2) 471 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 473 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6 [all...] |
ihevc_deblk_luma_vert.s | 229 vrshrn.i16 d20,q10,#3 250 vmin.u8 d26,d20,d21 253 vmax.u8 d20,d26,d25 382 vtrn.8 d20,d21 384 vst1.16 {d20[0]},[r0] 386 vst1.16 {d20[1]},[r3],r1 465 vmax.s8 d20,d18,d30 468 vmovl.s8 q8,d20 498 vaddw.s8 q8,q8,d20 554 vsubw.s8 q1,q1,d20 [all...] |
ihevc_intra_pred_chroma_mode_27_to_33.s | 195 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 218 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 261 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 297 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 343 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 360 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 406 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 436 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 523 vld1.8 {d20},[r10] @ref_main_idx 529 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_chroma_mode_3_to_9.s | 236 vrshrn.i16 d20, q10, #5 @round shft (row 2) 246 vst1.8 d20, [r2], r3 @st (row 2) 282 vrshrn.i16 d20, q10, #5 @round shft (row 6) 285 vst1.8 d20, [r2], r3 @st (row 6) 370 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 383 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6) 421 vrshrn.i16 d20, q10, #5 @round shft (row 2) 434 vst1.8 d20, [r2], r3 @st (row 2) 481 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 483 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6 [all...] |
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 306 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 327 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 368 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 404 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 450 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 469 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 513 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 545 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 631 vld1.32 {d20[0]},[r10] @ref_main_idx 637 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 198 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 220 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 263 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 298 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 344 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 361 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 406 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 435 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 522 vld1.32 {d20[0]},[r10] @ref_main_idx 528 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 349 vrshrn.i16 d20, q10, #5 @round shft (row 2) 359 vst1.8 d20, [r2], r3 @st (row 2) 393 vrshrn.i16 d20, q10, #5 @round shft (row 6) 396 vst1.8 d20, [r2], r3 @st (row 6) 471 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 485 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6) 524 vrshrn.i16 d20, q10, #5 @round shft (row 2) 537 vst1.8 d20, [r2], r3 @st (row 2) 580 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 582 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6 [all...] |
ihevc_intra_pred_luma_planar.s | 193 vdup.s8 d20, d4[7] @(1) 197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row] 238 vdup.8 d20, d4[3] @(5) 262 vmlal.u8 q8, d9, d20 @(5) 339 vdup.s8 d20, d4[7] @(1n)(1) 359 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row] 408 vdup.8 d20, d4[3] @(5) 433 vmlal.u8 q8, d9, d20 @(5) 490 vdup.s8 d20, d4[7] @(1n)(1)
|
/system/core/debuggerd/arm/ |
crashglue.S | 40 fconstd d20, #20
|
/external/llvm/test/MC/ARM/ |
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/chromium_org/third_party/boringssl/src/crypto/poly1305/ |
poly1305_arm_asm.S | 231 # asm 2: vld1.8 {<x4=d20},[<input_0=r0,: 64] 232 vld1.8 {d20},[r0,: 64] 509 # asm 2: vmlal.u32 <r4=q15,<x4=d20,<z0=d6 510 vmlal.u32 q15,d20,d6 564 # asm 2: vmlal.u32 <r3=q4,<x4=d20,<5z34=d11 565 vmlal.u32 q4,d20,d11 604 # asm 2: vmlal.u32 <r2=q13,<x4=d20,<5z34=d10 605 vmlal.u32 q13,d20,d10 649 # asm 2: vmlal.u32 <r1=q14,<x4=d20,<5z12=d1 650 vmlal.u32 q14,d20,d [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 98 psubd xmm2, xmm4 ; c21 c20 d21 d20 135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
sixtappredict16x16_neon.asm | 221 vld1.u8 {d20}, [lr], r2 234 vmull.u8 q5, d20, d0 238 vmlsl.u8 q4, d20, d1 247 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2]) 324 vext.8 d20, d6, d7, #1 ;construct src_ptr[-1] 335 vmlsl.u8 q6, d20, d1 ;-(src_ptr[-1] * vp8_filter[1]) 346 vext.8 d20, d7, d8, #5 358 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5]) 411 vld1.u8 {d20}, [r0], r1 424 vmull.u8 q5, d20, d [all...] |
/external/libvpx/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 98 psubd xmm2, xmm4 ; c21 c20 d21 d20 135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|
/external/valgrind/main/none/tests/arm/ |
vfpv4_fma.c | 87 TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687)); 89 TESTINSN_bin_f64("vfma.f64 d20, d31, d12", d20, d31, i32, f2u0(48755), f2u1(48755), d12, i32, f2u0(-45786.476), f2u1(-45786.476)); 104 TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i32, f2u0(0.0), f2u1(0.0)); 137 TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687)); 139 TESTINSN_bin_f64("vfms.f64 d20, d31, d12", d20, d31, i32, f2u0(48755), f2u1(48755), d12, i32, f2u0(-45786.476), f2u1(-45786.476)) [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
sixtappredict16x16_neon.asm | 221 vld1.u8 {d20}, [lr], r2 234 vmull.u8 q5, d20, d0 238 vmlsl.u8 q4, d20, d1 247 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2]) 324 vext.8 d20, d6, d7, #1 ;construct src_ptr[-1] 335 vmlsl.u8 q6, d20, d1 ;-(src_ptr[-1] * vp8_filter[1]) 346 vext.8 d20, d7, d8, #5 358 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5]) 411 vld1.u8 {d20}, [r0], r1 424 vmull.u8 q5, d20, d [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 98 psubd xmm2, xmm4 ; c21 c20 d21 d20 135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_3DLUT.S | 70 vrshrn.u32 d20, q8, #8 84 vshll.u16 q8, d20, #8 86 vmlsl.u16 q8, d20, \xr0
|
rsCpuIntrinsics_neon_Blend.S | 135 vmull.u8 q10, d14, d20 161 vrshrn.u16 d20, q10, #8 179 vmull.u8 q2, d6, d20 279 vmull.u8 q10, d6, d20 326 vmull.u8 q10, d6, d20 366 vmull.u8 q2, d4, d20 457 vld4.8 {d16,d18,d20,d22}, [r1]! 461 vld1.8 {d20-d23}, [r1]! 503 .if \ldsrc ; vld1.64 {d20-d23}, [r1]! ; .endif
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
loopfilter_neon.c | 181 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 218 d20 = vld1_u8(u); 228 q10 = vcombine_u8(d20, d21); 313 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 338 d20 = vld1_u8(s); 363 q10 = vcombine_u8(d20, d21); 428 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 453 d20 = vld1_u8(us); 479 q10 = vcombine_u8(d20, d21);
|
mbloopfilter_neon.c | 215 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 252 d20 = vld1_u8(u); 262 q10 = vcombine_u8(d20, d21); 305 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 344 d20 = vld1_u8(s1); 354 q10 = vcombine_u8(d20, d21); 472 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 511 d20 = vld1_u8(us); 521 q10 = vcombine_u8(d20, d21);
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
omxVCM4P10_PredictIntra_16x16_s.S | 209 VLD1.16 {d20,d21},[r9]! 212 VMULL.S16 q11,d8,d20 213 VMULL.S16 q12,d16,d20 224 VLD1.16 {d20,d21},[r9]!
|
/system/core/debuggerd/arm64/ |
crashglue.S | 55 fmov d20, 20.0
|