/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 212 vqshrn.s32 d28,q14,#6 @right shift 233 vst1.32 {d28},[r9],r3 @stores the loaded value 260 vqshrn.s32 d28,q14,#6 @right shift 282 vst1.32 {d28},[r9],r3 @stores the loaded value 304 vqshrn.s32 d28,q14,#6 @right shift 317 vst1.32 {d28},[r9],r3 @stores the loaded value
|
ihevc_intra_pred_luma_dc.s | 193 vmov d28, r14, r5 @src[2nt+1]+2+src[2nt-1] moved to d28 201 vadd.i64 d14, d13, d28 @src[2nt+1]+2+src[2nt-1]+2dc_val 435 vmov d28, r14, r5 @src[2nt+1]+2+src[2nt-1] moved to d28 445 vadd.i64 d14, d13, d28 @src[2nt+1]+2+src[2nt-1]+2dc_val
|
ihevc_inter_pred_filters_luma_horz.s | 146 vdup.8 d28,d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4) 224 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 237 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 303 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 325 vmlal.u8 q10,d13,d28 354 vmlal.u8 q5,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 377 vmlal.u8 q11,d13,d28 402 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 510 vmlal.u8 q4,d4,d28
|
ihevc_deblk_luma_horz.s | 123 vdup.32 d28,r2 @ 2 value 207 vaddl.u8 q5,d24,d28 222 vaddw.u8 q7,q4,d28 226 vqadd.u8 d30,d28,d1 230 vqsub.u8 d31,d28,d1 242 vaddl.u8 q8,d29,d28 421 @ vdup.32 d28,r11 @ 2 value 521 vaddl.u8 q7,d26,d28
|
ihevc_intra_pred_chroma_mode_27_to_33.s | 182 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 186 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 249 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 252 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 324 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 328 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 396 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 290 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 294 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 354 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 357 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 435 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 439 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 511 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 514 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 293 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 297 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 356 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 359 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 432 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 436 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 505 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 508 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_luma_mode_27_to_33.s | 185 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 189 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 251 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 254 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 325 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 329 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 396 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_inter_pred_luma_horz_w16out.s | 143 vdup.8 d28,d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4) 257 vmlal.u8 q4,d4,d28 318 vmlal.u8 q4,d4,d28 389 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 402 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 470 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 492 vmlal.u8 q10,d13,d28 517 vmlal.u8 q5,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 541 vmlal.u8 q11,d13,d28 565 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4) [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_3DLUT.S | 68 vmlal.u16 q8, d28, \zr0 90 vshrn.u32 d28, q8, #8 179 vmovl.u16 q10, d28
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16_neon.asm | 199 vld1.u8 {d28, d29}, [lr]! 206 vmull.u8 q7, d28, d0 213 vmlal.u8 q5, d28, d1 326 vld1.u8 {d28, d29}, [r0], r1 333 vmull.u8 q7, d28, d0 340 vmlal.u8 q5, d28, d1 399 vmlal.s16 q9, d28, d28
|
/external/pixman/pixman/ |
pixman-android-neon.S | 96 vmull.u8 acc1, reg1, d28 99 vmull.u8 acc2, reg3, d28 117 vmull.u8 q1, d0, d28 250 vdup.u8 d28, WT
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16_neon.asm | 199 vld1.u8 {d28, d29}, [lr]! 206 vmull.u8 q7, d28, d0 213 vmlal.u8 q5, d28, d1 326 vld1.u8 {d28, d29}, [r0], r1 333 vmull.u8 q7, d28, d0 340 vmlal.u8 q5, d28, d1 399 vmlal.s16 q9, d28, d28
|
/system/core/debuggerd/arm64/ |
crashglue.S | 63 fmov d28, 28.0
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 339 vabd.u8 d28, d11, d8 ; abs(q3 - q0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 372 vabd.u8 d28, d0, d7 ; abs(p7 - p0) 379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0)) 406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0) 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 414 vqmovn.s16 d28, q15 416 vand d28, d28, d19 ; filter &= mask 418 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3 [all...] |
vp9_convolve8_avg_neon.asm | 107 vld1.32 {d28[]}, [r0], r1 114 vtrn.16 d28, d31 116 vtrn.8 d28, d29 123 vmovl.u8 q12, d28
|
vp9_convolve8_neon.asm | 107 vld1.32 {d28[]}, [r0], r1 114 vtrn.16 d28, d31 116 vtrn.8 d28, d29 123 vmovl.u8 q12, d28
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 339 vabd.u8 d28, d11, d8 ; abs(q3 - q0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 372 vabd.u8 d28, d0, d7 ; abs(p7 - p0) 379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0)) 406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0) 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 414 vqmovn.s16 d28, q15 416 vand d28, d28, d19 ; filter &= mask 418 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3 [all...] |
vp9_convolve8_avg_neon.asm | 107 vld1.32 {d28[]}, [r0], r1 114 vtrn.16 d28, d31 116 vtrn.8 d28, d29 123 vmovl.u8 q12, d28
|
vp9_convolve8_neon.asm | 107 vld1.32 {d28[]}, [r0], r1 114 vtrn.16 d28, d31 116 vtrn.8 d28, d29 123 vmovl.u8 q12, d28
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 339 vabd.u8 d28, d11, d8 ; abs(q3 - q0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 372 vabd.u8 d28, d0, d7 ; abs(p7 - p0) 379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0)) 406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0) 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 414 vqmovn.s16 d28, q15 416 vand d28, d28, d19 ; filter &= mask 418 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3 [all...] |
vp9_convolve8_avg_neon.asm | 107 vld1.32 {d28[]}, [r0], r1 114 vtrn.16 d28, d31 116 vtrn.8 d28, d29 123 vmovl.u8 q12, d28
|
vp9_convolve8_neon.asm | 107 vld1.32 {d28[]}, [r0], r1 114 vtrn.16 d28, d31 116 vtrn.8 d28, d29 123 vmovl.u8 q12, d28
|
/external/chromium_org/third_party/libjpeg_turbo/simd/ |
jsimd_arm_neon.S | 222 ROW6L .req d28 237 * 6 | d28 | d29 ( q14 ) 251 vld1.16 {d28, d29, d30, d31}, [COEF_BLOCK, :128] 724 * 6 | d28 | d29 ( q14 ) [all...] |
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/ |
cross_correlation_neon.S | 85 vadd.i64 d28, d29 86 vadd.i64 d18, d28
|