HomeSort by relevance Sort by last modified time
    Searched refs:d28 (Results 51 - 75 of 145) sorted by null

1 23 4 5 6

  /external/libhevc/common/arm/
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 212 vqshrn.s32 d28,q14,#6 @right shift
233 vst1.32 {d28},[r9],r3 @stores the loaded value
260 vqshrn.s32 d28,q14,#6 @right shift
282 vst1.32 {d28},[r9],r3 @stores the loaded value
304 vqshrn.s32 d28,q14,#6 @right shift
317 vst1.32 {d28},[r9],r3 @stores the loaded value
ihevc_intra_pred_luma_dc.s 193 vmov d28, r14, r5 @src[2nt+1]+2+src[2nt-1] moved to d28
201 vadd.i64 d14, d13, d28 @src[2nt+1]+2+src[2nt-1]+2dc_val
435 vmov d28, r14, r5 @src[2nt+1]+2+src[2nt-1] moved to d28
445 vadd.i64 d14, d13, d28 @src[2nt+1]+2+src[2nt-1]+2dc_val
ihevc_inter_pred_filters_luma_horz.s 146 vdup.8 d28,d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)
224 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
237 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
303 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
325 vmlal.u8 q10,d13,d28
354 vmlal.u8 q5,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
377 vmlal.u8 q11,d13,d28
402 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
510 vmlal.u8 q4,d4,d28
ihevc_deblk_luma_horz.s 123 vdup.32 d28,r2 @ 2 value
207 vaddl.u8 q5,d24,d28
222 vaddw.u8 q7,q4,d28
226 vqadd.u8 d30,d28,d1
230 vqsub.u8 d31,d28,d1
242 vaddl.u8 q8,d29,d28
421 @ vdup.32 d28,r11 @ 2 value
521 vaddl.u8 q7,d26,d28
ihevc_intra_pred_chroma_mode_27_to_33.s 182 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
186 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
249 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
252 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
324 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
328 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
396 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 290 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
294 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
354 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
357 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
435 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
439 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
511 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
514 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_intra_pred_filters_luma_mode_19_to_25.s 293 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
297 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
356 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
359 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
432 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
436 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
505 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
508 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_intra_pred_luma_mode_27_to_33.s 185 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
189 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
251 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
254 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
325 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
329 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
396 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_inter_pred_luma_horz_w16out.s 143 vdup.8 d28,d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)
257 vmlal.u8 q4,d4,d28
318 vmlal.u8 q4,d4,d28
389 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
402 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
470 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
492 vmlal.u8 q10,d13,d28
517 vmlal.u8 q5,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
541 vmlal.u8 q11,d13,d28
565 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_3DLUT.S 68 vmlal.u16 q8, d28, \zr0
90 vshrn.u32 d28, q8, #8
179 vmovl.u16 q10, d28
  /external/libvpx/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance16x16_neon.asm 199 vld1.u8 {d28, d29}, [lr]!
206 vmull.u8 q7, d28, d0
213 vmlal.u8 q5, d28, d1
326 vld1.u8 {d28, d29}, [r0], r1
333 vmull.u8 q7, d28, d0
340 vmlal.u8 q5, d28, d1
399 vmlal.s16 q9, d28, d28
  /external/pixman/pixman/
pixman-android-neon.S 96 vmull.u8 acc1, reg1, d28
99 vmull.u8 acc2, reg3, d28
117 vmull.u8 q1, d0, d28
250 vdup.u8 d28, WT
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance16x16_neon.asm 199 vld1.u8 {d28, d29}, [lr]!
206 vmull.u8 q7, d28, d0
213 vmlal.u8 q5, d28, d1
326 vld1.u8 {d28, d29}, [r0], r1
333 vmull.u8 q7, d28, d0
340 vmlal.u8 q5, d28, d1
399 vmlal.s16 q9, d28, d28
  /system/core/debuggerd/arm64/
crashglue.S 63 fmov d28, 28.0
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 339 vabd.u8 d28, d11, d8 ; abs(q3 - q0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
372 vabd.u8 d28, d0, d7 ; abs(p7 - p0)
379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0))
406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0)
408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
414 vqmovn.s16 d28, q15
416 vand d28, d28, d19 ; filter &= mask
418 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3
    [all...]
vp9_convolve8_avg_neon.asm 107 vld1.32 {d28[]}, [r0], r1
114 vtrn.16 d28, d31
116 vtrn.8 d28, d29
123 vmovl.u8 q12, d28
vp9_convolve8_neon.asm 107 vld1.32 {d28[]}, [r0], r1
114 vtrn.16 d28, d31
116 vtrn.8 d28, d29
123 vmovl.u8 q12, d28
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 339 vabd.u8 d28, d11, d8 ; abs(q3 - q0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
372 vabd.u8 d28, d0, d7 ; abs(p7 - p0)
379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0))
406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0)
408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
414 vqmovn.s16 d28, q15
416 vand d28, d28, d19 ; filter &= mask
418 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3
    [all...]
vp9_convolve8_avg_neon.asm 107 vld1.32 {d28[]}, [r0], r1
114 vtrn.16 d28, d31
116 vtrn.8 d28, d29
123 vmovl.u8 q12, d28
vp9_convolve8_neon.asm 107 vld1.32 {d28[]}, [r0], r1
114 vtrn.16 d28, d31
116 vtrn.8 d28, d29
123 vmovl.u8 q12, d28
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 339 vabd.u8 d28, d11, d8 ; abs(q3 - q0)
343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0))
372 vabd.u8 d28, d0, d7 ; abs(p7 - p0)
379 vmax.u8 d25, d28, d29 ; max(abs(p7 - p0), abs(q7 - q0))
406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0)
408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
414 vqmovn.s16 d28, q15
416 vand d28, d28, d19 ; filter &= mask
418 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3
    [all...]
vp9_convolve8_avg_neon.asm 107 vld1.32 {d28[]}, [r0], r1
114 vtrn.16 d28, d31
116 vtrn.8 d28, d29
123 vmovl.u8 q12, d28
vp9_convolve8_neon.asm 107 vld1.32 {d28[]}, [r0], r1
114 vtrn.16 d28, d31
116 vtrn.8 d28, d29
123 vmovl.u8 q12, d28
  /external/chromium_org/third_party/libjpeg_turbo/simd/
jsimd_arm_neon.S 222 ROW6L .req d28
237 * 6 | d28 | d29 ( q14 )
251 vld1.16 {d28, d29, d30, d31}, [COEF_BLOCK, :128]
724 * 6 | d28 | d29 ( q14 )
    [all...]
  /external/chromium_org/third_party/webrtc/common_audio/signal_processing/
cross_correlation_neon.S 85 vadd.i64 d28, d29
86 vadd.i64 d18, d28

Completed in 1587 milliseconds

1 23 4 5 6