/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_vert.s | 263 vqrshrun.s16 d28,q14,#6 276 vst1.8 {d28},[r7],r3 @stores the loaded value 326 vqrshrun.s16 d28,q14,#6 342 vst1.8 {d28},[r7],r3 @stores the loaded value 370 vqrshrun.s16 d28,q14,#6 377 vst1.8 {d28},[r7],r3 @stores the loaded value
|
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 218 vqshrn.s32 d28,q14,#6 @right shift 239 vst1.32 {d28},[r9],r3 @stores the loaded value 266 vqshrn.s32 d28,q14,#6 @right shift 288 vst1.32 {d28},[r9],r3 @stores the loaded value 310 vqshrn.s32 d28,q14,#6 @right shift 323 vst1.32 {d28},[r9],r3 @stores the loaded value
|
ihevc_intra_pred_luma_dc.s | 195 vmov d28, r14, r5 @src[2nt+1]+2+src[2nt-1] moved to d28 203 vadd.i64 d14, d13, d28 @src[2nt+1]+2+src[2nt-1]+2dc_val 437 vmov d28, r14, r5 @src[2nt+1]+2+src[2nt-1] moved to d28 447 vadd.i64 d14, d13, d28 @src[2nt+1]+2+src[2nt-1]+2dc_val
|
ihevc_inter_pred_filters_luma_horz.s | 151 vdup.8 d28,d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4) 229 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 242 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 310 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 332 vmlal.u8 q10,d13,d28 364 vmlal.u8 q5,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 386 vmlal.u8 q11,d13,d28 410 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 519 vmlal.u8 q4,d4,d28
|
ihevc_deblk_luma_horz.s | 131 vdup.32 d28,r2 @ 2 value 215 vaddl.u8 q5,d24,d28 230 vaddw.u8 q7,q4,d28 234 vqadd.u8 d30,d28,d1 238 vqsub.u8 d31,d28,d1 250 vaddl.u8 q8,d29,d28 430 @ vdup.32 d28,r11 @ 2 value 530 vaddl.u8 q7,d26,d28
|
ihevc_intra_pred_chroma_mode_27_to_33.s | 186 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 190 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 253 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 256 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 328 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 332 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 400 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 403 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 294 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 298 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 358 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 361 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 439 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 443 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 515 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 518 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_luma_mode_27_to_33.s | 188 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 192 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 254 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 257 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 328 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract) 332 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 399 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract) 402 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_inter_pred_luma_horz_w16out.s | 148 vdup.8 d28,d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4) 262 vmlal.u8 q4,d4,d28 322 vmlal.u8 q4,d4,d28 393 vmlal.u8 q4,d4,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 406 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 473 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 495 vmlal.u8 q10,d13,d28 520 vmlal.u8 q5,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 544 vmlal.u8 q11,d13,d28 568 vmlal.u8 q4,d12,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4) [all...] |
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
loopfilter_8_neon.asm.S | 271 vabd.u8 d28, d18, d7 @ m11 = abs(q3 - q0) 283 vmax.u8 d26, d27, d28 @ m5 = max(m10, m11) 334 vsub.s8 d28, d21, d24 @ ( qs0 - ps0) 338 vmull.s8 q15, d28, d27 @ 3 * ( qs0 - ps0) 347 vqmovn.s16 d28, q15 349 vand d28, d28, d19 @ filter &= mask 351 vqadd.s8 d30, d28, d27 @ filter2 = clamp(filter+3) 352 vqadd.s8 d29, d28, d29 @ filter1 = clamp(filter+4)
|
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S | 64 vdup.8 d28, d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 146 vmlal.u8 q5, d16, d28 @mul_res = vmlal_u8(src[0_4], 216 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 239 vmlal.u8 q10, d13, d28 265 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 288 vmlal.u8 q11, d13, d28 329 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 413 vmlal.u8 q4, d4, d28
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S | 64 vdup.8 d28, d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 127 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 147 vmlal.u8 q5, d16, d28 @mul_res = vmlal_u8(src[0_4], 217 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 240 vmlal.u8 q10, d13, d28 266 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 289 vmlal.u8 q11, d13, d28 330 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 414 vmlal.u8 q4, d4, d28
|
vpx_convolve8_horiz_filter_type1_neon.asm.S | 63 vdup.8 d28, d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 146 vmlal.u8 q5, d16, d28 @mul_res = vmlal_u8(src[0_4], 212 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 235 vmlal.u8 q10, d13, d28 258 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 282 vmlal.u8 q11, d13, d28 314 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 393 vmlal.u8 q4, d4, d28
|
vpx_convolve8_horiz_filter_type2_neon.asm.S | 64 vdup.8 d28, d2[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 126 vmlal.u8 q4, d4, d28 @mul_res = vmlal_u8(src[0_4], 146 vmlal.u8 q5, d16, d28 @mul_res = vmlal_u8(src[0_4], 212 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 235 vmlal.u8 q10, d13, d28 258 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 282 vmlal.u8 q11, d13, d28 314 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 393 vmlal.u8 q4, d4, d28
|
loopfilter_4_neon.asm.S | 197 vabd.u8 d28, d5, d16 @ a = abs(p1 - q1) 207 vshr.u8 d28, d28, #1 @ a = a / 2 211 vqadd.u8 d17, d17, d28 @ a = b + a 217 vsub.s8 d28, d7, d6 @ ( qs0 - ps0) 224 vmull.s8 q12, d28, d19 @ 3 * ( qs0 - ps0) 238 vqadd.s8 d28, d27, d19 @ filter2 = clamp(filter+3) 240 vshr.s8 d28, d28, #3 @ filter2 >>= 3 243 vqadd.s8 d19, d6, d28 @ u = clamp(ps0 + filter2 [all...] |
/external/libavc/common/arm/ |
ih264_intra_pred_chroma_a9q.s | 478 vqrshrun.s16 d28, q12, #5 483 vqrshrun.s16 d28, q1, #5 491 vqrshrun.s16 d28, q12, #5 499 vqrshrun.s16 d28, q1, #5 507 vqrshrun.s16 d28, q12, #5 515 vqrshrun.s16 d28, q1, #5 523 vqrshrun.s16 d28, q12, #5 530 vqrshrun.s16 d28, q1, #5
|
ih264_ihadamard_scaling_a9.s | 216 vld1.u16 d28[0], [sp] @load qp/6 221 vsubl.u16 q14, d28, d29 @qp\6 - 5 222 vdup.s32 q14, d28[0]
|
ih264_inter_pred_filters_luma_vert_a9q.s | 236 vqrshrun.s16 d28, q6, #5 237 vst1.u32 d28, [r1], r3 286 vqrshrun.s16 d28, q6, #5 287 vst1.u32 d28[0], [r1], r3
|
/external/llvm/test/MC/ARM/ |
pr22395.s | 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
neont2-pairwise-encoding.s | 70 vpmin.s16 d17, d28, d11 78 @ CHECK: vpmin.s16 d17, d28, d11 @ encoding: [0x5c,0xef,0x9b,0x1a]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
pr22395.s | 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_8_neon.asm | 257 vabd.u8 d28, d18, d7 ; m11 = abs(q3 - q0) 269 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11) 320 vsub.s8 d28, d21, d24 ; ( qs0 - ps0) 324 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 333 vqmovn.s16 d28, q15 335 vand d28, d28, d19 ; filter &= mask 337 vqadd.s8 d30, d28, d27 ; filter2 = clamp(filter+3) 338 vqadd.s8 d29, d28, d29 ; filter1 = clamp(filter+4)
|
/external/libpng/arm/ |
filter_neon.S | 186 vmovn.u16 d28, q14 188 vbsl d28, \rb, \rc 189 vbsl \rx, \ra, d28
|
/external/pdfium/third_party/libpng16/arm/ |
filter_neon.S | 186 vmovn.u16 d28, q14 188 vbsl d28, \rb, \rc 189 vbsl \rx, \ra, d28
|
/external/libjpeg-turbo/simd/arm/ |
jsimd_neon.S | 227 ROW6L .req d28 242 * 6 | d28 | d29 ( q14 ) 256 vld1.16 {d28, d29, d30, d31}, [COEF_BLOCK, :128] 731 * 6 | d28 | d29 ( q14 ) 745 vld1.16 {d28, d29, d30, d31}, [COEF_BLOCK, :128] 803 vswp d28, d21 [all...] |