/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S | 56 VMLA.I16 d12,d2,d31 67 VSUB.I16 d12,d12,d8 145 VADDL.S16 q0,d12,d18 149 VADDL.S16 q6,d12,d22
|
omxVCM4P10_PredictIntra_16x16_s.S | 205 VREV64.8 d12,d3 206 VSUBL.U8 q7,d12,d4 207 VSHR.U64 d12,d12,#8 208 VSUBL.U8 q8,d12,d2
|
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 146 @// row 4 second half - d12 - y4 201 vld1.16 d12,[r0],r5 224 @// vld1.16 d12,[r0]! 365 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1) 407 vqrshrn.s32 d12,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct) 570 vqrshrn.s32 d12,q0,#shift_stage2_idct 607 vtrn.32 d12,d13 @//r4,r5,r6,r7 fourth qudrant transposing continued..... 626 @// element 4 second four - d12 - y4 735 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1) 805 vqrshrn.s32 d12,q0,#shift_stage2_idc [all...] |
ihevc_intra_pred_chroma_mode_27_to_33.s | 174 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 186 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 235 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 252 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 312 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 328 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 383 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 494 vdup.8 d12,r5 @dup_const_fract 521 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract [all...] |
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 286 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 297 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 343 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 359 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 419 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 436 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 492 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 508 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 602 vdup.8 d12,r5 @dup_const_fract 629 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 177 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 189 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 237 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 254 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 313 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 329 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 384 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 493 vdup.8 d12,r5 @dup_const_fract 520 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract [all...] |
ihevc_inter_pred_chroma_copy_w16out.s | 210 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 214 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 225 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 248 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 263 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 287 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
|
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 312 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 320 vmull.u8 q12, d12, d7 @mul (row 0) 351 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4) 363 vmull.u8 q12, d12, d7 @mul (row 4) 459 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 481 vmull.u8 q12, d12, d7 @mul (row 0) 516 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4) 533 vmull.u8 q12, d12, d7 @mul (row 4) 642 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0) 646 vmull.u8 q12, d12, d7 @mul (row 0 [all...] |
ihevc_inter_pred_filters_luma_vert_w16inp.s | 209 vqshrn.s32 d12, q6, #6 233 vqrshrun.s16 d12,q6,#6 242 vst1.32 {d12[0]},[r14],r6 295 vqshrn.s32 d12, q6, #6 316 vqrshrun.s16 d12,q6,#6 327 vst1.32 {d12[0]},[r14],r6 354 vqshrn.s32 d12, q6, #6 362 vqrshrun.s16 d12,q6,#6 364 vst1.32 {d12[0]},[r14],r6
|
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 246 vshrn.s32 d12, q6, #6 247 @vqrshrun.s16 d12,q6,#6 256 vst1.32 {d12},[r14],r6 333 vshrn.s32 d12, q6, #6 334 @vqrshrun.s16 d12,q6,#6 345 vst1.32 {d12},[r14],r6 383 vshrn.s32 d12, q6, #6 384 @vqrshrun.s16 d12,q6,#6 386 vst1.32 {d12},[r14],r6
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 49 vld1.u8 {d12, d13, d14, d15}, [r0], r1 85 vmlal.s16 q9, d12, d12 165 vsubl.u8 q2, d12, d14 247 vld1.u8 {d12, d13, d14, d15}, [r0], r1 275 vsubl.u8 q11, d2, d12 316 vmlal.s16 q14, d12, d12 ;sse 374 vld1.u8 {d12, d13, d14, d15}, [r0], r1 416 vld1.u8 {d12, d13, d14, d15}, [r0], r [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 49 vld1.u8 {d12, d13, d14, d15}, [r0], r1 85 vmlal.s16 q9, d12, d12 165 vsubl.u8 q2, d12, d14 247 vld1.u8 {d12, d13, d14, d15}, [r0], r1 275 vsubl.u8 q11, d2, d12 316 vmlal.s16 q14, d12, d12 ;sse 374 vld1.u8 {d12, d13, d14, d15}, [r0], r1 416 vld1.u8 {d12, d13, d14, d15}, [r0], r [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
subtract_neon.asm | 89 vsubl.u8 q14, d12, d14 135 vld1.8 {d12}, [r1], r3 146 vsubl.u8 q14, d12, d13 171 vld1.8 {d12}, [r2], r3 182 vsubl.u8 q14, d12, d13
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blend.S | 97 vrshrn.u16 d12, q2, #8 106 vaddw.u8 q2, d12 143 vrshrn.u16 d12, q2, #8 152 vaddw.u8 q10, d12 187 vrshrn.u16 d12, q2, #8 196 vaddw.u8 q2, d12 226 vrshrn.u16 d12, q2, #8 235 vaddw.u8 q2, d12 374 vrshrn.u16 d12, q2, #8 383 vaddw.u8 q2, d12 [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
subtract_neon.asm | 89 vsubl.u8 q14, d12, d14 135 vld1.8 {d12}, [r1], r3 146 vsubl.u8 q14, d12, d13 171 vld1.8 {d12}, [r2], r3 182 vsubl.u8 q14, d12, d13
|
/external/chromium_org/third_party/libjpeg_turbo/simd/ |
jsimd_arm_neon.S | [all...] |
/external/llvm/test/MC/ARM/ |
neon-shift-encoding.s | 112 vsra.s64 d12, d19, #63 130 @ CHECK: vsra.s64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf2] 148 vsra.u64 d12, d19, #63 166 @ CHECK: vsra.u64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf3] 184 vsri.64 d12, d19, #63 202 @ CHECK: vsri.64 d12, d19, #63 @ encoding: [0xb3,0xc4,0x81,0xf3] 220 vsli.64 d12, d19, #63 238 @ CHECK: vsli.64 d12, d19, #63 @ encoding: [0xb3,0xc5,0xbf,0xf3] 434 vrshl.s16 d12, d5 451 @ CHECK: vrshl.s16 d12, d12, d5 @ encoding: [0x0c,0xc5,0x15,0xf2 [all...] |
invalid-fp-armv8.s | 7 vcvtt.f16.f64 s5, d12 8 @ V7-NOT: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 81 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13 86 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12 94 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
|
/external/libvpx/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 81 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13 86 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12 94 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 81 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13 86 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12 94 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
|
/external/valgrind/main/none/tests/arm/ |
vfp.c | [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
loopfilter_neon.c | 180 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 202 d12 = vld1_u8(u); 224 q6 = vcombine_u8(d12, d13); 312 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 330 d12 = vld1_u8(s); 359 q6 = vcombine_u8(d12, d13); 402 q4ResultL.val[1] = vget_low_u8(q6); // d12 427 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 445 d12 = vld1_u8(us); 475 q6 = vcombine_u8(d12, d13) [all...] |
mbloopfilter_neon.c | 214 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 236 d12 = vld1_u8(u); 258 q6 = vcombine_u8(d12, d13); 304 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 328 d12 = vld1_u8(s1); 350 q6 = vcombine_u8(d12, d13); 471 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local 495 d12 = vld1_u8(us); 517 q6 = vcombine_u8(d12, d13);
|
/external/chromium_org/third_party/openmax_dl/dl/sp/src/arm/neon/ |
armSP_FFT_CToC_FC32_Radix2_ls_unsafe_s.S | 74 #define qT1 d12.f32
|