HomeSort by relevance Sort by last modified time
    Searched refs:d12 (Results 76 - 100 of 202) sorted by null

1 2 34 5 6 7 8 9

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S 56 VMLA.I16 d12,d2,d31
67 VSUB.I16 d12,d12,d8
145 VADDL.S16 q0,d12,d18
149 VADDL.S16 q6,d12,d22
omxVCM4P10_PredictIntra_16x16_s.S 205 VREV64.8 d12,d3
206 VSUBL.U8 q7,d12,d4
207 VSHR.U64 d12,d12,#8
208 VSUBL.U8 q8,d12,d2
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 146 @// row 4 second half - d12 - y4
201 vld1.16 d12,[r0],r5
224 @// vld1.16 d12,[r0]!
365 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1)
407 vqrshrn.s32 d12,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
570 vqrshrn.s32 d12,q0,#shift_stage2_idct
607 vtrn.32 d12,d13 @//r4,r5,r6,r7 fourth qudrant transposing continued.....
626 @// element 4 second four - d12 - y4
735 vmull.s16 q11,d12,d0[0] @// y4 * cos4(part of c0 and c1)
805 vqrshrn.s32 d12,q0,#shift_stage2_idc
    [all...]
ihevc_intra_pred_chroma_mode_27_to_33.s 174 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
186 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
235 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
252 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
312 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
328 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
383 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
494 vdup.8 d12,r5 @dup_const_fract
521 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 286 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
297 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
343 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
359 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
419 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
436 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
492 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
508 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
602 vdup.8 d12,r5 @dup_const_fract
629 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 177 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
189 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
237 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
254 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
313 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
329 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
384 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
399 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
493 vdup.8 d12,r5 @dup_const_fract
520 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract
    [all...]
ihevc_inter_pred_chroma_copy_w16out.s 210 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
214 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
225 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
248 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
263 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
287 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
ihevc_intra_pred_filters_luma_mode_11_to_17.s 312 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
320 vmull.u8 q12, d12, d7 @mul (row 0)
351 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4)
363 vmull.u8 q12, d12, d7 @mul (row 4)
459 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
481 vmull.u8 q12, d12, d7 @mul (row 0)
516 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 4)
533 vmull.u8 q12, d12, d7 @mul (row 4)
642 vtbl.8 d12, {d0,d1}, d8 @load from ref_main_idx (row 0)
646 vmull.u8 q12, d12, d7 @mul (row 0
    [all...]
ihevc_inter_pred_filters_luma_vert_w16inp.s 209 vqshrn.s32 d12, q6, #6
233 vqrshrun.s16 d12,q6,#6
242 vst1.32 {d12[0]},[r14],r6
295 vqshrn.s32 d12, q6, #6
316 vqrshrun.s16 d12,q6,#6
327 vst1.32 {d12[0]},[r14],r6
354 vqshrn.s32 d12, q6, #6
362 vqrshrun.s16 d12,q6,#6
364 vst1.32 {d12[0]},[r14],r6
ihevc_inter_pred_luma_vert_w16inp_w16out.s 246 vshrn.s32 d12, q6, #6
247 @vqrshrun.s16 d12,q6,#6
256 vst1.32 {d12},[r14],r6
333 vshrn.s32 d12, q6, #6
334 @vqrshrun.s16 d12,q6,#6
345 vst1.32 {d12},[r14],r6
383 vshrn.s32 d12, q6, #6
384 @vqrshrun.s16 d12,q6,#6
386 vst1.32 {d12},[r14],r6
  /external/libvpx/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance16x16s_neon.asm 49 vld1.u8 {d12, d13, d14, d15}, [r0], r1
85 vmlal.s16 q9, d12, d12
165 vsubl.u8 q2, d12, d14
247 vld1.u8 {d12, d13, d14, d15}, [r0], r1
275 vsubl.u8 q11, d2, d12
316 vmlal.s16 q14, d12, d12 ;sse
374 vld1.u8 {d12, d13, d14, d15}, [r0], r1
416 vld1.u8 {d12, d13, d14, d15}, [r0], r
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance16x16s_neon.asm 49 vld1.u8 {d12, d13, d14, d15}, [r0], r1
85 vmlal.s16 q9, d12, d12
165 vsubl.u8 q2, d12, d14
247 vld1.u8 {d12, d13, d14, d15}, [r0], r1
275 vsubl.u8 q11, d2, d12
316 vmlal.s16 q14, d12, d12 ;sse
374 vld1.u8 {d12, d13, d14, d15}, [r0], r1
416 vld1.u8 {d12, d13, d14, d15}, [r0], r
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
subtract_neon.asm 89 vsubl.u8 q14, d12, d14
135 vld1.8 {d12}, [r1], r3
146 vsubl.u8 q14, d12, d13
171 vld1.8 {d12}, [r2], r3
182 vsubl.u8 q14, d12, d13
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 97 vrshrn.u16 d12, q2, #8
106 vaddw.u8 q2, d12
143 vrshrn.u16 d12, q2, #8
152 vaddw.u8 q10, d12
187 vrshrn.u16 d12, q2, #8
196 vaddw.u8 q2, d12
226 vrshrn.u16 d12, q2, #8
235 vaddw.u8 q2, d12
374 vrshrn.u16 d12, q2, #8
383 vaddw.u8 q2, d12
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
subtract_neon.asm 89 vsubl.u8 q14, d12, d14
135 vld1.8 {d12}, [r1], r3
146 vsubl.u8 q14, d12, d13
171 vld1.8 {d12}, [r2], r3
182 vsubl.u8 q14, d12, d13
  /external/chromium_org/third_party/libjpeg_turbo/simd/
jsimd_arm_neon.S     [all...]
  /external/llvm/test/MC/ARM/
neon-shift-encoding.s 112 vsra.s64 d12, d19, #63
130 @ CHECK: vsra.s64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf2]
148 vsra.u64 d12, d19, #63
166 @ CHECK: vsra.u64 d12, d19, #63 @ encoding: [0xb3,0xc1,0x81,0xf3]
184 vsri.64 d12, d19, #63
202 @ CHECK: vsri.64 d12, d19, #63 @ encoding: [0xb3,0xc4,0x81,0xf3]
220 vsli.64 d12, d19, #63
238 @ CHECK: vsli.64 d12, d19, #63 @ encoding: [0xb3,0xc5,0xbf,0xf3]
434 vrshl.s16 d12, d5
451 @ CHECK: vrshl.s16 d12, d12, d5 @ encoding: [0x0c,0xc5,0x15,0xf2
    [all...]
invalid-fp-armv8.s 7 vcvtt.f16.f64 s5, d12
8 @ V7-NOT: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 81 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13
86 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12
94 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
  /external/libvpx/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 81 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13
86 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12
94 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 81 pmaddwd xmm1, [GLOBAL(c1)] ; d12 a12 d13 a13
86 pshufd xmm6, xmm1, 0x72 ; d13 d12 a13 a12
94 punpckhqdq xmm6, xmm7 ; c13 c12 d13 d12
  /external/valgrind/main/none/tests/arm/
vfp.c     [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
loopfilter_neon.c 180 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
202 d12 = vld1_u8(u);
224 q6 = vcombine_u8(d12, d13);
312 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
330 d12 = vld1_u8(s);
359 q6 = vcombine_u8(d12, d13);
402 q4ResultL.val[1] = vget_low_u8(q6); // d12
427 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
445 d12 = vld1_u8(us);
475 q6 = vcombine_u8(d12, d13)
    [all...]
mbloopfilter_neon.c 214 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
236 d12 = vld1_u8(u);
258 q6 = vcombine_u8(d12, d13);
304 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
328 d12 = vld1_u8(s1);
350 q6 = vcombine_u8(d12, d13);
471 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
495 d12 = vld1_u8(us);
517 q6 = vcombine_u8(d12, d13);
  /external/chromium_org/third_party/openmax_dl/dl/sp/src/arm/neon/
armSP_FFT_CToC_FC32_Radix2_ls_unsafe_s.S 74 #define qT1 d12.f32

Completed in 594 milliseconds

1 2 34 5 6 7 8 9