HomeSort by relevance Sort by last modified time
    Searched refs:d20 (Results 51 - 75 of 156) sorted by null

1 23 4 5 6 7

  /system/core/libpixelflinger/
col32cb16blend_neon.S 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels
111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst
  /external/libhevc/common/arm/
ihevc_intra_pred_chroma_mode2.s 147 vrev64.8 d20,d4
178 vst2.8 {d20,d21},[r9],r5
211 vrev64.8 d20,d4
240 vst2.8 {d20,d21},[r9],r5
ihevc_intra_pred_luma_mode_3_to_9.s 239 vrshrn.i16 d20, q10, #5 @round shft (row 2)
249 vst1.8 d20, [r2], r3 @st (row 2)
283 vrshrn.i16 d20, q10, #5 @round shft (row 6)
286 vst1.8 d20, [r2], r3 @st (row 6)
362 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
376 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6)
414 vrshrn.i16 d20, q10, #5 @round shft (row 2)
427 vst1.8 d20, [r2], r3 @st (row 2)
471 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
473 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6
    [all...]
ihevc_deblk_luma_vert.s 229 vrshrn.i16 d20,q10,#3
250 vmin.u8 d26,d20,d21
253 vmax.u8 d20,d26,d25
382 vtrn.8 d20,d21
384 vst1.16 {d20[0]},[r0]
386 vst1.16 {d20[1]},[r3],r1
465 vmax.s8 d20,d18,d30
468 vmovl.s8 q8,d20
498 vaddw.s8 q8,q8,d20
554 vsubw.s8 q1,q1,d20
    [all...]
ihevc_intra_pred_chroma_mode_27_to_33.s 195 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx
218 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
261 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx
297 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
343 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx
360 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
406 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx
436 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
523 vld1.8 {d20},[r10] @ref_main_idx
529 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_intra_pred_chroma_mode_3_to_9.s 236 vrshrn.i16 d20, q10, #5 @round shft (row 2)
246 vst1.8 d20, [r2], r3 @st (row 2)
282 vrshrn.i16 d20, q10, #5 @round shft (row 6)
285 vst1.8 d20, [r2], r3 @st (row 6)
370 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
383 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6)
421 vrshrn.i16 d20, q10, #5 @round shft (row 2)
434 vst1.8 d20, [r2], r3 @st (row 2)
481 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
483 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 306 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx
327 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
368 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx
404 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
450 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx
469 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
513 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx
545 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
631 vld1.32 {d20[0]},[r10] @ref_main_idx
637 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 198 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx
220 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
263 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx
298 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
344 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx
361 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
406 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx
435 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
522 vld1.32 {d20[0]},[r10] @ref_main_idx
528 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_intra_pred_filters_luma_mode_11_to_17.s 349 vrshrn.i16 d20, q10, #5 @round shft (row 2)
359 vst1.8 d20, [r2], r3 @st (row 2)
393 vrshrn.i16 d20, q10, #5 @round shft (row 6)
396 vst1.8 d20, [r2], r3 @st (row 6)
471 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
485 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6)
524 vrshrn.i16 d20, q10, #5 @round shft (row 2)
537 vst1.8 d20, [r2], r3 @st (row 2)
580 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6)
582 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6
    [all...]
ihevc_intra_pred_luma_planar.s 193 vdup.s8 d20, d4[7] @(1)
197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row]
238 vdup.8 d20, d4[3] @(5)
262 vmlal.u8 q8, d9, d20 @(5)
339 vdup.s8 d20, d4[7] @(1n)(1)
359 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row]
408 vdup.8 d20, d4[3] @(5)
433 vmlal.u8 q8, d9, d20 @(5)
490 vdup.s8 d20, d4[7] @(1n)(1)
  /system/core/debuggerd/arm/
crashglue.S 40 fconstd d20, #20
  /external/llvm/test/MC/ARM/
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/chromium_org/third_party/boringssl/src/crypto/poly1305/
poly1305_arm_asm.S 231 # asm 2: vld1.8 {<x4=d20},[<input_0=r0,: 64]
232 vld1.8 {d20},[r0,: 64]
509 # asm 2: vmlal.u32 <r4=q15,<x4=d20,<z0=d6
510 vmlal.u32 q15,d20,d6
564 # asm 2: vmlal.u32 <r3=q4,<x4=d20,<5z34=d11
565 vmlal.u32 q4,d20,d11
604 # asm 2: vmlal.u32 <r2=q13,<x4=d20,<5z34=d10
605 vmlal.u32 q13,d20,d10
649 # asm 2: vmlal.u32 <r1=q14,<x4=d20,<5z12=d1
650 vmlal.u32 q14,d20,d
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 98 psubd xmm2, xmm4 ; c21 c20 d21 d20
135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20
138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
  /external/libvpx/libvpx/vp8/common/arm/neon/
sixtappredict16x16_neon.asm 221 vld1.u8 {d20}, [lr], r2
234 vmull.u8 q5, d20, d0
238 vmlsl.u8 q4, d20, d1
247 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2])
324 vext.8 d20, d6, d7, #1 ;construct src_ptr[-1]
335 vmlsl.u8 q6, d20, d1 ;-(src_ptr[-1] * vp8_filter[1])
346 vext.8 d20, d7, d8, #5
358 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5])
411 vld1.u8 {d20}, [r0], r1
424 vmull.u8 q5, d20, d
    [all...]
  /external/libvpx/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 98 psubd xmm2, xmm4 ; c21 c20 d21 d20
135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20
138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
  /external/valgrind/main/none/tests/arm/
vfpv4_fma.c 87 TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687));
89 TESTINSN_bin_f64("vfma.f64 d20, d31, d12", d20, d31, i32, f2u0(48755), f2u1(48755), d12, i32, f2u0(-45786.476), f2u1(-45786.476));
104 TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i32, f2u0(0.0), f2u1(0.0));
137 TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687));
139 TESTINSN_bin_f64("vfms.f64 d20, d31, d12", d20, d31, i32, f2u0(48755), f2u1(48755), d12, i32, f2u0(-45786.476), f2u1(-45786.476))
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
sixtappredict16x16_neon.asm 221 vld1.u8 {d20}, [lr], r2
234 vmull.u8 q5, d20, d0
238 vmlsl.u8 q4, d20, d1
247 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2])
324 vext.8 d20, d6, d7, #1 ;construct src_ptr[-1]
335 vmlsl.u8 q6, d20, d1 ;-(src_ptr[-1] * vp8_filter[1])
346 vext.8 d20, d7, d8, #5
358 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5])
411 vld1.u8 {d20}, [r0], r1
424 vmull.u8 q5, d20, d
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 98 psubd xmm2, xmm4 ; c21 c20 d21 d20
135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20
138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_3DLUT.S 70 vrshrn.u32 d20, q8, #8
84 vshll.u16 q8, d20, #8
86 vmlsl.u16 q8, d20, \xr0
rsCpuIntrinsics_neon_Blend.S 135 vmull.u8 q10, d14, d20
161 vrshrn.u16 d20, q10, #8
179 vmull.u8 q2, d6, d20
279 vmull.u8 q10, d6, d20
326 vmull.u8 q10, d6, d20
366 vmull.u8 q2, d4, d20
457 vld4.8 {d16,d18,d20,d22}, [r1]!
461 vld1.8 {d20-d23}, [r1]!
503 .if \ldsrc ; vld1.64 {d20-d23}, [r1]! ; .endif
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
loopfilter_neon.c 181 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
218 d20 = vld1_u8(u);
228 q10 = vcombine_u8(d20, d21);
313 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
338 d20 = vld1_u8(s);
363 q10 = vcombine_u8(d20, d21);
428 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
453 d20 = vld1_u8(us);
479 q10 = vcombine_u8(d20, d21);
mbloopfilter_neon.c 215 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
252 d20 = vld1_u8(u);
262 q10 = vcombine_u8(d20, d21);
305 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
344 d20 = vld1_u8(s1);
354 q10 = vcombine_u8(d20, d21);
472 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
511 d20 = vld1_u8(us);
521 q10 = vcombine_u8(d20, d21);
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
omxVCM4P10_PredictIntra_16x16_s.S 209 VLD1.16 {d20,d21},[r9]!
212 VMULL.S16 q11,d8,d20
213 VMULL.S16 q12,d16,d20
224 VLD1.16 {d20,d21},[r9]!
  /system/core/debuggerd/arm64/
crashglue.S 55 fmov d20, 20.0

Completed in 1718 milliseconds

1 23 4 5 6 7