HomeSort by relevance Sort by last modified time
    Searched refs:d23 (Results 1 - 25 of 44) sorted by null

1 2

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 17 VLD1.8 {d22,d23},[r0],r1
18 VEXT.8 d10,d22,d23,#5
19 VEXT.8 d12,d22,d23,#1
20 VEXT.8 d14,d22,d23,#2
21 VEXT.8 d15,d22,d23,#3
22 VEXT.8 d13,d22,d23,#4
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 87 VEXT.8 d28,d22,d23,#6
89 VEXT.8 d29,d23,d4,#2
90 VEXT.8 d27,d22,d23,#4
91 VEXT.8 d8,d22,d23,#2
95 VADD.I16 d26,d8,d23
omxVCM4P10_PredictIntra_16x16_s.S 202 VPADD.I32 d22,d23,d22
203 VPADD.I32 d23,d25,d24
212 VDUP.16 q7,d23[0]
215 VDUP.16 q11,d23[3]
armVCM4P10_DeblockingLuma_unsafe_s.S 28 VQADD.U8 d23,d5,d18
47 VMIN.U8 d30,d30,d23
  /external/openssl/crypto/sha/asm/
sha512-armv4.s 448 vldmia r0,{d16-d23} @ load context
463 vadd.i64 d27,d28,d23
480 veor d23,d24,d25
482 veor d23,d26 @ Sigma0(a)
484 vadd.i64 d23,d27
486 vadd.i64 d23,d30
507 vshr.u64 d24,d23,#28
509 vshr.u64 d25,d23,#34
510 vshr.u64 d26,d23,#39
511 vsli.64 d24,d23,#3
    [all...]
  /system/core/debuggerd/
vfp.S 30 fconstd d23, #23
  /external/llvm/test/MC/ARM/
neont2-vst-encoding.s 61 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x40,0xf9]
62 vst4.8 {d17, d19, d21, d23}, [r0, :256]!
65 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x40,0xf9]
66 vst4.16 {d17, d19, d21, d23}, [r0]!
69 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x40,0xf9]
70 vst4.32 {d17, d19, d21, d23}, [r0]!
100 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] @ encoding: [0xff,0x17,0xc0,0xf9]
101 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64]
102 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xc0,0xf9]
103 vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0
    [all...]
neont2-vld-encoding.s 63 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x60,0xf9]
64 vld4.8 {d17, d19, d21, d23}, [r0, :256]!
67 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x60,0xf9]
68 vld4.16 {d17, d19, d21, d23}, [r0]!
71 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x60,0xf9]
72 vld4.32 {d17, d19, d21, d23}, [r0]!
111 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xe0,0xf9]
112 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
neon-vld-encoding.s 202 vld4.8 {d17, d19, d21, d23}, [r5, :256]
203 vld4.16 {d17, d19, d21, d23}, [r7]
209 vld4.u8 {d17, d19, d21, d23}, [r5, :256]!
210 vld4.u16 {d17, d19, d21, d23}, [r7]!
218 vld4.i32 {d17, d19, d21, d23}, [r9], r4
223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x65,0xf4]
224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4]
229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x65,0xf4]
230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4]
237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x69,0xf4
    [all...]
neont2-pairwise-encoding.s 75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
89 vpmax.u8 d6, d23, d14
97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
neon-vst-encoding.s 105 vst4.8 {d17, d19, d21, d23}, [r5, :256]
106 vst4.16 {d17, d19, d21, d23}, [r7]
112 vst4.u8 {d17, d19, d21, d23}, [r5, :256]!
113 vst4.u16 {d17, d19, d21, d23}, [r7]!
121 vst4.i32 {d17, d19, d21, d23}, [r9], r4
126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x45,0xf4]
127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4]
132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x45,0xf4]
133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4]
140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x49,0xf4
    [all...]
neon-shiftaccum-encoding.s 75 vrsra.s64 d14, d23, #64
93 vrsra.s64 d23, #64
110 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0xb7,0xe3,0x80,0xf2]
127 @ CHECK: vrsra.s64 d23, d23, #64 @ encoding: [0xb7,0x73,0xc0,0xf2]
  /external/libvpx/vp8/encoder/arm/neon/
variance_neon.asm 51 vmlal.s16 q10, d23, d23
121 vmlal.s16 q10, d23, d23
182 vmlal.s16 q10, d23, d23
241 vmlal.s16 q10, d23, d23
vp8_mse16x16_neon.asm 50 vmlal.s16 q8, d23, d23
104 vmlal.s16 q10, d23, d23
vp8_subpixelvariance8x8_neon.asm 67 vqrshrn.u16 d23, q7, #7
114 vmull.u8 q2, d23, d0
122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1])
132 vqrshrn.u16 d23, q2, #7
145 vld1.u8 {d23}, [r0], r1
173 vsubl.u8 q5, d23, d1
  /external/libvpx/vp8/common/arm/neon/
bilinearpredict8x4_neon.asm 66 vqrshrn.u16 d23, q7, #7
86 vmull.u8 q2, d23, d0
90 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1])
112 vld1.u8 {d23}, [r0], r1
122 vst1.u8 {d23}, [r4], lr
sixtappredict16x16_neon.asm 228 vld1.u8 {d23}, [lr], r2 ;load src data
244 vmlsl.u8 q4, d23, d4
251 vmlal.u8 q6, d23, d2
253 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
260 vmull.u8 q9, d23, d3
328 vext.8 d23, d10, d11, #1
339 vmlsl.u8 q9, d23, d1
350 vext.8 d23, d9, d10, #2
362 vmlal.u8 q8, d23, d2
418 vld1.u8 {d23}, [r0], r1 ;load src dat
    [all...]
sixtappredict8x8_neon.asm 137 vqrshrun.s16 d23, q8, #7
143 vst1.u8 {d23}, [lr]!
272 vmlsl.u8 q4, d23, d4
279 vmlal.u8 q6, d23, d2
281 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
288 vmull.u8 q9, d23, d3
409 vqrshrun.s16 d23, q8, #7
414 vst1.u8 {d23}, [r4], r5
437 vld1.u8 {d23}, [r0], r1
464 vmlsl.u8 q4, d23, d
    [all...]
sixtappredict4x4_neon.asm 150 vext.8 d31, d22, d23, #5 ;construct src_ptr[3]
171 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1]
181 vext.8 d31, d22, d23, #4 ;construct src_ptr[2]
191 vext.8 d31, d22, d23, #2 ;construct src_ptr[0]
199 vext.8 d31, d22, d23, #3 ;construct src_ptr[1]
210 vext.8 d23, d27, d28, #4
241 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
379 vext.8 d23, d27, d28, #4
393 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
bilinearpredict8x8_neon.asm 64 vqrshrn.u16 d23, q7, #7
112 vmull.u8 q2, d23, d0
120 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1])
152 vld1.u8 {d23}, [r0], r1
166 vst1.u8 {d23}, [r4], lr
  /packages/apps/Camera/jni/feature_stab/db_vlvm/
db_utilities_poly.h 300 double d01,d02,d03,d12,d13,d23; local
318 d23=A[2]*A[7]-A[3]*A[6];
339 C[8]= (A[13]*d23-A[14]*d13+a15 *d12);
340 C[9]= -(A[12]*d23-A[14]*d03+a15 *d02);
344 C[12]= -(A[9]*d23-a10 *d13+A[11]*d12);
345 C[13]= (A[8]*d23-a10 *d03+A[11]*d02);
  /packages/apps/LegacyCamera/jni/feature_stab/db_vlvm/
db_utilities_poly.h 300 double d01,d02,d03,d12,d13,d23; local
318 d23=A[2]*A[7]-A[3]*A[6];
339 C[8]= (A[13]*d23-A[14]*d13+a15 *d12);
340 C[9]= -(A[12]*d23-A[14]*d03+a15 *d02);
344 C[12]= -(A[9]*d23-a10 *d13+A[11]*d12);
345 C[13]= (A[8]*d23-a10 *d03+A[11]*d02);
  /system/core/libpixelflinger/
col32cb16blend_neon.S 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels
111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst
  /external/openssl/crypto/bn/asm/
armv4-gf2m.s 140 vmov d23,d0
144 veor d20,d23,d22
150 veor d23,d1
152 vst1.32 {d23[0]},[r0,:32]!
153 vst1.32 {d23[1]},[r0,:32]!
  /external/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 101 psubd xmm3, xmm6 ; c23 c22 d23 d22
135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20
138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20

Completed in 660 milliseconds

1 2