/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 17 VLD1.8 {d22,d23},[r0],r1 18 VEXT.8 d10,d22,d23,#5 19 VEXT.8 d12,d22,d23,#1 20 VEXT.8 d14,d22,d23,#2 21 VEXT.8 d15,d22,d23,#3 22 VEXT.8 d13,d22,d23,#4
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 87 VEXT.8 d28,d22,d23,#6 89 VEXT.8 d29,d23,d4,#2 90 VEXT.8 d27,d22,d23,#4 91 VEXT.8 d8,d22,d23,#2 95 VADD.I16 d26,d8,d23
|
omxVCM4P10_PredictIntra_16x16_s.S | 202 VPADD.I32 d22,d23,d22 203 VPADD.I32 d23,d25,d24 212 VDUP.16 q7,d23[0] 215 VDUP.16 q11,d23[3]
|
armVCM4P10_DeblockingLuma_unsafe_s.S | 28 VQADD.U8 d23,d5,d18 47 VMIN.U8 d30,d30,d23
|
/external/openssl/crypto/sha/asm/ |
sha512-armv4.s | 448 vldmia r0,{d16-d23} @ load context 463 vadd.i64 d27,d28,d23 480 veor d23,d24,d25 482 veor d23,d26 @ Sigma0(a) 484 vadd.i64 d23,d27 486 vadd.i64 d23,d30 507 vshr.u64 d24,d23,#28 509 vshr.u64 d25,d23,#34 510 vshr.u64 d26,d23,#39 511 vsli.64 d24,d23,#3 [all...] |
/system/core/debuggerd/ |
vfp.S | 30 fconstd d23, #23
|
/external/llvm/test/MC/ARM/ |
neont2-vst-encoding.s | 61 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x40,0xf9] 62 vst4.8 {d17, d19, d21, d23}, [r0, :256]! 65 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x40,0xf9] 66 vst4.16 {d17, d19, d21, d23}, [r0]! 69 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x40,0xf9] 70 vst4.32 {d17, d19, d21, d23}, [r0]! 100 @ CHECK: vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] @ encoding: [0xff,0x17,0xc0,0xf9] 101 vst4.16 {d17[3], d19[3], d21[3], d23[3]}, [r0, :64] 102 @ CHECK: vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xc0,0xf9] 103 vst4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0 [all...] |
neont2-vld-encoding.s | 63 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r0, :256]! @ encoding: [0x3d,0x11,0x60,0xf9] 64 vld4.8 {d17, d19, d21, d23}, [r0, :256]! 67 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r0]! @ encoding: [0x4d,0x11,0x60,0xf9] 68 vld4.16 {d17, d19, d21, d23}, [r0]! 71 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r0]! @ encoding: [0x8d,0x11,0x60,0xf9] 72 vld4.32 {d17, d19, d21, d23}, [r0]! 111 @ CHECK: vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0] @ encoding: [0x4f,0x1b,0xe0,0xf9] 112 vld4.32 {d17[0], d19[0], d21[0], d23[0]}, [r0]
|
neon-vld-encoding.s | 202 vld4.8 {d17, d19, d21, d23}, [r5, :256] 203 vld4.16 {d17, d19, d21, d23}, [r7] 209 vld4.u8 {d17, d19, d21, d23}, [r5, :256]! 210 vld4.u16 {d17, d19, d21, d23}, [r7]! 218 vld4.i32 {d17, d19, d21, d23}, [r9], r4 223 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x65,0xf4] 224 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x67,0xf4] 229 @ CHECK: vld4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x65,0xf4] 230 @ CHECK: vld4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x67,0xf4] 237 @ CHECK: vld4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x69,0xf4 [all...] |
neont2-pairwise-encoding.s | 75 vpmin.f32 d22, d23, d16 83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f] 89 vpmax.u8 d6, d23, d14 97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
|
neon-vst-encoding.s | 105 vst4.8 {d17, d19, d21, d23}, [r5, :256] 106 vst4.16 {d17, d19, d21, d23}, [r7] 112 vst4.u8 {d17, d19, d21, d23}, [r5, :256]! 113 vst4.u16 {d17, d19, d21, d23}, [r7]! 121 vst4.i32 {d17, d19, d21, d23}, [r9], r4 126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256] @ encoding: [0x3f,0x11,0x45,0xf4] 127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4] 132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5, :256]! @ encoding: [0x3d,0x11,0x45,0xf4] 133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4] 140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x49,0xf4 [all...] |
neon-shiftaccum-encoding.s | 75 vrsra.s64 d14, d23, #64 93 vrsra.s64 d23, #64 110 @ CHECK: vrsra.s64 d14, d23, #64 @ encoding: [0xb7,0xe3,0x80,0xf2] 127 @ CHECK: vrsra.s64 d23, d23, #64 @ encoding: [0xb7,0x73,0xc0,0xf2]
|
/external/libvpx/vp8/encoder/arm/neon/ |
variance_neon.asm | 51 vmlal.s16 q10, d23, d23 121 vmlal.s16 q10, d23, d23 182 vmlal.s16 q10, d23, d23 241 vmlal.s16 q10, d23, d23
|
vp8_mse16x16_neon.asm | 50 vmlal.s16 q8, d23, d23 104 vmlal.s16 q10, d23, d23
|
vp8_subpixelvariance8x8_neon.asm | 67 vqrshrn.u16 d23, q7, #7 114 vmull.u8 q2, d23, d0 122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1]) 132 vqrshrn.u16 d23, q2, #7 145 vld1.u8 {d23}, [r0], r1 173 vsubl.u8 q5, d23, d1
|
/external/libvpx/vp8/common/arm/neon/ |
bilinearpredict8x4_neon.asm | 66 vqrshrn.u16 d23, q7, #7 86 vmull.u8 q2, d23, d0 90 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1]) 112 vld1.u8 {d23}, [r0], r1 122 vst1.u8 {d23}, [r4], lr
|
sixtappredict16x16_neon.asm | 228 vld1.u8 {d23}, [lr], r2 ;load src data 244 vmlsl.u8 q4, d23, d4 251 vmlal.u8 q6, d23, d2 253 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 260 vmull.u8 q9, d23, d3 328 vext.8 d23, d10, d11, #1 339 vmlsl.u8 q9, d23, d1 350 vext.8 d23, d9, d10, #2 362 vmlal.u8 q8, d23, d2 418 vld1.u8 {d23}, [r0], r1 ;load src dat [all...] |
sixtappredict8x8_neon.asm | 137 vqrshrun.s16 d23, q8, #7 143 vst1.u8 {d23}, [lr]! 272 vmlsl.u8 q4, d23, d4 279 vmlal.u8 q6, d23, d2 281 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 288 vmull.u8 q9, d23, d3 409 vqrshrun.s16 d23, q8, #7 414 vst1.u8 {d23}, [r4], r5 437 vld1.u8 {d23}, [r0], r1 464 vmlsl.u8 q4, d23, d [all...] |
sixtappredict4x4_neon.asm | 150 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 171 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] 181 vext.8 d31, d22, d23, #4 ;construct src_ptr[2] 191 vext.8 d31, d22, d23, #2 ;construct src_ptr[0] 199 vext.8 d31, d22, d23, #3 ;construct src_ptr[1] 210 vext.8 d23, d27, d28, #4 241 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1]) 379 vext.8 d23, d27, d28, #4 393 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
|
bilinearpredict8x8_neon.asm | 64 vqrshrn.u16 d23, q7, #7 112 vmull.u8 q2, d23, d0 120 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * vp8_filter[1]) 152 vld1.u8 {d23}, [r0], r1 166 vst1.u8 {d23}, [r4], lr
|
/packages/apps/Camera/jni/feature_stab/db_vlvm/ |
db_utilities_poly.h | 300 double d01,d02,d03,d12,d13,d23; local 318 d23=A[2]*A[7]-A[3]*A[6]; 339 C[8]= (A[13]*d23-A[14]*d13+a15 *d12); 340 C[9]= -(A[12]*d23-A[14]*d03+a15 *d02); 344 C[12]= -(A[9]*d23-a10 *d13+A[11]*d12); 345 C[13]= (A[8]*d23-a10 *d03+A[11]*d02);
|
/packages/apps/LegacyCamera/jni/feature_stab/db_vlvm/ |
db_utilities_poly.h | 300 double d01,d02,d03,d12,d13,d23; local 318 d23=A[2]*A[7]-A[3]*A[6]; 339 C[8]= (A[13]*d23-A[14]*d13+a15 *d12); 340 C[9]= -(A[12]*d23-A[14]*d03+a15 *d02); 344 C[12]= -(A[9]*d23-a10 *d13+A[11]*d12); 345 C[13]= (A[8]*d23-a10 *d03+A[11]*d02);
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels 111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst
|
/external/openssl/crypto/bn/asm/ |
armv4-gf2m.s | 140 vmov d23,d0 144 veor d20,d23,d22 150 veor d23,d1 152 vst1.32 {d23[0]},[r0,:32]! 153 vst1.32 {d23[1]},[r0,:32]!
|
/external/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 101 psubd xmm3, xmm6 ; c23 c22 d23 d22 135 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 138 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|