/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 73 // q13 = dst red1 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 91 vmul.u16 q13, q13, q3 // multiply dst red1 by src alpha 97 vadd.u16 q13, q13, q0 // add src red to dst red1 103 vshr.u16 q13, q13, #8 // shift down red1 109 vsli.u16 q11, q13, #11 // shift & insert red1 into blue1
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 69 VADDL.U8 q13,d7,d6 72 VSRA.U16 q13,q12,#1 80 VQRSHRN.U16 d31,q13,#2 81 VADDL.U8 q13,d11,d10 88 VSRA.U16 q13,q12,#1 95 VQRSHRN.U16 d28,q13,#2
|
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 46 VADDL.U8 q13,d26,d10 66 VQRSHRUN.S16 d26,q13,#5
|
omxVCM4P10_PredictIntra_16x16_s.S | 218 VDUP.16 q13,d1[0] 219 VSUB.I16 q13,q11,q13 222 VADD.I16 q0,q5,q13 223 VADD.I16 q1,q6,q13
|
/external/libvpx/vp8/encoder/arm/neon/ |
subtract_neon.asm | 48 vsubl.u8 q13, d6, d7 83 vsubl.u8 q13, d9, d11 92 vst1.16 {q13}, [r0]! 133 vsubl.u8 q13, d10, d11 142 vst1.16 {q13}, [r0]! 169 vsubl.u8 q13, d10, d11 178 vst1.16 {q13}, [r0]!
|
vp8_memcpy_neon.asm | 42 vld1.8 {q12, q13}, [r1]! 45 vst1.8 {q12, q13}, [r0]!
|
shortfdct_neon.asm | 36 vmull.s16 q13, d4, d2[0] ;i=2 41 vmlal.s16 q13, d5, d2[1] 46 vmlal.s16 q13, d6, d2[2] 51 vmlal.s16 q13, d7, d2[3] ;sumtemp for i=2 57 vrshrn.i32 d26, q13, #14
|
vp8_subpixelvariance16x16s_neon.asm | 48 vld1.8 {q13}, [r2], r3 161 vsubl.u8 q13, d4, d6 177 vpadal.s16 q8, q13 234 vmov.i8 q13, #0 ;q8 - sum 283 vpadal.s16 q13, q9 ;sum 287 vpadal.s16 q13, q10 ;sum 291 vpadal.s16 q13, q11 ;sum 295 vpadal.s16 q13, q12 ;sum 301 vpadal.s16 q13, q0 ;sum 305 vpadal.s16 q13, q1 ;su [all...] |
vp8_mse16x16_neon.asm | 46 vsubl.u8 q13, d2, d6 99 vsubl.u8 q13, d2, d6 111 vpadal.s16 q8, q13 153 vsubl.u8 q13, d2, d6
|
vp8_subpixelvariance16x16_neon.asm | 71 vmull.u8 q13, d11, d0 82 vmlal.u8 q13, d11, d1 102 vqrshrn.u16 d20, q13, #7 122 vmull.u8 q13, d8, d0 131 vmlal.u8 q13, d8, d1 162 vqrshrn.u16 d14, q13, #7 259 vmull.u8 q13, d11, d0 270 vmlal.u8 q13, d11, d1 290 vqrshrn.u16 d20, q13, #7 378 vsubl.u8 q13, d2, d [all...] |
fastfdct8x4_neon.asm | 70 vqdmulh.s16 q13, q12, d0[1] 77 vshr.s16 q13, q13, #1 121 vqdmulh.s16 q13, q11, d0[1] 128 vshr.s16 q13, q13, #1
|
variance_neon.asm | 43 vsubl.u8 q13, d2, d6 58 vpadal.s16 q8, q13 116 vsubl.u8 q13, d2, d6 128 vpadal.s16 q8, q13 236 vsubl.u8 q13, d2, d6 248 vpadal.s16 q8, q13
|
/external/llvm/test/MC/ARM/ |
neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2 [all...] |
neon-minmax-encoding.s | 23 vmax.u16 q13, q14, q15 53 @ CHECK: vmax.u16 q13, q14, q15 @ encoding: [0xee,0xa6,0x5c,0xf3] 85 vmin.u16 q13, q14, q15 115 @ CHECK: vmin.u16 q13, q14, q15 @ encoding: [0xfe,0xa6,0x5c,0xf3]
|
/external/libvpx/vp8/common/arm/neon/ |
loopfiltersimpleverticaledge_neon.asm | 33 vld1.s8 {d26[], d27[]}, [r3] ; limit -> q13 74 vadd.u8 q1, q1, q13 ; flimit * 2 + limit 81 vsubl.s8 q13, d9, d11 87 vadd.s16 q14, q13, q13 89 vadd.s16 q13, q13, q14 93 vaddw.s8 q13, q13, d3 96 vqmovn.s16 d3, q13 [all...] |
mbloopfilter_neon.asm | 380 vabd.u8 q13, q5, q6 ; abs(p1 - p0) 386 vmax.u8 q12, q13, q14 393 vcgt.u8 q13, q13, q2 ; (abs(p1 - p0) > thresh) * -1 420 vorr q14, q13, q14 ; vp8_hevmask 423 vsubl.s8 q13, d15, d13 428 vadd.s16 q11, q13, q13 432 vadd.s16 q13, q13, q1 [all...] |
recon16x16mb_neon.asm | 30 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 42 vld1.16 {q12, q13}, [r1]! 55 vadd.s16 q5, q5, q13 81 vld1.u8 {q12, q13}, [r0]! ;load data from pred_ptr 93 vld1.16 {q12, q13}, [r1]! 102 vadd.s16 q5, q5, q13
|
bilinearpredict16x16_neon.asm | 68 vmull.u8 q13, d11, d0 79 vmlal.u8 q13, d11, d1 99 vqrshrn.u16 d20, q13, #7 119 vmull.u8 q13, d8, d0 128 vmlal.u8 q13, d8, d1 159 vqrshrn.u16 d14, q13, #7 253 vmull.u8 q13, d11, d0 264 vmlal.u8 q13, d11, d1 284 vqrshrn.u16 d20, q13, #7
|
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_interleave_memcpy_neon.s | 90 vld1.8 {q13}, [r12]! 99 vst2.8 {q12, q13}, [r10]!
|
/frameworks/rs/driver/ |
rsdIntrinsics_Convolve.S | 48 vld1.8 {q13}, [r1], r5 128 vmovl.u8 q13, d1 /* G */ 158 vqmovun.s16 d1, q13 196 vmovl.u8 q13, d1 216 vqmovun.s16 d1, q13 253 vmovl.u8 q13, d1 423 vmov q13, q11 432 vmlal.s16 q13, d15, d4[3] 449 vshrn.i32 d20, q13, #8 515 vmovl.u8 q13, d2 [all...] |
/frameworks/support/renderscript/v8/rs_support/driver/ |
rsdIntrinsics_Convolve.S | 48 vld1.8 {q13}, [r1], r5 128 vmovl.u8 q13, d1 /* G */ 158 vqmovun.s16 d1, q13 196 vmovl.u8 q13, d1 216 vqmovun.s16 d1, q13 253 vmovl.u8 q13, d1 423 vmov q13, q11 432 vmlal.s16 q13, d15, d4[3] 449 vshrn.i32 d20, q13, #8 515 vmovl.u8 q13, d2 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.s | 1046 vshr.u64 q13,q7,#61 1050 vsli.64 q13,q7,#3 1053 veor q15,q13 @ sigma1(X[i+14]) 1054 vshr.u64 q13,q14,#8 1058 vsli.64 q13,q14,#56 1064 veor q15,q13 @ sigma0(X[i+1]) 1136 vshr.u64 q13,q0,#61 1140 vsli.64 q13,q0,#3 1143 veor q15,q13 @ sigma1(X[i+14]) 1144 vshr.u64 q13,q14,# [all...] |
/external/openssl/crypto/ |
armv4cpuid.S | 109 .word 0xf34aa1fa @ veor q13, q13, q13
|
/external/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copyframeyonly_neon.asm | 53 vld1.8 {q12, q13}, [r10]! 64 vst1.8 {q12, q13}, [r11]! 125 vmov q13, q12 136 vst1.8 {q12, q13}, [r5], lr 158 vld1.8 {q12, q13}, [r2]! 172 vst1.8 {q12, q13}, [r6]! 288 vld1.8 {q12, q13}, [r2]! 302 vst1.8 {q12, q13}, [r6]! 430 vld1.8 {q12, q13}, [r10]! 441 vst1.8 {q12, q13}, [r11] [all...] |
/external/valgrind/main/none/tests/arm/ |
neon128.c | 362 TESTINSN_imm("vmov.i32 q13", q13, 0x7FF); 375 TESTINSN_imm("vmvn.i32 q13", q13, 0x7000000); 422 TESTINSN_bin("vadd.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); 435 TESTINSN_bin("vsub.i64 q13, q14, q15", q13, q14, i32, 140, q15, i32, 120); [all...] |