/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 73 // q13 = dst red1 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 91 vmul.u16 q13, q13, q3 // multiply dst red1 by src alpha 97 vadd.u16 q13, q13, q0 // add src red to dst red1 103 vshr.u16 q13, q13, #8 // shift down red1 109 vsli.u16 q11, q13, #11 // shift & insert red1 into blue1
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 60 vshr.s16 q13, q1, #15 88 veor.s16 q11, q13 94 vsub.s16 q11, q13 108 vmul.s16 q13, q7, q11 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 171 vabs.s16 q13, q1 182 vadd.s16 q13, q15 187 vqdmulh.s16 q13, q9 196 vshr.s16 q13, #1 206 veor.s16 q13, q [all...] |
vp8_memcpy_neon.asm | 44 vld1.8 {q12, q13}, [r1]! 47 vst1.8 {q12, q13}, [r0]!
|
subtract_neon.asm | 48 vsubl.u8 q13, d6, d7 88 vsubl.u8 q13, d9, d11 97 vst1.16 {q13}, [r5], r6 145 vsubl.u8 q13, d10, d11 154 vst1.16 {q13}, [r7], r12 181 vsubl.u8 q13, d10, d11 190 vst1.16 {q13}, [r7], r12
|
vp8_mse16x16_neon.asm | 45 vsubl.u8 q13, d2, d6 96 vsubl.u8 q13, d2, d6
|
shortfdct_neon.asm | 132 vsub.s16 q13, q1, q2 ; c1 = ip[1] - ip[2] 137 vshl.s16 q13, q13, #3 ; c1 << 3 176 vsub.s16 q13, q1, q2 ; c1 = ip[4] - ip[8]
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 69 VADDL.U8 q13,d7,d6 72 VSRA.U16 q13,q12,#1 80 VQRSHRN.U16 d31,q13,#2 81 VADDL.U8 q13,d11,d10 88 VSRA.U16 q13,q12,#1 95 VQRSHRN.U16 d28,q13,#2
|
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 46 VADDL.U8 q13,d26,d10 66 VQRSHRUN.S16 d26,q13,#5
|
omxVCM4P10_PredictIntra_16x16_s.S | 218 VDUP.16 q13,d1[0] 219 VSUB.I16 q13,q11,q13 222 VADD.I16 q0,q5,q13 223 VADD.I16 q1,q6,q13
|
/external/llvm/test/MC/ARM/ |
neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2 [all...] |
neon-minmax-encoding.s | 23 vmax.u16 q13, q14, q15 53 @ CHECK: vmax.u16 q13, q14, q15 @ encoding: [0xee,0xa6,0x5c,0xf3] 85 vmin.u16 q13, q14, q15 115 @ CHECK: vmin.u16 q13, q14, q15 @ encoding: [0xfe,0xa6,0x5c,0xf3]
|
neont2-minmax-encoding.s | 25 vmax.u16 q13, q14, q15 55 @ CHECK: vmax.u16 q13, q14, q15 @ encoding: [0x5c,0xff,0xee,0xa6] 87 vmin.u16 q13, q14, q15 117 @ CHECK: vmin.u16 q13, q14, q15 @ encoding: [0x5c,0xff,0xfe,0xa6]
|
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_interleave_memcpy_neon.s | 90 vld1.8 {q13}, [r12]! 99 vst2.8 {q12, q13}, [r10]!
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
lattice_neon.S | 69 vmull.s32 q13, d1, d29 @ input1 * (*ptr0) 88 vrshrn.i64 d1, q13, #15 108 vmull.s32 q13, d0, d29 @ input1 * (*ptr0) 120 vrshrn.i64 d0, q13, #15
|
lpc_masking_model_neon.S | 38 vmov.s64 q13, #0 @ Initialize sum64. 96 vqadd.s64 q0, q13, q15 @ Sum and test overflow. 98 vshr.s64 q13, #1 100 vadd.s64 q0, q13, q15 104 vmov.s64 q13, q0 @ update sum64. 123 vshr.s64 q13, #1 143 vshr.s64 q13, #1
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 48 vld1.8 {q13}, [r2], r3 161 vsubl.u8 q13, d4, d6 177 vpadal.s16 q8, q13 234 vmov.i8 q13, #0 ;q8 - sum 283 vpadal.s16 q13, q9 ;sum 287 vpadal.s16 q13, q10 ;sum 291 vpadal.s16 q13, q11 ;sum 295 vpadal.s16 q13, q12 ;sum 301 vpadal.s16 q13, q0 ;sum 305 vpadal.s16 q13, q1 ;su [all...] |
vp8_subpixelvariance16x16_neon.asm | 76 vmull.u8 q13, d11, d0 87 vmlal.u8 q13, d11, d1 107 vqrshrn.u16 d20, q13, #7 127 vmull.u8 q13, d8, d0 136 vmlal.u8 q13, d8, d1 167 vqrshrn.u16 d14, q13, #7 264 vmull.u8 q13, d11, d0 275 vmlal.u8 q13, d11, d1 295 vqrshrn.u16 d20, q13, #7 383 vsubl.u8 q13, d2, d [all...] |
variance_neon.asm | 43 vsubl.u8 q13, d2, d6 58 vpadal.s16 q8, q13 116 vsubl.u8 q13, d2, d6 128 vpadal.s16 q8, q13 236 vsubl.u8 q13, d2, d6 248 vpadal.s16 q8, q13
|
bilinearpredict16x16_neon.asm | 68 vmull.u8 q13, d11, d0 79 vmlal.u8 q13, d11, d1 99 vqrshrn.u16 d20, q13, #7 119 vmull.u8 q13, d8, d0 128 vmlal.u8 q13, d8, d1 159 vqrshrn.u16 d14, q13, #7 253 vmull.u8 q13, d11, d0 264 vmlal.u8 q13, d11, d1 284 vqrshrn.u16 d20, q13, #7
|
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 1046 vshr.u64 q13,q7,#61 1050 vsli.64 q13,q7,#3 1053 veor q15,q13 @ sigma1(X[i+14]) 1054 vshr.u64 q13,q14,#8 1058 vsli.64 q13,q14,#56 1064 veor q15,q13 @ sigma0(X[i+1]) 1136 vshr.u64 q13,q0,#61 1140 vsli.64 q13,q0,#3 1143 veor q15,q13 @ sigma1(X[i+14]) 1144 vshr.u64 q13,q14,# [all...] |
/external/openssl/crypto/ |
armv4cpuid.S | 109 .word 0xf34aa1fa @ veor q13, q13, q13
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon.S | 48 vld1.8 {q13}, [r1], r5 127 vmovl.u8 q13, d1 /* G */ 157 vqmovun.s16 d1, q13 194 vmovl.u8 q13, d1 214 vqmovun.s16 d1, q13 250 vmovl.u8 q13, d1 464 vmov Q13, Q11 @ Copy Q11(Y: n+5, n+6, n+6, n+7) to Q13 468 @ Pixel(4-7) Q11, Q12, Q13 481 vmlal.s16 Q13, d13, d4[3] @ B : Q13 = Q13(Y-16) + (U-128) * 51 [all...] |
/external/libvpx/libvpx/vpx_scale/arm/neon/ |
vp8_vpxyv12_copy_y_neon.asm | 51 vld1.8 {q12, q13}, [r10]! 62 vst1.8 {q12, q13}, [r11]!
|
vp8_vpxyv12_extendframeborders_neon.asm | 57 vmov q13, q12 68 vst1.8 {q12, q13}, [r5], lr 92 vld1.8 {q12, q13}, [r2]! 106 vst1.8 {q12, q13}, [r6]! 180 vst1.8 {q13}, [r6], lr
|
/external/openssl/crypto/modes/asm/ |
ghash-armv4.S | 326 veor q13,q13 352 veor q13,q13 369 veor q10,q13 @ modulo-scheduled part 381 vext.8 q13,q9,q12,#1 @ Qlo>>=8 385 veor q10,q13 @ modulo-scheduled artefact
|