/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 73 // q13 = dst red1 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 91 vmul.u16 q13, q13, q3 // multiply dst red1 by src alpha 97 vadd.u16 q13, q13, q0 // add src red to dst red1 103 vshr.u16 q13, q13, #8 // shift down red1 109 vsli.u16 q11, q13, #11 // shift & insert red1 into blue1
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 60 vshr.s16 q13, q1, #15 88 veor.s16 q11, q13 94 vsub.s16 q11, q13 108 vmul.s16 q13, q7, q11 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 171 vabs.s16 q13, q1 182 vadd.s16 q13, q15 187 vqdmulh.s16 q13, q9 196 vshr.s16 q13, #1 206 veor.s16 q13, q [all...] |
vp8_memcpy_neon.asm | 44 vld1.8 {q12, q13}, [r1]! 47 vst1.8 {q12, q13}, [r0]!
|
subtract_neon.asm | 48 vsubl.u8 q13, d6, d7 88 vsubl.u8 q13, d9, d11 97 vst1.16 {q13}, [r5], r6 145 vsubl.u8 q13, d10, d11 154 vst1.16 {q13}, [r7], r12 181 vsubl.u8 q13, d10, d11 190 vst1.16 {q13}, [r7], r12
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_short_idct16x16_add_neon.asm | 31 vtrn.32 q13, q15 34 vtrn.16 q12, q13 57 vld2.s16 {q12,q13}, [r0]! 58 vld2.s16 {q13,q14}, [r0]! 170 vsub.s32 q13, q2, q0 178 vqrshrn.s32 d18, q13, #14 ; >> 14 188 vmull.s16 q13, d21, d30 196 vmlsl.s16 q13, d29, d31 204 vqrshrn.s32 d21, q13, #14 ; >> 14 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] [all...] |
vp9_short_idct32x32_1_add_neon.asm | 26 vld1.8 {q13}, [$src], $stride 38 vqadd.u8 q13, q13, $diff 50 vqsub.u8 q13, q13, $diff 62 vst1.8 {q13},[$dst], $stride
|
vp9_short_iht8x8_add_neon.asm | 111 vtrn.32 q13, q15 114 vtrn.16 q12, q13 160 vmull.s16 q13, d27, d3 168 vmlal.s16 q13, d23, d2 179 vqrshrn.s32 d13, q13, #14 ; >> 14 186 vmull.s16 q13, d16, d0 194 vmlsl.s16 q13, d24, d0 205 vqrshrn.s32 d22, q13, #14 ; >> 14 233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2 [all...] |
vp9_short_iht4x4_add_neon.asm | 31 vmull.s16 q13, d23, d1 ; (input[0] + input[2]) * cospi_16_64 37 vqrshrn.s32 d26, q13, #14 47 vadd.s16 q8, q13, q14 48 vsub.s16 q9, q13, q14 55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13, 62 vmull.s16 q13, d5, d18 ; s3 = sinpi_4_9 * x2 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 83 vqrshrn.s32 d16, q13, #14
|
vp9_short_idct32x32_add_neon.asm | 57 ; q13 = transposed_buffer[first_offset] 67 vld1.s16 {q13}, [r0] 68 ; (used) two registers (q14, q13) 238 ; Touches q8-q12, q15 (q13-q14 are preserved) 283 ; Touches q8-q12, q15 (q13-q14 are preserved) 375 vld1.s16 {q13}, [r3]! 396 vtrn.32 q13, q15 403 vtrn.16 q12, q13 417 vst1.16 {q13}, [r0]! 482 vsub.s16 q13, q0, q [all...] |
/external/jpeg/ |
jsimd_arm_neon.S | 203 vmul.s16 q5, q5, q13 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 342 vmull.s16 q13, \x16, d1[2] 343 vmlal.s16 q13, \x12, d1[3] 344 vmlal.s16 q13, \x10, d2[0] 345 vmlal.s16 q13, \x6, d2[1] 356 vadd.s32 q10, q14, q13 357 vsub.s32 q14, q14, q13 427 vmul.s16 q6, q6, q13 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 69 VADDL.U8 q13,d7,d6 72 VSRA.U16 q13,q12,#1 80 VQRSHRN.U16 d31,q13,#2 81 VADDL.U8 q13,d11,d10 88 VSRA.U16 q13,q12,#1 95 VQRSHRN.U16 d28,q13,#2
|
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 46 VADDL.U8 q13,d26,d10 66 VQRSHRUN.S16 d26,q13,#5
|
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_interleave_memcpy_neon.s | 90 vld1.8 {q13}, [r12]! 99 vst2.8 {q12, q13}, [r10]!
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
lattice_neon.S | 69 vmull.s32 q13, d1, d29 @ input1 * (*ptr0) 88 vrshrn.i64 d1, q13, #15 108 vmull.s32 q13, d0, d29 @ input1 * (*ptr0) 120 vrshrn.i64 d0, q13, #15
|
lpc_masking_model_neon.S | 38 vmov.s64 q13, #0 @ Initialize sum64. 96 vqadd.s64 q0, q13, q15 @ Sum and test overflow. 98 vshr.s64 q13, #1 100 vadd.s64 q0, q13, q15 104 vmov.s64 q13, q0 @ update sum64. 123 vshr.s64 q13, #1 143 vshr.s64 q13, #1
|
/external/llvm/test/MC/ARM/ |
neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2 [all...] |
neon-v8.s | 9 vminnm.f32 q0, q13, q2 10 @ CHECK: vminnm.f32 q0, q13, q2 @ encoding: [0xd4,0x0f,0x2a,0xf3] 27 vcvtm.u32.f32 q13, q1 28 @ CHECK: vcvtm.u32.f32 q13, q1 @ encoding: [0xc2,0xa3,0xfb,0xf3]
|
thumb-neon-v8.s | 9 vminnm.f32 q0, q13, q2 10 @ CHECK: vminnm.f32 q0, q13, q2 @ encoding: [0x2a,0xff,0xd4,0x0f] 27 vcvtm.u32.f32 q13, q1 28 @ CHECK: vcvtm.u32.f32 q13, q1 @ encoding: [0xfb,0xff,0xc2,0xa3]
|
/external/pixman/pixman/ |
pixman-arm-neon-asm.S | 169 vrshr.u16 q13, q10, #8 172 vraddhn.u16 d20, q10, q13 279 vrshr.u16 q13, q10, #8 286 vraddhn.u16 d20, q10, q13 367 vrshr.u16 q13, q10, #8 370 vraddhn.u16 d20, q10, q13 596 vrshr.u16 q13, q11, #8 600 vraddhn.u16 d31, q13, q11 610 vrshr.u16 q13, q11, #8 617 vraddhn.u16 d31, q13, q1 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 48 vld1.8 {q13}, [r2], r3 161 vsubl.u8 q13, d4, d6 177 vpadal.s16 q8, q13 234 vmov.i8 q13, #0 ;q8 - sum 283 vpadal.s16 q13, q9 ;sum 287 vpadal.s16 q13, q10 ;sum 291 vpadal.s16 q13, q11 ;sum 295 vpadal.s16 q13, q12 ;sum 301 vpadal.s16 q13, q0 ;sum 305 vpadal.s16 q13, q1 ;su [all...] |
vp8_subpixelvariance16x16_neon.asm | 76 vmull.u8 q13, d11, d0 87 vmlal.u8 q13, d11, d1 107 vqrshrn.u16 d20, q13, #7 127 vmull.u8 q13, d8, d0 136 vmlal.u8 q13, d8, d1 167 vqrshrn.u16 d14, q13, #7 264 vmull.u8 q13, d11, d0 275 vmlal.u8 q13, d11, d1 295 vqrshrn.u16 d20, q13, #7 383 vsubl.u8 q13, d2, d [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_ColorMatrix.S | 302 vmovl.u8 q13, d1 /* G */ 309 vmovl.u8 q13, d1 /* G */ 316 vmovl.u8 q13, d1 /* G */ 323 veor q13, q13 334 vqmovun.s16 d1, q13 344 vqmovun.s16 d1, q13 352 vqmovun.s16 d1, q13
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 1046 vshr.u64 q13,q7,#61 1050 vsli.64 q13,q7,#3 1053 veor q15,q13 @ sigma1(X[i+14]) 1054 vshr.u64 q13,q14,#8 1058 vsli.64 q13,q14,#56 1064 veor q15,q13 @ sigma0(X[i+1]) 1136 vshr.u64 q13,q0,#61 1140 vsli.64 q13,q0,#3 1143 veor q15,q13 @ sigma1(X[i+14]) 1144 vshr.u64 q13,q14,# [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 1046 vshr.u64 q13,q7,#61 1050 vsli.64 q13,q7,#3 1053 veor q15,q13 @ sigma1(X[i+14]) 1054 vshr.u64 q13,q14,#8 1058 vsli.64 q13,q14,#56 1064 veor q15,q13 @ sigma0(X[i+1]) 1136 vshr.u64 q13,q0,#61 1140 vsli.64 q13,q0,#3 1143 veor q15,q13 @ sigma1(X[i+14]) 1144 vshr.u64 q13,q14,# [all...] |
/external/chromium_org/third_party/openssl/openssl/crypto/ |
armv4cpuid.S | 109 .word 0xf34aa1fa @ veor q13, q13, q13
|