/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0) 410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0) 414 vqmovn.s16 d28, q15 446 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0 447 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3 448 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2 450 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2 452 vqrshrn.u16 d18, q15, #3 ; r_op2 454 vsub.i16 q15, q1 [all...] |
vp9_short_idct32x32_1_add_neon.asm | 28 vld1.8 {q15}, [$src], $stride 40 vqadd.u8 q15, q15, $diff 52 vqsub.u8 q15, q15, $diff 64 vst1.8 {q15},[$dst], $stride
|
vp9_short_iht4x4_add_neon.asm | 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use 29 vmull.s16 q15, d17, d2 ; input[1] * cospi_24_64 33 vmlsl.s16 q15, d19, d0 ; input[1] * cospi_24_64 - input[3] * cospi_8_64 39 vqrshrn.s32 d29, q15, #14 56 ; q14,q15 registers and use them as buffer during calculation. 64 vmovl.s16 q15, d16 ; expand x0 from 16 bit to 32 bit 65 vaddw.s16 q15, q15, d19 ; x0 + x3 67 vsubw.s16 q15, q15, d18 ; s7 = x0 + x3 - x [all...] |
vp9_short_iht8x8_add_neon.asm | 101 ; Transpose a 8x8 16bits data matrix. Datas are loaded in q8-q15. 111 vtrn.32 q13, q15 115 vtrn.16 q14, q15 119 ; loaded in q8-q15. The IDCT constants are loaded in r3 - r9. The output 120 ; will be stored back into q8-q15 registers. This macro will touch q0-q7 187 vmull.s16 q15, d17, d0 195 vmlsl.s16 q15, d25, d0 206 vqrshrn.s32 d23, q15, #14 ; >> 14 232 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3 [all...] |
vp9_short_idct16x16_add_neon.asm | 21 ; Transpose a 8x8 16bit data matrix. Datas are loaded in q8-q15. 31 vtrn.32 q13, q15 35 vtrn.16 q14, q15 46 ; idct16 stage1 - stage6 on all the elements loaded in q8-q15. The output 47 ; will be stored back into q8-q15 registers. This function will touch q0-q7 52 ; load elements of 0, 2, 4, 6, 8, 10, 12, 14 into q8 - q15 59 vld2.s16 {q14,q15}, [r0]! 61 vmov.s16 q15, q1 129 vmull.s16 q15, d27, d3 137 vmlal.s16 q15, d23, d [all...] |
vp9_convolve8_avg_neon.asm | 122 vtrn.32 q14, q15 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 148 vqrshrun.s32 d5, q15, #7 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 267 vqrshrun.s32 d5, q15, #7
|
vp9_convolve8_neon.asm | 122 vtrn.32 q14, q15 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 140 vqrshrun.s32 d5, q15, #7 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 251 vqrshrun.s32 d5, q15, #7
|
/external/jpeg/ |
jsimd_arm_neon.S | 206 vmul.s16 q7, q7, q15 248 vmov.s16 q15, #(0x80 << 5) 249 vqadd.s16 q2, q2, q15 250 vqadd.s16 q3, q3, q15 251 vqadd.s16 q4, q4, q15 252 vqadd.s16 q5, q5, q15 253 vqadd.s16 q6, q6, q15 254 vqadd.s16 q7, q7, q15 255 vqadd.s16 q8, q8, q15 256 vqadd.s16 q9, q9, q15 [all...] |
/external/chromium_org/third_party/openssl/openssl/crypto/ |
armv4cpuid.S | 10 .word 0xf26ee1fe @ vorr q15,q15,q15 111 .word 0xf34ee1fe @ veor q15, q15, q15
|
/external/openssl/crypto/ |
armv4cpuid.S | 10 .word 0xf26ee1fe @ vorr q15,q15,q15 111 .word 0xf34ee1fe @ veor q15, q15, q15
|
/external/valgrind/main/none/tests/arm/ |
neon128.c | 364 TESTINSN_imm("vmov.i64 q15", q15, 0xFF0000FF00FFFF00); 378 TESTINSN_imm("vmvn.i64 q15", q15, 0xFF0000FF00FFFF00); 386 TESTINSN_imm("vorr.i32 q15", q15, 0x7000000); 394 TESTINSN_imm("vbic.i32 q15", q15, 0x7000000); 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24) [all...] |
neon128.stdout.exp | 20 vmov.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0xff0000ff 0x00ffff00 0xff0000ff 0x00ffff00 21 vmov.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0xff0000ff 0x00ffff00 0xff0000ff 0x00ffff00 45 vmvn.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0x00ffff00 0xff0000ff 0x00ffff00 0xff0000ff 46 vmvn.i64 q15, #0xFF0000FF00FFFF00 :: Qd 0x00ffff00 0xff0000ff 0x00ffff00 0xff0000ff 58 vorr.i32 q15, #0x7000000 :: Qd 0x57555555 0x57555555 0x57555555 0x57555555 59 vorr.i32 q15, #0x7000000 :: Qd 0x171d191d 0x171c1f1c 0x171b1a1b 0x171f1e1f 71 vbic.i32 q15, #0x7000000 :: Qd 0x50555555 0x50555555 0x50555555 0x50555555 72 vbic.i32 q15, #0x7000000 :: Qd 0x101d191d 0x101c1f1c 0x101b1a1b 0x101f1e1f 76 vmvn q10, q15 :: Qd 0xffffffe7 0xffffffe7 0xffffffe7 0xffffffe7 Qm (i32)0x00000018 77 vmvn q10, q15 :: Qd 0xd9d2d2d5 0xdad5d1d4 0xdbd3d4d4 0xdcd0d1d0 Qm (i32)0x0000001 [all...] |
/external/pixman/pixman/ |
pixman-arm-neon-asm.S | 171 vrshr.u16 q15, q12, #8 174 vraddhn.u16 d22, q12, q15 282 vrshr.u16 q15, q12, #8 289 vraddhn.u16 d22, q12, q15 369 vrshr.u16 q15, q12, #8 372 vraddhn.u16 d22, q12, q15 503 vqadd.u8 q15, q1, q3 525 vqadd.u8 q15, q1, q3 557 vqadd.u8 q15, q1, q3 594 vrshr.u16 q15, q9, # [all...] |
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_interleave_memcpy_neon.s | 91 vld1.8 {q15}, [r12]! 100 vst2.8 {q14, q15}, [r10]!
|
csc_ARGB8888_to_YUV420SP_NEON.s | 54 vmov.u16 q15, #18 @#-18 66 vmov.u16 q15, #18 @#18 91 vmls.u16 q7,q6,q15 @-(18 * B[k]) 101 vmov.u16 q15, #129 @#129 107 vmla.u16 q7,q5,q15 @q0 += 129 *G[k] 125 vmla.u16 q0,q5,q15 @q0 += 129 *G[k] 158 vmla.u16 q7,q5,q15 @q0 += 129 *G[k] 175 vmla.u16 q0,q5,q15 @q0 += 129 *G[k]
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 1047 vshr.u64 q15,q7,#6 1051 veor q15,q12 1053 veor q15,q13 @ sigma1(X[i+14]) 1055 vadd.i64 q0,q15 1056 vshr.u64 q15,q14,#7 1060 veor q15,q12 1064 veor q15,q13 @ sigma0(X[i+1]) 1066 vadd.i64 q0,q15 1137 vshr.u64 q15,q0,#6 1141 veor q15,q1 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 1047 vshr.u64 q15,q7,#6 1051 veor q15,q12 1053 veor q15,q13 @ sigma1(X[i+14]) 1055 vadd.i64 q0,q15 1056 vshr.u64 q15,q14,#7 1060 veor q15,q12 1064 veor q15,q13 @ sigma0(X[i+1]) 1066 vadd.i64 q0,q15 1137 vshr.u64 q15,q0,#6 1141 veor q15,q1 [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_memcpy_neon.asm | 46 vld1.8 {q14, q15}, [r1]! 48 vst1.8 {q14, q15}, [r0]!
|
fastquantizeb_neon.asm | 113 vtst.16 q15, q5, q8 ; non-zero element is set to all 1 120 vand q1, q7, q15 178 vld1.s16 {q14, q15}, [r5@128]; load round_ptr [0-15] 182 vadd.s16 q13, q15 214 vtst.16 q15, q13, q8 ; non-zero element is set to all 1 219 vand q11, q11, q15
|
subtract_neon.asm | 90 vsubl.u8 q15, d13, d15 99 vst1.16 {q15}, [r5], r6 147 vsubl.u8 q15, d14, d15 156 vst1.16 {q15}, [r7], r12 183 vsubl.u8 q15, d14, d15 192 vst1.16 {q15}, [r7], r12
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance16x16s_neon.asm | 151 vld1.u8 {q15}, [r0], r1 157 vrhadd.u8 q6, q6, q15 194 vmov q0, q15 238 vmov.i8 q15, #0 285 vmlal.s16 q15, d19, d19 289 vmlal.s16 q15, d21, d21 293 vmlal.s16 q15, d23, d23 297 vmlal.s16 q15, d25, d25 303 vmlal.s16 q15, d1, d1 307 vmlal.s16 q15, d3, d [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_ColorMatrix.S | 304 vmovl.u8 q15, d3 /* A */ 311 veor q15, q15 318 veor q15, q15 325 veor q15, q15 336 vqmovun.s16 d3, q15
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 46 vmov.u16 q15, #256 // create alpha constant 64 vsub.u16 q3, q15, q3 // invert alpha
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
lpc_masking_model_neon.S | 54 vmov.s64 q15, #0 @ Initialize the sum64_tmp. 78 vqadd.s64 q14, q0, q15 @ Sum and test overflow. 82 vshr.s64 q15, #1 83 vadd.s64 q14, q0, q15 88 vmov.s64 q15, q14 96 vqadd.s64 q0, q13, q15 @ Sum and test overflow. 99 vshr.s64 q15, #1 100 vadd.s64 q0, q13, q15
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S | 126 VMOV.I32 q15,#0x14 132 VMLA.I32 q5,q1,q15 137 VMLA.I32 q6,q1,q15 143 VMLA.I32 q2,q1,q15 149 VMLA.I32 q3,q1,q15
|