/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 72 // q10 = dst blue0 78 vshr.u16 q8, q10, #11 // shift dst red0 to low 5 bits 80 vshl.u16 q9, q10, #5 // shift dst green0 to top 6 bits 81 vand q10, q10, q14 // extract dst blue0 87 vmul.u16 q10, q10, q3 // multiply dst blue0 by src alpha 94 vadd.u16 q10, q10, q2 // add src blue to dst blue0 100 vshr.u16 q10, q10, #8 // shift down blue [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 30 vmov.i8 q9, #0 ;q9, q10 - sse 31 vmov.i8 q10, #0 51 vmlal.s16 q10, d23, d23 57 vmlal.s16 q10, d25, d25 60 vmlal.s16 q10, d27, d27 63 vmlal.s16 q10, d29, d29 67 vadd.u32 q10, q9, q10 ;accumulate sse 72 vpaddl.u32 q1, q10 103 vmov.i8 q9, #0 ;q9, q10 - ss [all...] |
vp8_subpixelvariance16x16s_neon.asm | 38 vmov.i8 q9, #0 ;q9, q10 - sse 39 vmov.i8 q10, #0 77 vmlal.s16 q10, d9, d9 83 vmlal.s16 q10, d11, d11 86 vmlal.s16 q10, d13, d13 89 vmlal.s16 q10, d15, d15 93 vmlal.s16 q10, d1, d1 96 vmlal.s16 q10, d3, d3 99 vmlal.s16 q10, d5, d5 102 vmlal.s16 q10, d7, d [all...] |
vp8_subpixelvariance8x8_neon.asm | 80 vmull.u8 q10, d10, d0 92 vmlal.u8 q10, d11, d1 98 vqrshrn.u16 d30, q10, #7 160 vmov.i8 q9, #0 ;q9, q10 - sse 161 vmov.i8 q10, #0 178 vmlal.s16 q10, d9, d9 184 vmlal.s16 q10, d11, d11 190 vmlal.s16 q10, d13, d13 196 vmlal.s16 q10, d15, d15 200 vadd.u32 q10, q9, q10 ;accumulate ss [all...] |
sixtappredict8x8_neon.asm | 86 vmull.u8 q10, d12, d0 96 vmlsl.u8 q10, d31, d1 106 vmlsl.u8 q10, d31, d4 116 vmlal.u8 q10, d31, d2 126 vmlal.u8 q10, d31, d5 143 vqadd.s16 q10, q6 150 vqrshrun.s16 d25, q10, #7 171 vmull.u8 q10, d10, d0 183 vmlsl.u8 q10, d29, d1 195 vmlsl.u8 q10, d29, d [all...] |
idct_dequant_full_2x_neon.asm | 66 vqadd.s16 q10, q2, q3 ; a1 = 0 + 8 94 vqadd.s16 q4, q10, q3 97 vqsub.s16 q7, q10, q3 112 ; q10: 1 * cospi 116 vqdmulh.s16 q10, q5, d0[0] ; cospi8sqrt2minus1 123 vshr.s16 q10, q10, #1 126 ; q10: 1 + 1 * cospi : d1/temp1 128 vqadd.s16 q10, q5, q10 [all...] |
sixtappredict8x4_neon.asm | 82 vmull.u8 q10, d12, d0 92 vmlsl.u8 q10, d31, d1 102 vmlsl.u8 q10, d31, d4 112 vmlal.u8 q10, d31, d2 122 vmlal.u8 q10, d31, d5 137 vqadd.s16 q10, q6 144 vqrshrun.s16 d25, q10, #7 158 vmull.u8 q10, d10, d0 170 vmlsl.u8 q10, d29, d1 182 vmlsl.u8 q10, d29, d [all...] |
vp8_subpixelvariance16x16_neon.asm | 73 vmull.u8 q10, d6, d0 95 vmlal.u8 q10, d6, d1 104 vqrshrn.u16 d17, q10, #7 124 vmull.u8 q10, d3, d0 142 vmlal.u8 q10, d3, d1 ;(src_ptr[0] * Filter[1]) 164 vqrshrn.u16 d11, q10, #7 261 vmull.u8 q10, d6, d0 283 vmlal.u8 q10, d6, d1 292 vqrshrn.u16 d17, q10, #7 369 vmov.i8 q9, #0 ;q9, q10 - ss [all...] |
/external/llvm/test/MC/ARM/ |
neon-mul-accum-encoding.s | 7 vmla.i8 q9, q8, q10 8 vmla.i16 q9, q8, q10 9 vmla.i32 q9, q8, q10 10 vmla.f32 q9, q8, q10 17 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0xe4,0x29,0x40,0xf2] 18 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0xe4,0x29,0x50,0xf2] 19 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0xe4,0x29,0x60,0xf2] 20 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0xf4,0x2d,0x40,0xf2] 58 vmls.i8 q9, q8, q10 59 vmls.i16 q9, q8, q10 [all...] |
neon-absdiff-encoding.s | 57 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf2] 58 vaba.s8 q9, q8, q10 59 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf2] 60 vaba.s16 q9, q8, q10 61 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0xf4,0x27,0x60,0xf2] 62 vaba.s32 q9, q8, q10 63 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0xf4,0x27,0x40,0xf3] 64 vaba.u8 q9, q8, q10 65 @ CHECK: vaba.u16 q9, q8, q10 @ encoding: [0xf4,0x27,0x50,0xf3] 66 vaba.u16 q9, q8, q10 [all...] |
neont2-absdiff-encoding.s | 57 vaba.s8 q9, q8, q10 58 vaba.s16 q9, q8, q10 59 vaba.s32 q9, q8, q10 60 vaba.u8 q9, q8, q10 61 vaba.u16 q9, q8, q10 62 vaba.u32 q9, q8, q10 70 @ CHECK: vaba.s8 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x27] 71 @ CHECK: vaba.s16 q9, q8, q10 @ encoding: [0x50,0xef,0xf4,0x27] 72 @ CHECK: vaba.s32 q9, q8, q10 @ encoding: [0x60,0xef,0xf4,0x27] 73 @ CHECK: vaba.u8 q9, q8, q10 @ encoding: [0x40,0xff,0xf4,0x27 [all...] |
neont2-mul-accum-encoding.s | 9 vmla.i8 q9, q8, q10 10 vmla.i16 q9, q8, q10 11 vmla.i32 q9, q8, q10 12 vmla.f32 q9, q8, q10 19 @ CHECK: vmla.i8 q9, q8, q10 @ encoding: [0x40,0xef,0xe4,0x29] 20 @ CHECK: vmla.i16 q9, q8, q10 @ encoding: [0x50,0xef,0xe4,0x29] 21 @ CHECK: vmla.i32 q9, q8, q10 @ encoding: [0x60,0xef,0xe4,0x29] 22 @ CHECK: vmla.f32 q9, q8, q10 @ encoding: [0x40,0xef,0xf4,0x2d] 62 vmls.i8 q9, q8, q10 63 vmls.i16 q9, q8, q10 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingChroma_unsafe_s.S | 19 VSUBL.U8 q10,d8,d4 23 VRHADD.S16 q10,q11,q10 25 VQMOVN.S16 d20,q10
|
armVCM4P10_DeblockingLuma_unsafe_s.S | 18 VSUBL.U8 q10,d8,d4 24 VRHADD.S16 q10,q11,q10 29 VQMOVN.S16 d20,q10 61 VADDL.U8 q10,d8,d4 64 VADDW.U8 q12,q10,d5 78 VADDW.U8 q12,q10,d9
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 30 vmov.i8 q7, #0 ;q7, q8, q9, q10 - sse 33 vmov.i8 q10, #0 54 vmlal.s16 q10, d25, d25 58 vmlal.s16 q10, d29, d29 63 vadd.u32 q9, q9, q10 67 vadd.u32 q10, q7, q9 68 vpaddl.u32 q1, q10 102 vmull.s16 q10, d28, d28 105 vadd.u32 q9, q9, q10
|
fastquantizeb_neon.asm | 57 vabs.s16 q10, q0 ; calculate x2 = abs(z_2) 66 vadd.s16 q10, q6 ; x2 + Round 71 vqdmulh.s16 q10, q8 ; y2 = ((Round+abs(z)) * Quant) >> 16 82 vshr.s16 q10, #1 ; right shift 1 after vqdmulh 87 veor.s16 q10, q12 ; y2^sz2 93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement) 105 vst1.s16 {q10, q11}, [r6] ; store: qcoeff = x2 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 124 vtst.16 q2, q10, q8 ; now find eob 129 vand q10, q6, q2 ; get all valid numbers from scan arra [all...] |
shortfdct_neon.asm | 40 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500 62 vmlal.s16 q10, d7, d17 ; d1*2217 + 7500 64 vmlsl.s16 q10, d6, d16 ; d1*2217 - c1*5352 + 7500 67 vshrn.s32 d3, q10, #12 ; op[3] = (d1*2217 - c1*5352 + 7500)>>12 121 vld1.32 {q9, q10}, [r12@128]! ; q9=14500, q10=7500 144 vmov.s16 q12, q10 ; 7500 147 vmlal.s16 q10, d28, d17 ; A[3] = d1*2217 + 7500 152 vmlsl.s16 q10, d26, d16 ; A[3] = d1*2217 - c1*5352 + 750 [all...] |
/external/valgrind/main/none/tests/arm/ |
neon128.c | 360 TESTINSN_imm("vmov.i32 q10", q10, 0x70000); 374 TESTINSN_imm("vmvn.i32 q10", q10, 0x70000); 393 TESTINSN_imm("vbic.i32 q10", q10, 0x70000); 398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24); 403 TESTINSN_un("vmov q10, q15", q10, q15, i32, 24) [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_short_iht4x4_add_neon.asm | 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use 30 vmull.s16 q10, d17, d0 ; input[1] * cospi_8_64 34 vmlal.s16 q10, d19, d2 ; input[1] * cospi_8_64 + input[3] * cospi_24_64 40 vqrshrn.s32 d28, q10, #14 59 vmull.s16 q10, d3, d16 ; s0 = sinpi_1_9 * x0 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 71 vadd.s32 q10, q10, q8 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x [all...] |
vp9_short_idct32x32_1_add_neon.asm | 23 vld1.8 {q10}, [$src], $stride 35 vqadd.u8 q10, q10, $diff 47 vqsub.u8 q10, q10, $diff 59 vst1.8 {q10},[$dst], $stride
|
vp9_short_idct16x16_add_neon.asm | 28 vtrn.32 q8, q10 33 vtrn.16 q10, q11 54 vld2.s16 {q9,q10}, [r0]! 55 vld2.s16 {q10,q11}, [r0]! 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2]; 229 vmull.s16 q10, d29, d16 233 vsub.s32 q13, q10, q12 237 vadd.s32 q10, q10, q1 [all...] |
/external/pixman/pixman/ |
pixman-arm-neon-asm.S | 166 vmull.u8 q10, d3, d6 169 vrshr.u16 q13, q10, #8 172 vraddhn.u16 d20, q10, q13 271 vmull.u8 q10, d3, d6 279 vrshr.u16 q13, q10, #8 286 vraddhn.u16 d20, q10, q13 364 vmull.u8 q10, d3, d6 367 vrshr.u16 q13, q10, #8 370 vraddhn.u16 d20, q10, q13 588 vmull.u8 q10, d24, d [all...] |
pixman-arm-neon-asm-bilinear.S | 505 q3, q8, q10, q11 508 q3, q8, q10, q11, d5 521 vshll.u16 q10, d22, #BILINEAR_INTERPOLATION_BITS 522 vmlsl.u16 q10, d22, d31 523 vmlal.u16 q10, d23, d31 525 vshrn.u32 d1, q10, #(2 * BILINEAR_INTERPOLATION_BITS) 534 q3, q8, q10, q11 537 q3, q8, q10, q11, d5 551 vshll.u16 q10, d22, #BILINEAR_INTERPOLATION_BITS 552 vmlsl.u16 q10, d22, d3 [all...] |
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
lattice_neon.S | 66 vmull.s32 q10, d0, d28 @ tmp32a = input0 * (*ptr0) 71 vrshrn.i64 d4, q10, #15 79 vmull.s32 q10, d6, d30 @ input2 * (*ptr2 + tmp32b) 82 vrshrn.i64 d16, q10, #16 85 vmull.s32 q10, d16, d28 @ input0 * (*ptr2) 89 vrshrn.i64 d18, q10, #15
|
/external/jpeg/ |
jsimd_arm_neon.S | 198 vmul.s16 q2, q2, q10 207 vmul.s16 q8, q8, q10 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 356 vadd.s32 q10, q14, q13 360 vrshr.s32 q10, q10, #\shift 362 vmovn.s32 \y26, q10 365 vrshrn.s32 \y26, q10, #\shift 369 vadd.s32 q10, q15, q1 [all...] |