/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 41 VMOVL.U8 q12,d8 43 VSUBW.S8 q12,q12,d20 45 VQMOVUN.S16 d24,q12 64 VADDW.U8 q12,q10,d5 67 VHADD.U16 q11,q12,q11 68 VADDW.U8 q12,q12,d6 72 VSRA.U16 q13,q12,#1 76 VQRSHRN.U16 d30,q12,# [all...] |
armVCM4P10_DeblockingChroma_unsafe_s.S | 32 VMOVL.U8 q12,d8 34 VSUBW.S8 q12,q12,d20 36 VQMOVUN.S16 d24,q12
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 53 VADDL.U8 q12,d6,d16 58 VMLAL.U8 q12,d10,d31 62 VMLAL.U8 q12,d12,d31 66 VMLSL.U8 q12,d8,d30 70 VMLSL.U8 q12,d14,d30
|
omxVCM4P10_PredictIntra_16x16_s.S | 199 VMULL.S16 q12,d16,d20 201 VMLAL.S16 q12,d17,d21 205 VSHL.I64 q12,q11,#2 206 VADD.I64 q11,q11,q12 208 VSHL.I64 q12,q11,#3 209 VSUB.I64 q12,q12,q11 221 VMUL.I16 q6,q6,q12
|
armVCM4P10_Interpolate_Chroma_s.S | 65 VMULL.U8 q12,d18,d12 69 VMLAL.U8 q12,d19,d13 73 VMLAL.U8 q12,d0,d14 77 VMLAL.U8 q12,d1,d15 82 VQRSHRN.U16 d21,q12,#6
|
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 34 VADDL.U8 q12,d24,d10 65 VQRSHRUN.S16 d24,q12,#5
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 74 // q12 = dst green1 84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits 88 vshr.u16 q12, q12, #10 // shift dst green1 to low 6 bits 93 vmul.u16 q12, q12, q3 // multiply dst green1 by src alpha 99 vadd.u16 q12, q12, q1 // add src green to dst green1 105 vshr.u16 q12, q12, #8 // shift down green [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
shortfdct_neon.asm | 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000 90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000 98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000 103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 136 vshl.s16 q12, q12, #3 ; b1 << 3 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1 141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b [all...] |
fastquantizeb_neon.asm | 59 vshr.s16 q12, q0, #15 ; sz2 87 veor.s16 q10, q12 ; y2^sz2 93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement) 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 170 vabs.s16 q12, q0 ; calculate x = abs(z) 181 vadd.s16 q12, q14 ; x + Round 186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16 195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh 205 veor.s16 q12, q2 ; y^s [all...] |
vp8_memcpy_neon.asm | 44 vld1.8 {q12, q13}, [r1]! 47 vst1.8 {q12, q13}, [r0]!
|
subtract_neon.asm | 47 vsubl.u8 q12, d4, d5 87 vsubl.u8 q12, d8, d10 96 vst1.16 {q12}, [r0], r6 144 vsubl.u8 q12, d8, d9 153 vst1.16 {q12}, [r0], r12 180 vsubl.u8 q12, d8, d9 189 vst1.16 {q12}, [r0], r12
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_short_idct16x16_add_neon.asm | 30 vtrn.32 q12, q14 34 vtrn.16 q12, q13 56 vld2.s16 {q11,q12}, [r0]! 57 vld2.s16 {q12,q13}, [r0]! 167 vadd.s32 q12, q11, q1 175 vqrshrn.s32 d17, q12, #14 ; >> 14 187 vmull.s16 q12, d20, d30 195 vmlsl.s16 q12, d28, d31 203 vqrshrn.s32 d20, q12, #14 ; >> 14 225 vmull.s16 q12, d27, d1 [all...] |
vp9_short_idct32x32_1_add_neon.asm | 25 vld1.8 {q12}, [$src], $stride 37 vqadd.u8 q12, q12, $diff 49 vqsub.u8 q12, q12, $diff 61 vst1.8 {q12},[$dst], $stride
|
vp9_short_iht8x8_add_neon.asm | 110 vtrn.32 q12, q14 114 vtrn.16 q12, q13 214 vmull.s16 q12, d21, d1 222 vmlal.s16 q12, d29, d0 230 vqrshrn.s32 d31, q12, #14 ; >> 14 252 vmull.s16 q12, d29, d16 260 vmlal.s16 q12, d27, d16 268 vqrshrn.s32 d13, q12, #14 ; >> 14 275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 327 vadd.s32 q12, q2, q [all...] |
/external/llvm/test/MC/ARM/ |
neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2 [all...] |
neon-mul-accum-encoding.s | 11 vmla.i32 q12, q8, d3[0] 21 @ CHECK: vmla.i32 q12, q8, d3[0] @ encoding: [0xc3,0x80,0xe0,0xf3] 62 vmls.i16 q4, q12, d6[2] 72 @ CHECK: vmls.i16 q4, q12, d6[2] @ encoding: [0xe6,0x84,0x98,0xf3]
|
/external/pixman/pixman/ |
pixman-arm-neon-asm.S | 168 vmull.u8 q12, d3, d30 171 vrshr.u16 q15, q12, #8 174 vraddhn.u16 d22, q12, q15 274 vmull.u8 q12, d3, d30 282 vrshr.u16 q15, q12, #8 289 vraddhn.u16 d22, q12, q15 366 vmull.u8 q12, d3, d30 369 vrshr.u16 q15, q12, #8 372 vraddhn.u16 d22, q12, q15 595 vrshr.u16 q12, q10, # [all...] |
pixman-arm-neon-asm-bilinear.S | 527 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 528 vadd.u16 q12, q12, q13 554 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 564 vadd.u16 q12, q12, q13 570 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS) 573 vadd.u16 q12, q12, q13 687 vdup.u16 q12, [all...] |
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_interleave_memcpy_neon.s | 82 vld1.8 {q12}, [r11]! 99 vst2.8 {q12, q13}, [r10]!
|
/external/jpeg/ |
jsimd_arm_neon.S | 201 vmul.s16 q4, q4, q12 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 351 vmull.s16 q12, \x16, d0[2] 352 vmlal.s16 q12, \x12, d0[3] 353 vmlal.s16 q12, \x10, d1[0] 354 vmlal.s16 q12, \x6, d1[1] 369 vadd.s32 q10, q15, q12 370 vsub.s32 q15, q15, q12 426 vmul.s16 q5, q5, q12 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 42 vsubl.u8 q12, d1, d5 55 vpadal.s16 q8, q12 115 vsubl.u8 q12, d1, d5 125 vpadal.s16 q8, q12 178 vsubl.u8 q12, d2, d6 186 vpadal.s16 q8, q12 235 vsubl.u8 q12, d1, d5 245 vpadal.s16 q8, q12
|
vp8_subpixelvariance16x16_neon.asm | 75 vmull.u8 q12, d9, d0 96 vmlal.u8 q12, d9, d1 106 vqrshrn.u16 d19, q12, #7 126 vmull.u8 q12, d6, d0 143 vmlal.u8 q12, d6, d1 166 vqrshrn.u16 d13, q12, #7 263 vmull.u8 q12, d9, d0 284 vmlal.u8 q12, d9, d1 294 vqrshrn.u16 d19, q12, #7 382 vsubl.u8 q12, d1, d [all...] |
/external/valgrind/main/none/tests/arm/ |
neon128.c | 361 TESTINSN_imm("vmov.i32 q12", q12, 0x7000000); 421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120); 440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed); 446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed) [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_ColorMatrix.S | 301 vmovl.u8 q12, d0 /* R */ 308 vmovl.u8 q12, d0 /* R */ 315 vmovl.u8 q12, d0 /* R */ 322 vmovl.u8 q12, d0 /* R */ 333 vqmovun.s16 d0, q12 343 vqmovun.s16 d0, q12 351 vqmovun.s16 d0, q12 357 vqmovun.s16 d0, q12
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 1045 vshr.u64 q12,q7,#19 1048 vsli.64 q12,q7,#45 1051 veor q15,q12 1052 vshr.u64 q12,q14,#1 1057 vsli.64 q12,q14,#63 1060 veor q15,q12 1135 vshr.u64 q12,q0,#19 1138 vsli.64 q12,q0,#45 1141 veor q15,q12 1142 vshr.u64 q12,q14,# [all...] |