/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 73 // q13 = dst red1 86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits 91 vmul.u16 q13, q13, q3 // multiply dst red1 by src alpha 97 vadd.u16 q13, q13, q0 // add src red to dst red1 103 vshr.u16 q13, q13, #8 // shift down red1 109 vsli.u16 q11, q13, #11 // shift & insert red1 into blue1
|
/external/libhevc/common/arm/ |
ihevc_itrans_recon_8x8.s | 194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 202 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 235 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 246 vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of r1,r6) 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6) 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 273 vqrshrn.s32 d7,q13,#shift_stage1_idct @// r3 = (a3 + b3 + rnd) >> 7(shift_stage1_idct) 303 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 308 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1 [all...] |
ihevc_itrans_recon_32x32.s | 212 vmull.s16 q13,d8,d0[3] @// y1 * cos3(part of b1) 217 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 252 vmlal.s16 q13,d14,d3[3] 258 vmlal.s16 q13,d15,d5[1] 282 vmlal.s16 q13,d8,d6[3] @// y1 * cos3(part of b1) 287 vmlsl.s16 q13,d9,d7[3] @// y1 * cos3 - y3 * sin1(part of b1) 326 vmlsl.s16 q13,d14,d6[1] 332 vmlsl.s16 q13,d15,d4[3] 358 vmlsl.s16 q13,d8,d3[1] @// y1 * cos3(part of b1) 363 vmlsl.s16 q13,d9,d1[3] @// y1 * cos3 - y3 * sin1(part of b1 [all...] |
ihevc_inter_pred_chroma_vert_w16inp.s | 206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 208 vmlal.s16 q13,d3,d13 209 vmlal.s16 q13,d4,d14 211 vmlal.s16 q13,d5,d15 226 vqshrn.s32 d26,q13,#6 @right shift 241 vqrshrun.s16 d26,q13,#6 @rounding shift 256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 258 vmlal.s16 q13,d3,d13 261 vmlal.s16 q13,d4,d14 263 vmlal.s16 q13,d5,d1 [all...] |
ihevc_itrans_recon_16x16.s | 243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 248 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 270 vmlal.s16 q13,d8,d3[3] 276 vmlsl.s16 q13,d9,d2[3] 318 vmlsl.s16 q13,d6,d1[1] @// y1 * cos3(part of b1) 323 vmlsl.s16 q13,d7,d0[1] @// y1 * cos3 - y3 * sin1(part of b1) 330 vmlsl.s16 q13,d8,d1[3] 336 vmlsl.s16 q13,d9,d3[1] 373 vadd.s32 q6,q7,q13 374 vsub.s32 q12,q7,q13 [all...] |
ihevc_inter_pred_chroma_vert.s | 250 vmull.u8 q13,d7,d1 252 vmlsl.u8 q13,d6,d0 254 vmlal.u8 q13,d8,d2 256 vmlsl.u8 q13,d9,d3 271 vqrshrun.s16 d26,q13,#6 304 vmull.u8 q13,d7,d1 310 vmlsl.u8 q13,d6,d0 313 vmlal.u8 q13,d8,d2 316 vmlsl.u8 q13,d9,d3 337 vqrshrun.s16 d26,q13,# [all...] |
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 206 vmlal.s16 q13,d3,d13 207 vmlal.s16 q13,d4,d14 210 vmlal.s16 q13,d5,d15 224 vqshrn.s32 d26,q13,#6 @right shift 251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0) 253 vmlal.s16 q13,d3,d13 256 vmlal.s16 q13,d4,d14 258 vmlal.s16 q13,d5,d15 273 vqshrn.s32 d26,q13,#6 @right shif [all...] |
ihevc_inter_pred_chroma_vert_w16out.s | 249 vmull.u8 q13,d7,d1 251 vmlsl.u8 q13,d6,d0 253 vmlal.u8 q13,d8,d2 255 vmlsl.u8 q13,d9,d3 282 vst1.8 {q13},[r7],r3 @stores the loaded value 297 vmull.u8 q13,d7,d1 301 vmlsl.u8 q13,d6,d0 305 vmlal.u8 q13,d8,d2 308 vmlsl.u8 q13,d9,d3 336 vst1.8 {q13},[r7],r3 @stores the loaded valu [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
sad_neon.c | 118 uint16x8_t q12, q13; local 129 q13 = vabdl_u8(vget_high_u8(q0), vget_high_u8(q4)); 137 q13 = vabal_u8(q13, vget_high_u8(q0), vget_high_u8(q4)); 140 q12 = vaddq_u16(q12, q13); 155 uint16x8_t q12, q13; local 166 q13 = vabdl_u8(vget_high_u8(q0), vget_high_u8(q4)); 174 q13 = vabal_u8(q13, vget_high_u8(q0), vget_high_u8(q4)); 177 q12 = vaddq_u16(q12, q13); [all...] |
/external/chromium_org/third_party/webrtc/common_audio/signal_processing/ |
min_max_operations_neon.S | 43 vld1.16 {q13}, [r0]! 45 vabs.s16 q13, q13 @ Note vabs doesn't change the value of -32768. 46 vmax.u16 q12, q13 @ Use u16 so we don't lose the value -32768. 91 vld1.32 {q13, q14}, [r0]! 93 vabs.s32 q13, q13 @ vabs doesn't change the value of 0x80000000. 95 vmax.u32 q11, q13 @ Use u32 so we don't lose the value 0x80000000. 139 vld1.16 {q13}, [r0]! 141 vmax.s16 q12, q13 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blend.S | 86 vmull.u8 q13, d15, d3 96 vrshrn.u16 d11, q13, #8 105 vaddw.u8 q13, d11 114 vrshrn.u16 d3, q13, #8 132 vmull.u8 q13, d15, d19 142 vrshrn.u16 d11, q13, #8 151 vaddw.u8 q13, d11 160 vrshrn.u16 d19, q13, #8 176 vmull.u8 q13, d7, d19 186 vrshrn.u16 d11, q13, # [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 60 vshr.s16 q13, q1, #15 88 veor.s16 q11, q13 94 vsub.s16 q11, q13 108 vmul.s16 q13, q7, q11 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 171 vabs.s16 q13, q1 182 vadd.s16 q13, q15 187 vqdmulh.s16 q13, q9 196 vshr.s16 q13, #1 206 veor.s16 q13, q [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 60 vshr.s16 q13, q1, #15 88 veor.s16 q11, q13 94 vsub.s16 q11, q13 108 vmul.s16 q13, q7, q11 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 171 vabs.s16 q13, q1 182 vadd.s16 q13, q15 187 vqdmulh.s16 q13, q9 196 vshr.s16 q13, #1 206 veor.s16 q13, q [all...] |
/external/openssl/crypto/modes/asm/ |
ghashv8-armx.S | 41 vext.8 q13,q12,q12,#8 45 veor q13,q13,q12 @ Karatsuba pre-processing 63 vext.8 q13,q12,q12,#8 68 veor q13,q13,q12 @ Karatsuba pre-processing 83 .byte 0xa2,0x2e,0xaa,0xf2 @ pmull q1,q13,q9 @ (H.lo+H.hi)·(Xi.lo+Xi.hi)
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 60 vshr.s16 q13, q1, #15 88 veor.s16 q11, q13 94 vsub.s16 q11, q13 108 vmul.s16 q13, q7, q11 122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant 171 vabs.s16 q13, q1 182 vadd.s16 q13, q15 187 vqdmulh.s16 q13, q9 196 vshr.s16 q13, #1 206 veor.s16 q13, q [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_idct16x16_add_neon.asm | 31 vtrn.32 q13, q15 34 vtrn.16 q12, q13 57 vld2.s16 {q12,q13}, [r0]! 58 vld2.s16 {q13,q14}, [r0]! 170 vsub.s32 q13, q2, q0 178 vqrshrn.s32 d18, q13, #14 ; >> 14 188 vmull.s16 q13, d21, d30 196 vmlsl.s16 q13, d29, d31 204 vqrshrn.s32 d21, q13, #14 ; >> 14 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] [all...] |
vp9_idct32x32_1_add_neon.asm | 26 vld1.8 {q13}, [$src], $stride 38 vqadd.u8 q13, q13, $diff 50 vqsub.u8 q13, q13, $diff 62 vst1.8 {q13},[$dst], $stride
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_idct16x16_add_neon.asm | 31 vtrn.32 q13, q15 34 vtrn.16 q12, q13 57 vld2.s16 {q12,q13}, [r0]! 58 vld2.s16 {q13,q14}, [r0]! 170 vsub.s32 q13, q2, q0 178 vqrshrn.s32 d18, q13, #14 ; >> 14 188 vmull.s16 q13, d21, d30 196 vmlsl.s16 q13, d29, d31 204 vqrshrn.s32 d21, q13, #14 ; >> 14 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] [all...] |
vp9_idct32x32_1_add_neon.asm | 26 vld1.8 {q13}, [$src], $stride 38 vqadd.u8 q13, q13, $diff 50 vqsub.u8 q13, q13, $diff 62 vst1.8 {q13},[$dst], $stride
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_idct16x16_add_neon.asm | 31 vtrn.32 q13, q15 34 vtrn.16 q12, q13 57 vld2.s16 {q12,q13}, [r0]! 58 vld2.s16 {q13,q14}, [r0]! 170 vsub.s32 q13, q2, q0 178 vqrshrn.s32 d18, q13, #14 ; >> 14 188 vmull.s16 q13, d21, d30 196 vmlsl.s16 q13, d29, d31 204 vqrshrn.s32 d21, q13, #14 ; >> 14 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] [all...] |
vp9_idct32x32_1_add_neon.asm | 26 vld1.8 {q13}, [$src], $stride 38 vqadd.u8 q13, q13, $diff 50 vqsub.u8 q13, q13, $diff 62 vst1.8 {q13},[$dst], $stride
|
/external/jpeg/ |
jsimd_arm_neon.S | 203 vmul.s16 q5, q5, q13 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 342 vmull.s16 q13, \x16, d1[2] 343 vmlal.s16 q13, \x12, d1[3] 344 vmlal.s16 q13, \x10, d2[0] 345 vmlal.s16 q13, \x6, d2[1] 356 vadd.s32 q10, q14, q13 357 vsub.s32 q14, q14, q13 427 vmul.s16 q6, q6, q13 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 84 VADDL.U8 q13,d7,d6 87 VSRA.U16 q13,q12,#1 95 VQRSHRN.U16 d31,q13,#2 96 VADDL.U8 q13,d11,d10 103 VSRA.U16 q13,q12,#1 110 VQRSHRN.U16 d28,q13,#2
|
/external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/ |
bsaes-armv7.S | 95 veor q13, q3, q9 99 vtbl.8 d6, {q13}, d16 100 vtbl.8 d7, {q13}, d17 238 veor q13, q4, q0 250 vand q13, q13, q9 253 veor q11, q11, q13 254 veor q10, q10, q13 255 vand q13, q9, q12 258 veor q8, q8, q13 [all...] |
/external/openssl/crypto/aes/asm/ |
bsaes-armv7.S | 94 veor q13, q3, q9 98 vtbl.8 d6, {q13}, d16 99 vtbl.8 d7, {q13}, d17 237 veor q13, q4, q0 249 vand q13, q13, q9 252 veor q11, q11, q13 253 veor q10, q10, q13 254 vand q13, q9, q12 257 veor q8, q8, q13 [all...] |