/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 111 vtrn.32 q13, q15 114 vtrn.16 q12, q13 160 vmull.s16 q13, d27, d3 168 vmlal.s16 q13, d23, d2 179 vqrshrn.s32 d13, q13, #14 ; >> 14 186 vmull.s16 q13, d16, d0 194 vmlsl.s16 q13, d24, d0 205 vqrshrn.s32 d22, q13, #14 ; >> 14 233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2 [all...] |
vp9_iht4x4_add_neon.asm | 31 vmull.s16 q13, d23, d1 ; (input[0] + input[2]) * cospi_16_64 37 vqrshrn.s32 d26, q13, #14 47 vadd.s16 q8, q13, q14 48 vsub.s16 q9, q13, q14 55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13, 62 vmull.s16 q13, d5, d18 ; s3 = sinpi_4_9 * x2 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 83 vqrshrn.s32 d16, q13, #14
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 111 vtrn.32 q13, q15 114 vtrn.16 q12, q13 160 vmull.s16 q13, d27, d3 168 vmlal.s16 q13, d23, d2 179 vqrshrn.s32 d13, q13, #14 ; >> 14 186 vmull.s16 q13, d16, d0 194 vmlsl.s16 q13, d24, d0 205 vqrshrn.s32 d22, q13, #14 ; >> 14 233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2 [all...] |
vp9_iht4x4_add_neon.asm | 31 vmull.s16 q13, d23, d1 ; (input[0] + input[2]) * cospi_16_64 37 vqrshrn.s32 d26, q13, #14 47 vadd.s16 q8, q13, q14 48 vsub.s16 q9, q13, q14 55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13, 62 vmull.s16 q13, d5, d18 ; s3 = sinpi_4_9 * x2 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 83 vqrshrn.s32 d16, q13, #14
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 111 vtrn.32 q13, q15 114 vtrn.16 q12, q13 160 vmull.s16 q13, d27, d3 168 vmlal.s16 q13, d23, d2 179 vqrshrn.s32 d13, q13, #14 ; >> 14 186 vmull.s16 q13, d16, d0 194 vmlsl.s16 q13, d24, d0 205 vqrshrn.s32 d22, q13, #14 ; >> 14 233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2 [all...] |
vp9_iht4x4_add_neon.asm | 31 vmull.s16 q13, d23, d1 ; (input[0] + input[2]) * cospi_16_64 37 vqrshrn.s32 d26, q13, #14 47 vadd.s16 q8, q13, q14 48 vsub.s16 q9, q13, q14 55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13, 62 vmull.s16 q13, d5, d18 ; s3 = sinpi_4_9 * x2 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 83 vqrshrn.s32 d16, q13, #14
|
/external/pixman/pixman/ |
pixman-android-neon.S | 143 vadd.u16 q12, q12, q13 168 vadd.u16 q12, q12, q13 176 vadd.u16 q12, q12, q13 249 vdup.u16 q13, UX 260 vadd.u16 q12, q12, q13 264 vadd.u16 q13, q13, q13 266 vadd.u16 q12, q12, q13
|
pixman-arm-neon-asm.S | 169 vrshr.u16 q13, q10, #8 172 vraddhn.u16 d20, q10, q13 279 vrshr.u16 q13, q10, #8 286 vraddhn.u16 d20, q10, q13 367 vrshr.u16 q13, q10, #8 370 vraddhn.u16 d20, q10, q13 596 vrshr.u16 q13, q11, #8 600 vraddhn.u16 d31, q13, q11 610 vrshr.u16 q13, q11, #8 617 vraddhn.u16 d31, q13, q1 [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
lpc_masking_model_neon.S | 35 vmov.s64 q13, #0 @ Initialize sum64. 93 vqadd.s64 q0, q13, q15 @ Sum and test overflow. 95 vshr.s64 q13, #1 97 vadd.s64 q0, q13, q15 101 vmov.s64 q13, q0 @ update sum64. 120 vshr.s64 q13, #1 140 vshr.s64 q13, #1
|
transform_neon.S | 73 vmull.s16 q13, d1, d7 @ WebRtcIsacfix_kCosTab1[k] * inre2Q9[k] 75 vmlsl.s16 q13, d3, d5 @ WebRtcIsacfix_kSinTab1[k] * inre1Q9[k] 80 vqdmulh.s32 q3, q13, q11 @ xrQ16 * factQ19 87 vabs.s32 q13, q3 91 vmax.u32 q15, q13 123 vld1.32 {q12, q13}, [r7]! @ tmpimQ16[] 128 vrshl.s32 q13, q13, q8 137 vmovn.s32 d7, q13 198 vmull.s16 q13, d7, d4 @ WebRtcIsacfix_kSinTab2[k] * xrQ1 [all...] |
lattice_neon.S | 62 vmull.s32 q13, d1, d29 @ input1 * (*ptr0) 81 vrshrn.i64 d1, q13, #15 101 vmull.s32 q13, d0, d29 @ input1 * (*ptr0) 113 vrshrn.i64 d0, q13, #15
|
/external/chromium_org/third_party/libjpeg_turbo/simd/ |
jsimd_arm_neon.S | 236 * 5 | d26 | d27 ( q13 ) 255 vmul.s16 q13, q13, q1 508 vqrshrn.s16 d21, q13, #2 723 * 5 | d26 | d27 ( q13 ) [all...] |
/external/openssl/crypto/sha/asm/ |
sha1-armv4-large.S | 506 vadd.i32 q13,q3,q14 522 vst1.32 {q13},[r12,:128]! 526 vext.8 q13,q15,q12,#4 536 vshr.u32 q12,q13,#30 539 vshl.u32 q13,q13,#2 545 veor q8,q8,q13 553 vadd.i32 q13,q8,q14 570 vst1.32 {q13},[r12,:128]! 573 vext.8 q13,q15,q12,# [all...] |
/external/chromium_org/third_party/openmax_dl/dl/api/arm/ |
arm64COMM_s.h | 171 str q13, [sp, #80] 220 ldr q13, [sp, #80]
|
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_interleave_memcpy_neon.s | 90 vld1.8 {q13}, [r12]! 99 vst2.8 {q12, q13}, [r10]!
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blur.S | 90 vmull.u16 q13, d29, d0[0] 123 vmlal.u16 q13, d21, d\dreg[\lane] 139 vqrshrn.u32 d21, q13, #16 - FRACTION_BITS 168 * q12-q13 -- temporaries for load and vext operations. 192 vext.u16 q13, q9, q10, #7 198 vext.u16 q13, q9, q10, #6 204 vext.u16 q13, q9, q10, #5 210 //vext.u16 q13, q9, q10, #4 216 vext.u16 q13, q9, q10, #3 222 vext.u16 q13, q9, q10, # [all...] |
/external/libhevc/common/arm/ |
ihevc_intra_pred_luma_planar.s | 274 vdup.16 q13, r4 @(7) 286 vmlal.u8 q13, d5, d0 @(7) 289 vmlal.u8 q13, d8, d1 @(7) 292 vmlal.u8 q13, d6, d3 @(7) 295 vmlal.u8 q13, d9, d22 @(7) 313 vshl.s16 q13, q13, q7 @(7)shr 349 vmovn.i16 d26, q13 @(7) 450 vdup.16 q13, r4 @(7) 466 vmlal.u8 q13, d5, d0 @(7 [all...] |
ihevc_intra_pred_chroma_horz.s | 204 @vmovl.u8 q13,d26 213 @vqadd.s16 q11,q13,q12 227 @vqadd.s16 q11,q13,q12 284 vmovl.u8 q13,d26 293 vqadd.s16 q11,q13,q12 324 vmovl.u8 q13,d26 333 vqadd.s16 q11,q13,q12
|
ihevc_intra_pred_luma_horz.s | 199 vmovl.u8 q13,d26 208 vqadd.s16 q11,q13,q12 222 vqadd.s16 q11,q13,q12 277 vmovl.u8 q13,d26 286 vqadd.s16 q11,q13,q12 317 vmovl.u8 q13,d26 326 vqadd.s16 q11,q13,q12
|
/external/libhevc/decoder/arm/ |
ihevcd_itrans_recon_dc_chroma.s | 107 vaddw.u8 q13,q0,d6 117 vqmovun.s16 d6,q13 169 vaddw.u8 q13,q0,d6 176 vqmovun.s16 d6,q13
|
ihevcd_itrans_recon_dc_luma.s | 108 vaddw.u8 q13,q0,d4 118 vqmovun.s16 d4,q13 167 vaddw.u8 q13,q0,d4 174 vqmovun.s16 d4,q13
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_memcpy_neon.asm | 44 vld1.8 {q12, q13}, [r1]! 47 vst1.8 {q12, q13}, [r0]!
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
lattice_neon.S | 69 vmull.s32 q13, d1, d29 @ input1 * (*ptr0) 88 vrshrn.i64 d1, q13, #15 108 vmull.s32 q13, d0, d29 @ input1 * (*ptr0) 120 vrshrn.i64 d0, q13, #15
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
vp8_memcpy_neon.asm | 44 vld1.8 {q12, q13}, [r1]! 47 vst1.8 {q12, q13}, [r0]!
|
/external/llvm/test/MC/ARM/ |
neon-cmp-encoding.s | 116 vclt.s8 q12, q13, q3 117 vclt.s16 q12, q13, q3 118 vclt.s32 q12, q13, q3 119 vclt.u8 q12, q13, q3 120 vclt.u16 q12, q13, q3 121 vclt.u32 q12, q13, q3 122 vclt.f32 q12, q13, q3 132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2] 133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2] 134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2 [all...] |