/external/llvm/test/MC/ARM/ |
neon-shuffle-encoding.s | 95 vtrn.8 q14, q6 96 vtrn.i8 q14, q6 97 vtrn.u8 q14, q6 98 vtrn.p8 q14, q6 99 vtrn.16 q14, q6 100 vtrn.i16 q14, q6 101 vtrn.u16 q14, q6 102 vtrn.p16 q14, q6 103 vtrn.32 q14, q6 104 vtrn.i32 q14, q6 [all...] |
neon-shiftaccum-encoding.s | 8 vsra.s16 q3, q6, #16 17 vsra.u32 q3, q6, #21 26 vsra.s16 q6, #16 35 vsra.u32 q6, #21 43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2] 52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3] 60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2] 69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3 [all...] |
neont2-shiftaccum-encoding.s | 10 vsra.s16 q3, q6, #16 19 vsra.u32 q3, q6, #21 28 vsra.s16 q6, #16 37 vsra.u32 q6, #21 45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61] 54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61] 62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1] 71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1 [all...] |
neon-minmax-encoding.s | 20 vmax.s16 q4, q5, q6 24 vmax.u32 q6, q7, q8 28 vmax.s16 q5, q6 50 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x4c,0x86,0x1a,0xf2] 54 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x60,0xc6,0x2e,0xf3] 57 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x4c,0xa6,0x1a,0xf2] 82 vmin.s16 q4, q5, q6 86 vmin.u32 q6, q7, q8 90 vmin.s16 q5, q6 112 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x5c,0x86,0x1a,0xf2 [all...] |
neont2-minmax-encoding.s | 22 vmax.s16 q4, q5, q6 26 vmax.u32 q6, q7, q8 30 vmax.s16 q5, q6 52 @ CHECK: vmax.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x4c,0x86] 56 @ CHECK: vmax.u32 q6, q7, q8 @ encoding: [0x2e,0xff,0x60,0xc6] 59 @ CHECK: vmax.s16 q5, q5, q6 @ encoding: [0x1a,0xef,0x4c,0xa6] 84 vmin.s16 q4, q5, q6 88 vmin.u32 q6, q7, q8 92 vmin.s16 q5, q6 114 @ CHECK: vmin.s16 q4, q5, q6 @ encoding: [0x1a,0xef,0x5c,0x86 [all...] |
neont2-pairwise-encoding.s | 22 vpaddl.s16 q5, q6 23 vpaddl.s32 q6, q5 35 @ CHECK: vpaddl.s16 q5, q6 @ encoding: [0xb4,0xff,0x4c,0xa2] 36 @ CHECK: vpaddl.s32 q6, q5 @ encoding: [0xb8,0xff,0x4a,0xc2] 50 vpadal.s32 q6, q12 63 @ CHECK: vpadal.s32 q6, q12 @ encoding: [0xb8,0xff,0x68,0xc6]
|
neon-sub-encoding.s | 23 vsub.f32 q5, q6 45 @ CHECK: vsub.f32 q5, q5, q6 @ encoding: [0x4c,0xad,0x2a,0xf2] 147 vhsub.u32 q6, q7 160 @ CHECK: vhsub.u32 q6, q6, q7 @ encoding: [0x4e,0xc2,0x2c,0xf3] 163 vsubw.s8 q6, d5 166 vsubw.u8 q6, d5 170 @ CHECK: vsubw.s8 q6, q6, d5 @ encoding: [0x05,0xc3,0x8c,0xf2] 173 @ CHECK: vsubw.u8 q6, q6, d5 @ encoding: [0x05,0xc3,0x8c,0xf3 [all...] |
neon-shift-encoding.s | 115 vsra.s32 q3, q6, #31 124 vsra.s32 q6, #31 133 @ CHECK: vsra.s32 q3, q6, #31 @ encoding: [0x5c,0x61,0xa1,0xf2] 141 @ CHECK: vsra.s32 q6, q6, #31 @ encoding: [0x5c,0xc1,0xa1,0xf2] 151 vsra.u32 q3, q6, #31 160 vsra.u32 q6, #31 169 @ CHECK: vsra.u32 q3, q6, #31 @ encoding: [0x5c,0x61,0xa1,0xf3] 177 @ CHECK: vsra.u32 q6, q6, #31 @ encoding: [0x5c,0xc1,0xa1,0xf3 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
sixtappredict4x4_neon.asm | 66 vld1.u8 {q6}, [r0], r1 88 vmov q4, q3 ;keep original src data in q4 q6 89 vmov q6, q5 94 vshr.u64 q10, q6, #8 101 vshr.u64 q5, q6, #32 108 vshr.u64 q10, q6, #16 115 vshr.u64 q5, q6, #24 131 vld1.u8 {q6}, [r0], r1 154 vmov q4, q3 ;keep original src data in q4 q6 155 vmov q6, q [all...] |
idct_dequant_full_2x_neon.asm | 57 ; q6: 4 * sinpi : c1/temp1 61 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2 87 vqsub.s16 q2, q6, q5 96 vqsub.s16 q6, q11, q2 100 vtrn.32 q4, q6 103 vtrn.16 q6, q7 107 ; q6: l 2, 6,10,14 r 2, 6,10,14 119 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2 120 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2 142 vqsub.s16 q6, q3, q [all...] |
vp8_subpixelvariance8x8_neon.asm | 49 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 59 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 76 vmull.u8 q6, d2, d0 ;(src_ptr[0] * Filter[0]) 88 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * Filter[1]) 94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 118 vmull.u8 q6, d27, d0 127 vmlal.u8 q6, d28, d1 136 vqrshrn.u16 d27, q6, #7 174 vsubl.u8 q6, d24, d [all...] |
sixtappredict16x16_neon.asm | 170 vmull.u8 q6, d30, d3 174 vqadd.s16 q12, q6 176 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3]) 182 vqadd.s16 q9, q6 203 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 207 vabs.s32 q8, q6 235 vmull.u8 q6, d21, d0 240 vmlsl.u8 q6, d22, d1 245 vmlsl.u8 q6, d25, d4 250 vmlal.u8 q6, d23, d [all...] |
sixtappredict8x8_neon.asm | 76 vld1.u8 {q6}, [r0], r1 136 vmull.u8 q6, d31, d3 143 vqadd.s16 q10, q6 157 vld1.u8 {q6}, [r0], r1 166 ;vld1.u8 {q6}, [r0], r1 232 vmull.u8 q6, d30, d3 238 vqadd.s16 q11, q6 250 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 256 vabs.s32 q8, q6 275 vmull.u8 q6, d21, d [all...] |
sixtappredict8x4_neon.asm | 73 vld1.u8 {q6}, [r0], r1 132 vmull.u8 q6, d31, d3 137 vqadd.s16 q10, q6 150 vld1.u8 {q6}, [r0], r1 219 vmull.u8 q6, d30, d3 225 vqadd.s16 q11, q6 239 vld1.s32 {q5, q6}, [r3] ;load second_pass filter 243 vabs.s32 q8, q6 257 vmull.u8 q6, d25, d0 262 vmlsl.u8 q6, d26, d [all...] |
bilinearpredict8x8_neon.asm | 46 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 56 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 62 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 73 vmull.u8 q6, d2, d0 ;(src_ptr[0] * vp8_filter[0]) 85 vmlal.u8 q6, d3, d1 ;(src_ptr[1] * vp8_filter[1]) 91 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 116 vmull.u8 q6, d27, d0 125 vmlal.u8 q6, d28, d1 134 vqrshrn.u16 d7, q6, #7
|
vp8_subpixelvariance16x16s_neon.asm | 58 vext.8 q7, q6, q7, #1 64 vrhadd.u8 q3, q6, q7 68 vsubl.u8 q6, d2, d24 84 vpadal.s16 q8, q6 149 vld1.u8 {q6}, [r0], r1 156 vrhadd.u8 q4, q4, q6 157 vrhadd.u8 q6, q6, q15 256 vext.8 q7, q6, q7, #1 261 vrhadd.u8 q3, q6, q [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_short_idct32x32_add_neon.asm | 103 ; q6-q9 contain the results (out[j * 32 + 0-31]) 115 vrshr.s16 q6, q6, #6 120 vaddw.u8 q6, q6, d8 125 vqmovun.s16 d8, q6 137 ; q6-q9 contain the results (out[j * 32 + 0-31]) 149 vrshr.s16 q6, q6, #6 154 vaddw.u8 q6, q6, d [all...] |
vp9_short_iht8x8_add_neon.asm | 136 vmull.s16 q6, d27, d2 144 vmlsl.s16 q6, d23, d3 152 vqrshrn.s32 d11, q6, #14 ; >> 14 243 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7] 244 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7] 272 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6]; 277 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6]; 311 vmull.s16 q6, d23, d30 319 vmlal.s16 q6, d25, d31 327 vadd.s32 q12, q2, q6 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 25 VADDL.U8 q6,d12,d13 37 VADDL.U8 q6,d12,d13 49 VADDL.U8 q6,d12,d13 61 VADDL.U8 q6,d12,d13
|
omxVCM4P10_TransformDequantLumaDCFromPair_s.S | 49 VMOV.I32 q6,#0x2 53 VMLAL.S16 q6,d3,d5 57 VSHRN.I32 d3,q6,#2
|
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_ARGB8888_to_YUV420SP_NEON.s | 42 vmov.u16 q6, #66 @coefficient assignment 80 vand.u16 q6,#0x00FF @B 83 vmla.u16 q8,q6,q13 @112 * B[k] 91 vmls.u16 q7,q6,q15 @-(18 * B[k]) 108 vmla.u16 q7,q6,q8 @q0 += 25 *B[k] 122 vshr.u16 q6,q6,#8 @B 126 vmla.u16 q0,q6,q8 @q0 += 25 *B[k] 153 vand.u16 q6,#0x00FF @B 159 vmla.u16 q7,q6,q8 @q0 += 25 *B[k [all...] |
csc_interleave_memcpy_neon.s | 79 vld1.8 {q6}, [r11]! 96 vst2.8 {q6, q7}, [r10]!
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon.S | 61 vmovl.u8 q6, d30 287 vsubl.u8 Q6, d14, d8 @ U to 16 bit - 128 = Q6 // U(n, n+1, n+2,n+3) 378 vsubl.u8 Q6, d12, d8 @ U to 16 bit - 128 = Q6 // U(n, n+1, n+2,n+3) 472 vsubl.u8 Q6, d14, d8 @ U to 16 bit - 128 = Q6 // U(n, n+1, n+2,n+3) 741 vmovl.u8 q6, d3 742 vsub.i16 q6, q7, q6 // q6 = 1 - src. [all...] |
/external/libvpx/libvpx/vp9/common/mips/dspr2/ |
vp9_loopfilter_macros_dspr2.h | 371 "preceu.ph.qbl %[q6_l], %[q6] \n\t" \ 379 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), [q7] "r" (q7) \ 411 "preceu.ph.qbr %[q6_r], %[q6] \n\t" \ 419 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), [q7] "r" (q7) \ 452 "precr.qb.ph %[q6], %[q6_l], %[q6_r] \n\t" \ 457 [q5] "=&r" (q5),[q6] "=&r" (q6) \
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 44 vld1.s16 {q6, q7}, [r6@128] ; load round_ptr [0-15] 49 vadd.s16 q4, q6 ; x + Round 66 vadd.s16 q10, q6 ; x2 + Round 77 vld1.s16 {q6, q7}, [r8@128] ;load dequant_ptr[i] 98 vmul.s16 q2, q6, q4 ; x * Dequant 107 vmul.s16 q12, q6, q10 ; x2 * Dequant 110 vld1.16 {q6, q7}, [r0@128] ; load inverse scan order 119 vand q0, q6, q14 ; get all valid numbers from scan array 129 vand q10, q6, q2 ; get all valid numbers from scan array
|