/frameworks/base/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
R4R8First_v7.s | 38 VLD1.I32 {d8, d9, d10, d11}, [r0]!
52 VSUB.S32 d7, d10, d11 @ r1 = buf[12] - buf[14]@i1 = buf[13] - buf[15]@
53 VADD.S32 d6, d10, d11 @ r2 = buf[12] + buf[14]@i2 = buf[13] + buf[15]@
66 VREV64.I32 d10, d10
69 VSHR.S32 d10, d10, #1
76 VADD.S32 d14, d2, d10
77 VSUB.S32 d18, d2, d10
138 VST1.I32 {d8, d9, d10, d11}, [r0]! [all...] |
PrePostMDCT_v7.s | 39 VLD2.I32 {d8, d9, d10, d11}, [r0] @ tr1 = *(buf0 + 0)@ ti2 = *(buf0 + 1)@
95 VLD2.I32 {d8, d9, d10, d11}, [r0] @ tr1 = *(zbuf1 + 0)@ ti1 = *(zbuf1 + 1)@
|
/external/libvpx/vp8/common/arm/neon/ |
shortidct4x4llm_neon.asm | 57 vqsub.s16 d10, d6, d9 ;c1 61 vqadd.s16 d3, d13, d10 62 vqsub.s16 d4, d13, d10 84 vqsub.s16 d10, d6, d9 ;c1 88 vqadd.s16 d3, d13, d10 89 vqsub.s16 d4, d13, d10
|
sixtappredict4x4_neon.asm | 66 vext.8 d20, d10, d11, #5 81 vzip.32 d10, d11 85 vmlal.u8 q8, d10, d0 95 vzip.32 d10, d11 99 vmlsl.u8 q8, d10, d4 109 vzip.32 d10, d11 111 vmull.u8 q10, d10, d3 130 vext.8 d20, d10, d11, #5 147 vzip.32 d10, d11 152 vmlal.u8 q8, d10, d [all...] |
sixtappredict16x16_neon.asm | 71 vld1.u8 {d9, d10, d11}, [r0], r1 81 vmull.u8 q11, d10, d0 86 vext.8 d29, d9, d10, #1 94 vext.8 d29, d10, d11, #1 102 vext.8 d29, d9, d10, #4 110 vext.8 d29, d10, d11, #4 118 vext.8 d29, d9, d10, #5 126 vext.8 d29, d10, d11, #5 134 vext.8 d29, d9, d10, #2 142 vext.8 d29, d10, d11, # [all...] |
loopfiltersimpleverticaledge_neon.asm | 43 vld4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 45 vld4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 47 vld4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 49 vld4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 50 vld4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 51 vld4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 52 vld4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1 53 vld4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1 55 vswp d7, d10 80 vsubl.s8 q2, d8, d10 ; ( qs0 - ps0 [all...] |
sixtappredict8x4_neon.asm | 70 vmull.u8 q9, d10, d0 75 vext.8 d30, d10, d11, #1 85 vext.8 d30, d10, d11, #4 95 vext.8 d30, d10, d11, #2 105 vext.8 d30, d10, d11, #5 115 vext.8 d30, d10, d11, #3 147 vmull.u8 q10, d10, d0 153 vext.8 d29, d10, d11, #1 165 vext.8 d29, d10, d11, #4 177 vext.8 d29, d10, d11, # [all...] |
sixtappredict8x8_neon.asm | 74 vmull.u8 q9, d10, d0 79 vext.8 d30, d10, d11, #1 89 vext.8 d30, d10, d11, #4 99 vext.8 d30, d10, d11, #2 109 vext.8 d30, d10, d11, #5 119 vext.8 d30, d10, d11, #3 160 vmull.u8 q10, d10, d0 166 vext.8 d29, d10, d11, #1 178 vext.8 d29, d10, d11, #4 190 vext.8 d29, d10, d11, # [all...] |
loopfilterverticaledge_uv_neon.asm | 41 vld1.u8 {d10}, [r0], r1 199 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1 201 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1 203 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1 205 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1 207 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1 209 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 211 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1 213 vst4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1
|
loopfilterverticaledge_y_neon.asm | 36 vld1.u8 {d10}, [r0], r1 197 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0] 198 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r2] 199 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r3] 200 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r12], r1 202 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r12] 203 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1 205 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0] 206 vst4.8 {d10[7], d11[7], d12[7], d13[7]}, [r2], r1
|
bilinearpredict16x16_neon.asm | 49 vld1.u8 {d8, d9, d10}, [r0], r1 83 vext.8 d9, d9, d10, #1 106 vld1.u8 {d8, d9, d10}, [r0], r1 132 vext.8 d9, d9, d10, #1 155 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 166 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 240 vld1.u8 {d8, d9, d10}, [r0], r1 268 vext.8 d9, d9, d10, #1
|
bilinearpredict4x4_neon.asm | 55 vzip.32 d10, d11 62 vmlal.u8 q8, d10, d1
|
bilinearpredict8x4_neon.asm | 51 vmull.u8 q10, d10, d0 57 vext.8 d11, d10, d11, #1
|
bilinearpredict8x8_neon.asm | 77 vmull.u8 q10, d10, d0 83 vext.8 d11, d10, d11, #1
|
/external/libvpx/vp8/decoder/arm/neon/ |
dequant_dc_idct_neon.asm | 65 vqsub.s16 d10, d6, d9 ;c1 69 vqadd.s16 d3, d13, d10 70 vqsub.s16 d4, d13, d10 96 vqsub.s16 d10, d6, d9 ;c1 100 vqadd.s16 d3, d13, d10 101 vqsub.s16 d4, d13, d10
|
dequant_idct_neon.asm | 59 vqsub.s16 d10, d6, d9 ;c1 63 vqadd.s16 d3, d13, d10 64 vqsub.s16 d4, d13, d10 90 vqsub.s16 d10, d6, d9 ;c1 94 vqadd.s16 d3, d13, d10 95 vqsub.s16 d4, d13, d10
|
/system/core/debuggerd/ |
vfp.S | 16 fconstd d10, #10
|
/external/libvpx/vp8/encoder/arm/neon/ |
variance_neon.asm | 86 vshr.s32 d10, d10, #8 87 vsub.s32 d0, d1, d10 148 vshr.s32 d10, d10, #7 149 vsub.s32 d0, d1, d10 203 vshr.s32 d10, d10, #7 204 vsub.s32 d0, d1, d10 268 vshr.s32 d10, d10, # [all...] |
vp8_subpixelvariance16x16s_neon.asm | 47 vld1.u8 {d8, d9, d10, d11}, [r0], r1 82 vmlal.s16 q9, d10, d10 115 vshr.s32 d10, d10, #8 116 vsub.s32 d0, d1, d10 163 vsubl.u8 q0, d8, d10 211 vshr.s32 d10, d10, #8 212 vsub.s32 d0, d1, d10 [all...] |
subtract_neon.asm | 69 vsubl.u8 q12, d8, d10 108 vld1.8 {d10}, [r1], r12 120 vsubl.u8 q13, d10, d11 144 vld1.8 {d10}, [r2], r12 156 vsubl.u8 q13, d10, d11
|
vp8_subpixelvariance8x8_neon.asm | 80 vmull.u8 q10, d10, d0 86 vext.8 d11, d10, d11, #1 183 vmlal.s16 q9, d10, d10 209 vshr.s32 d10, d10, #6 210 vsub.s32 d0, d1, d10
|
fastfdct4x4_neon.asm | 52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1 94 vadd.s16 d2, d10, d12 ;a2 = ((temp1 * x_c2 )>>16) + temp1
|
vp8_subpixelvariance16x16_neon.asm | 52 vld1.u8 {d8, d9, d10}, [r0], r1 86 vext.8 d9, d9, d10, #1 109 vld1.u8 {d8, d9, d10}, [r0], r1 135 vext.8 d9, d9, d10, #1 158 vqrshrn.u16 d10, q9, #7 ;shift/round/saturate to u8 169 vst1.u8 {d10, d11, d12, d13}, [lr]! ;store result 246 vld1.u8 {d8, d9, d10}, [r0], r1 274 vext.8 d9, d9, d10, #1 408 vshr.s32 d10, d10, # [all...] |
fastfdct8x4_neon.asm | 50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3] 64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 65 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1 106 vadd.s16 d10, d2, d8 ;a1 = ip[0]+ip[12] 115 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1 116 vsub.s16 d15, d10, d11 ;temp2 = a1 - b1
|
vp8_mse16x16_neon.asm | 128 vshr.s32 d10, d10, #8 129 vsub.s32 d0, d1, d10
|