/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 38 VLD1.8 {d26,d27},[r0],r1 41 VEXT.8 d10,d26,d27,#5 42 VEXT.8 d12,d26,d27,#1 43 VEXT.8 d18,d26,d27,#2 44 VEXT.8 d19,d26,d27,#3 45 VEXT.8 d13,d26,d27,#4 46 VADDL.U8 q13,d26,d10 51 VMLA.I16 d26,d8,d31 59 VSUB.I16 d26,d26,d [all...] |
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S | 45 VMOV.32 d26[0],r6 47 VMOVL.U8 q13,d26 49 VCGT.S16 d27,d26,#0 61 VTST.16 d26,d26,d1 63 VBIT d29,d13,d26 64 VBIT d24,d31,d26
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 63 VEXT.8 d26,d18,d19,#2 77 VADD.I16 d26,d26,d19 82 VMLSL.S16 q0,d26,d30 83 VEXT.8 d26,d20,d21,#2 86 VADD.I16 d26,d26,d21 93 VMLSL.S16 q1,d26,d30 95 VADD.I16 d26,d8,d23 103 VMLSL.S16 q2,d26,d3 [all...] |
omxVCM4P10_InterpolateLuma_s.S | 64 VRHADD.U8 d26,d26,d18 69 VST1.32 {d26[0]},[r12],r3 79 VST1.32 {d26[0]},[r12],r3 88 VRHADD.U8 d26,d26,d19 93 VST1.32 {d26[0]},[r12],r3 119 VRHADD.U8 d26,d26,d4 124 VST1.32 {d26[0]},[r12],r [all...] |
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S | 59 VMOV.32 d26[0],r6 62 VMOVL.U8 q13,d26 64 VCGT.S16 d27,d26,#0 76 VTST.16 d26,d26,d1 78 VBIT d29,d13,d26 79 VBIT d24,d31,d26
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 455 vshr.u64 d26,d20,#41 459 vsli.64 d26,d20,#23 467 veor d24,d26 @ Sigma1(e) 473 vshr.u64 d26,d16,#39 476 vsli.64 d26,d16,#25 482 veor d23,d26 @ Sigma0(a) 492 vshr.u64 d26,d19,#41 496 vsli.64 d26,d19,#23 504 veor d24,d26 @ Sigma1(e) 510 vshr.u64 d26,d23,#3 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 455 vshr.u64 d26,d20,#41 459 vsli.64 d26,d20,#23 467 veor d24,d26 @ Sigma1(e) 473 vshr.u64 d26,d16,#39 476 vsli.64 d26,d16,#25 482 veor d23,d26 @ Sigma0(a) 492 vshr.u64 d26,d19,#41 496 vsli.64 d26,d19,#23 504 veor d24,d26 @ Sigma1(e) 510 vshr.u64 d26,d23,#3 [all...] |
/system/core/debuggerd/ |
vfp.S | 33 fconstd d26, #26
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 69 vst1.u8 {d26}, [r8@64], r1 ; store oq1 98 vst1.u8 {d26}, [r8@64], r1 ; store op3 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r [all...] |
vp9_convolve8_avg_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 229 vld1.u32 {d26[0]}, [r4], r1 230 vld1.u32 {d26[1]}, [r7], r1 235 vmovl.u8 q13, d26 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all...] |
vp9_convolve8_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 218 vld1.u32 {d26[0]}, [r4], r1 219 vld1.u32 {d26[1]}, [r7], r1 224 vmovl.u8 q13, d26 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all...] |
vp9_short_iht4x4_add_neon.asm | 37 vqrshrn.s32 d26, q13, #14 214 vld1.32 {d26[0]}, [r1], r2 215 vld1.32 {d26[1]}, [r1], r2 220 vaddw.u8 q8, q8, d26 224 vqmovun.s16 d26, q8 232 vst1.32 {d26[1]}, [r1], r2 233 vst1.32 {d26[0]}, [r1] ; no post-increment
|
/external/jpeg/ |
jsimd_arm_neon.S | 199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]! 425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]! 440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29 441 transpose_4x4 d26, d27, d28, d29 447 vqmovun.s16 d26, q13 461 vst1.32 {d26[0]}, [TMP1]! 463 vst1.32 {d26[1]}, [TMP2]! 466 vst1.8 {d26[0]}, [TMP1]! 468 vst1.8 {d26[1]}, [TMP1]! 470 vst1.8 {d26[2]}, [TMP1] [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 55 vmlal.s16 q7, d26, d26 101 vmull.s16 q9, d26, d26
|
shortfdct_neon.asm | 78 vmov.s16 d26, #7 83 vadd.s16 d4, d4, d26 ; a1 + 7 151 vmlal.s16 q9, d26, d17 ; A[1] = c1*2217 + d1*5352 + 14500 152 vmlsl.s16 q10, d26, d16 ; A[3] = d1*2217 - c1*5352 + 7500 198 vmlal.s16 q9, d26, d17 ; A[4] = c1*2217 + d1*5352 + 12000 199 vmlsl.s16 q10, d26, d16 ; A[12] = d1*2217 - c1*5352 + 51000
|
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
neon-shiftaccum-encoding.s | 72 vrsra.s8 d5, d26, #8 90 vrsra.s8 d26, #8 107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2] 124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2] 151 vsri.16 d26, d12, #16 186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
|
neont2-shiftaccum-encoding.s | 75 vrsra.s8 d5, d26, #8 93 vrsra.s8 d26, #8 110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53] 127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3] 154 vsri.16 d26, d12, #16 189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 59 vmlal.s16 q9, d26, d26 129 vmlal.s16 q9, d26, d26 249 vmlal.s16 q9, d26, d26
|
sixtappredict16x16_neon.asm | 76 vdup.8 d4, d26[0] 77 vdup.8 d5, d26[4] 230 vld1.u8 {d26}, [lr], r2 255 vmlal.u8 q6, d26, d5 279 vmov d22, d26 308 vdup.8 d4, d26[0] 309 vdup.8 d5, d26[4] 330 vext.8 d26, d7, d8, #4 341 vmlsl.u8 q7, d26, d4 ;-(src_ptr[2] * vp8_filter[4]) 353 vext.8 d26, d6, d7, #3 ;construct src_ptr[1 [all...] |
sixtappredict8x4_neon.asm | 70 vdup.8 d4, d26[0] 72 vdup.8 d5, d26[4] 228 vqrshrun.s16 d26, q8, #7 ;shift/round/saturate to u8 262 vmlsl.u8 q6, d26, d1 264 vmlsl.u8 q3, d26, d4 ;-(src_ptr[2] * vp8_filter[4]) 271 vmlal.u8 q5, d26, d2 280 vmull.u8 q8, d26, d3 317 vdup.8 d4, d26[0] 318 vdup.8 d5, d26[4] 412 vld1.u8 {d26}, [r0], r [all...] |
bilinearpredict8x8_neon.asm | 91 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 115 vmull.u8 q5, d26, d0 123 vmlal.u8 q4, d26, d1 155 vld1.u8 {d26}, [r0], r1 169 vst1.u8 {d26}, [r4], lr
|
vp8_subpixelvariance8x8_neon.asm | 94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8 117 vmull.u8 q5, d26, d0 125 vmlal.u8 q4, d26, d1 135 vqrshrn.u16 d26, q5, #7 148 vld1.u8 {d26}, [r0], r1
|
bilinearpredict8x4_neon.asm | 69 vqrshrn.u16 d26, q10, #7 93 vmlal.u8 q4, d26, d1 115 vld1.u8 {d26}, [r0], r1
|