/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 26 VLD1.8 {d24,d25},[r0],r1 29 VEXT.8 d10,d24,d25,#5 30 VEXT.8 d12,d24,d25,#1 31 VEXT.8 d16,d24,d25,#2 32 VEXT.8 d17,d24,d25,#3 33 VEXT.8 d13,d24,d25,#4 34 VADDL.U8 q12,d24,d10 39 VMLA.I16 d24,d8,d31 47 VSUB.I16 d24,d24,d [all...] |
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S | 79 VBIT d24,d31,d26 84 VBIF d24,d8,d16 96 VST1.8 {d24[0]},[r12],lr 97 VST1.8 {d24[1]},[r10],lr 98 VST1.8 {d24[2]},[r12],lr 99 VST1.8 {d24[3]},[r10],lr 100 VST1.8 {d24[4]},[r12],lr 101 VST1.8 {d24[5]},[r10],lr 102 VST1.8 {d24[6]},[r12],lr 103 VST1.8 {d24[7]},[r10],l [all...] |
omxVCM4P10_InterpolateLuma_s.S | 65 VRHADD.U8 d24,d24,d16 70 VST1.32 {d24[0]},[r2] 80 VST1.32 {d24[0]},[r2] 89 VRHADD.U8 d24,d24,d17 94 VST1.32 {d24[0]},[r2] 120 VRHADD.U8 d24,d24,d2 125 VST1.32 {d24[0]},[r2 [all...] |
armVCM4P10_DeblockingLuma_unsafe_s.S | 25 VRHADD.U8 d24,d4,d8 33 VHADD.U8 d26,d24,d6 37 VHADD.U8 d27,d24,d10 45 VQMOVUN.S16 d24,q12 51 VBIF d24,d8,d16 90 VQRSHRN.U16 d24,q11,#1 94 VBIF d24,d22,d12 96 VBIF d24,d8,d16
|
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S | 78 VZIP.8 d24,d25 82 VZIP.16 d24,d10 85 VTRN.32 d7,d24 90 VST1.8 {d24},[r10],r11 117 VZIP.8 d24,d25 121 VZIP.16 d24,d28 124 VTRN.32 d7,d24 129 VST1.8 {d24},[r10],r11
|
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S | 64 VBIT d24,d31,d26 66 VBIF d24,d8,d16 69 VST1.8 {d24},[r0],r1
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 96 VEXT.8 d28,d24,d25,#6 98 VEXT.8 d27,d24,d25,#4 101 VEXT.8 d8,d24,d25,#2 102 VADDL.S16 q3,d24,d29
|
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S | 68 VST1.8 {d24},[r0],r1 88 VST1.8 {d24},[r0],r1
|
armVCM4P10_DeblockingChroma_unsafe_s.S | 36 VQMOVUN.S16 d24,q12
|
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S | 113 VMLA.I16 d24,d2,d31 123 VSUB.I16 d24,d24,d8 140 VADDL.S16 q2,d14,d24 148 VADDL.S16 q0,d18,d24
|
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 450 vshr.u64 d24,d20,#14 @ 0 457 vsli.64 d24,d20,#50 465 veor d24,d25 467 veor d24,d26 @ Sigma1(e) 469 vadd.i64 d27,d24 470 vshr.u64 d24,d16,#28 474 vsli.64 d24,d16,#36 480 veor d23,d24,d25 487 vshr.u64 d24,d19,#14 @ 1 494 vsli.64 d24,d19,#5 [all...] |
/system/core/debuggerd/ |
vfp.S | 31 fconstd d24, #24
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 53 vmlal.s16 q9, d24, d24 100 vmull.s16 q8, d24, d24
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 56 vmlal.s16 q9, d24, d24 126 vmlal.s16 q9, d24, d24 187 vmlal.s16 q9, d24, d24 246 vmlal.s16 q9, d24, d24
|
bilinearpredict8x4_neon.asm | 67 vqrshrn.u16 d24, q8, #7 87 vmull.u8 q3, d24, d0 91 vmlal.u8 q2, d24, d1 113 vld1.u8 {d24}, [r0], r1 123 vst1.u8 {d24}, [r4], lr
|
sixtappredict16x16_neon.asm | 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 73 vdup.8 d1, d24[4] 228 vld1.u8 {d24}, [lr], r2 244 vmlsl.u8 q5, d24, d4 253 vmlal.u8 q4, d24, d5 260 vmull.u8 q10, d24, d3 304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 305 vdup.8 d1, d24[4] 328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2] 339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
vp8_subpixelvariance8x8_neon.asm | 69 vqrshrn.u16 d24, q8, #7 115 vmull.u8 q3, d24, d0 123 vmlal.u8 q2, d24, d1 133 vqrshrn.u16 d24, q3, #7 146 vld1.u8 {d24}, [r0], r1 174 vsubl.u8 q6, d24, d2
|
sixtappredict8x4_neon.asm | 62 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 63 vdup.8 d1, d24[4] 143 vqrshrun.s16 d24, q9, #7 151 vst1.u8 {d24}, [lr]! 256 vmull.u8 q5, d24, d0 260 vmlsl.u8 q4, d24, d1 269 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2]) 310 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 312 vdup.8 d1, d24[4] 387 vqrshrun.s16 d24, q9, # [all...] |
sixtappredict8x8_neon.asm | 65 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 66 vdup.8 d1, d24[4] 149 vqrshrun.s16 d24, q9, #7 156 vst1.u8 {d24}, [lr]! 284 vmlsl.u8 q5, d24, d4 293 vmlal.u8 q4, d24, d5 300 vmull.u8 q10, d24, d3 339 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 340 vdup.8 d1, d24[4] 421 vqrshrun.s16 d24, q9, # [all...] |
sixtappredict4x4_neon.asm | 61 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 63 vdup.8 d1, d24[4] 220 vext.8 d24, d28, d29, #4 241 vmlsl.u8 q6, d24, d1 246 vmlal.u8 q5, d24, d3 ;(src_ptr[1] * vp8_filter[3]) 276 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 278 vdup.8 d1, d24[4] 379 vext.8 d24, d28, d29, #4 393 vmlsl.u8 q6, d24, d1 398 vmlal.u8 q5, d24, d3 ;(src_ptr[1] * vp8_filter[3] [all...] |
bilinearpredict8x8_neon.asm | 66 vqrshrn.u16 d24, q8, #7 113 vmull.u8 q3, d24, d0 121 vmlal.u8 q2, d24, d1 153 vld1.u8 {d24}, [r0], r1 167 vst1.u8 {d24}, [r4], lr
|
vp8_subpixelvariance16x16_neon.asm | 195 vld1.u8 {d24, d25}, [lr]! 200 vmull.u8 q3, d24, d0 209 vmlal.u8 q1, d24, d1 ;(src_ptr[pixel_step] * Filter[1]) 322 vld1.u8 {d24, d25}, [r0], r1 327 vmull.u8 q3, d24, d0 336 vmlal.u8 q1, d24, d1 ;(src_ptr[pixel_step] * Filter[1]) 393 vmlal.s16 q9, d24, d24
|
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
neon-shiftaccum-encoding.s | 74 vrsra.s32 d7, d24, #32 92 vrsra.s32 d24, #32 109 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0x38,0x73,0xa0,0xf2] 126 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0x38,0x83,0xe0,0xf2] 152 vsri.32 d24, d13, #32 187 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0x1d,0x84,0xe0,0xf3]
|
neont2-shiftaccum-encoding.s | 77 vrsra.s32 d7, d24, #32 95 vrsra.s32 d24, #32 112 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0xa0,0xef,0x38,0x73] 129 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0xe0,0xef,0x38,0x83] 155 vsri.32 d24, d13, #32 190 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0xe0,0xff,0x1d,0x84]
|