/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 26 VLD1.8 {d24,d25},[r0],r1 29 VEXT.8 d10,d24,d25,#5 30 VEXT.8 d12,d24,d25,#1 31 VEXT.8 d16,d24,d25,#2 32 VEXT.8 d17,d24,d25,#3 33 VEXT.8 d13,d24,d25,#4 34 VADDL.U8 q12,d24,d10 39 VMLA.I16 d24,d8,d31 47 VSUB.I16 d24,d24,d [all...] |
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S | 79 VBIT d24,d31,d26 84 VBIF d24,d8,d16 96 VST1.8 {d24[0]},[r12],lr 97 VST1.8 {d24[1]},[r10],lr 98 VST1.8 {d24[2]},[r12],lr 99 VST1.8 {d24[3]},[r10],lr 100 VST1.8 {d24[4]},[r12],lr 101 VST1.8 {d24[5]},[r10],lr 102 VST1.8 {d24[6]},[r12],lr 103 VST1.8 {d24[7]},[r10],l [all...] |
omxVCM4P10_InterpolateLuma_s.S | 65 VRHADD.U8 d24,d24,d16 70 VST1.32 {d24[0]},[r2] 80 VST1.32 {d24[0]},[r2] 89 VRHADD.U8 d24,d24,d17 94 VST1.32 {d24[0]},[r2] 120 VRHADD.U8 d24,d24,d2 125 VST1.32 {d24[0]},[r2 [all...] |
armVCM4P10_DeblockingLuma_unsafe_s.S | 25 VRHADD.U8 d24,d4,d8 33 VHADD.U8 d26,d24,d6 37 VHADD.U8 d27,d24,d10 45 VQMOVUN.S16 d24,q12 51 VBIF d24,d8,d16 90 VQRSHRN.U16 d24,q11,#1 94 VBIF d24,d22,d12 96 VBIF d24,d8,d16
|
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S | 78 VZIP.8 d24,d25 82 VZIP.16 d24,d10 85 VTRN.32 d7,d24 90 VST1.8 {d24},[r10],r11 117 VZIP.8 d24,d25 121 VZIP.16 d24,d28 124 VTRN.32 d7,d24 129 VST1.8 {d24},[r10],r11
|
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S | 64 VBIT d24,d31,d26 66 VBIF d24,d8,d16 69 VST1.8 {d24},[r0],r1
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 96 VEXT.8 d28,d24,d25,#6 98 VEXT.8 d27,d24,d25,#4 101 VEXT.8 d8,d24,d25,#2 102 VADDL.S16 q3,d24,d29
|
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S | 68 VST1.8 {d24},[r0],r1 88 VST1.8 {d24},[r0],r1
|
armVCM4P10_DeblockingChroma_unsafe_s.S | 36 VQMOVUN.S16 d24,q12
|
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 450 vshr.u64 d24,d20,#14 @ 0 457 vsli.64 d24,d20,#50 465 veor d24,d25 467 veor d24,d26 @ Sigma1(e) 469 vadd.i64 d27,d24 470 vshr.u64 d24,d16,#28 474 vsli.64 d24,d16,#36 480 veor d23,d24,d25 487 vshr.u64 d24,d19,#14 @ 1 494 vsli.64 d24,d19,#5 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 450 vshr.u64 d24,d20,#14 @ 0 457 vsli.64 d24,d20,#50 465 veor d24,d25 467 veor d24,d26 @ Sigma1(e) 469 vadd.i64 d27,d24 470 vshr.u64 d24,d16,#28 474 vsli.64 d24,d16,#36 480 veor d23,d24,d25 487 vshr.u64 d24,d19,#14 @ 1 494 vsli.64 d24,d19,#5 [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_convolve8_avg_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 228 vld1.u32 {d24[0]}, [r7], r1 231 vld1.u32 {d24[1]}, [r4], r1 234 vmovl.u8 q12, d24 [all...] |
vp9_convolve8_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 217 vld1.u32 {d24[0]}, [r7], r1 220 vld1.u32 {d24[1]}, [r4], r1 223 vmovl.u8 q12, d24 [all...] |
vp9_mb_lpf_neon.asm | 67 vst1.u8 {d24}, [r8@64], r1 ; store op0 96 vst1.u8 {d24}, [r8@64], r1 ; store op5 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r [all...] |
/system/core/debuggerd/ |
vfp.S | 31 fconstd d24, #24
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 53 vmlal.s16 q9, d24, d24 100 vmull.s16 q8, d24, d24
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 56 vmlal.s16 q9, d24, d24 126 vmlal.s16 q9, d24, d24 187 vmlal.s16 q9, d24, d24 246 vmlal.s16 q9, d24, d24
|
bilinearpredict8x4_neon.asm | 67 vqrshrn.u16 d24, q8, #7 87 vmull.u8 q3, d24, d0 91 vmlal.u8 q2, d24, d1 113 vld1.u8 {d24}, [r0], r1 123 vst1.u8 {d24}, [r4], lr
|
sixtappredict16x16_neon.asm | 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 73 vdup.8 d1, d24[4] 228 vld1.u8 {d24}, [lr], r2 244 vmlsl.u8 q5, d24, d4 253 vmlal.u8 q4, d24, d5 260 vmull.u8 q10, d24, d3 304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 305 vdup.8 d1, d24[4] 328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2] 339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
vp8_subpixelvariance8x8_neon.asm | 69 vqrshrn.u16 d24, q8, #7 115 vmull.u8 q3, d24, d0 123 vmlal.u8 q2, d24, d1 133 vqrshrn.u16 d24, q3, #7 146 vld1.u8 {d24}, [r0], r1 174 vsubl.u8 q6, d24, d2
|
sixtappredict8x4_neon.asm | 62 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 63 vdup.8 d1, d24[4] 143 vqrshrun.s16 d24, q9, #7 151 vst1.u8 {d24}, [lr]! 256 vmull.u8 q5, d24, d0 260 vmlsl.u8 q4, d24, d1 269 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2]) 310 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 312 vdup.8 d1, d24[4] 387 vqrshrun.s16 d24, q9, # [all...] |
sixtappredict8x8_neon.asm | 65 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 66 vdup.8 d1, d24[4] 149 vqrshrun.s16 d24, q9, #7 156 vst1.u8 {d24}, [lr]! 284 vmlsl.u8 q5, d24, d4 293 vmlal.u8 q4, d24, d5 300 vmull.u8 q10, d24, d3 339 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 340 vdup.8 d1, d24[4] 421 vqrshrun.s16 d24, q9, # [all...] |
/external/pixman/pixman/ |
pixman-arm-neon-asm.S | 105 * d24, d25, d26, d27 - contain loading mask pixel data (if mask is used) 584 vmvn.8 d24, d3 /* get inverted alpha */ 586 vmull.u8 q8, d24, d4 587 vmull.u8 q9, d24, d5 588 vmull.u8 q10, d24, d6 589 vmull.u8 q11, d24, d7 712 /* inverted alpha in {d24} */ 714 vmull.u8 q8, d24, d4 715 vmull.u8 q9, d24, d5 716 vmull.u8 q10, d24, d [all...] |
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|