/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 454 vshr.u64 d25,d20,#18 458 vsli.64 d25,d20,#46 465 veor d24,d25 472 vshr.u64 d25,d16,#34 475 vsli.64 d25,d16,#30 480 veor d23,d24,d25 491 vshr.u64 d25,d19,#18 495 vsli.64 d25,d19,#46 502 veor d24,d25 509 vshr.u64 d25,d23,#3 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 454 vshr.u64 d25,d20,#18 458 vsli.64 d25,d20,#46 465 veor d24,d25 472 vshr.u64 d25,d16,#34 475 vsli.64 d25,d16,#30 480 veor d23,d24,d25 491 vshr.u64 d25,d19,#18 495 vsli.64 d25,d19,#46 502 veor d24,d25 509 vshr.u64 d25,d23,#3 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 26 VLD1.8 {d24,d25},[r0],r1 29 VEXT.8 d10,d24,d25,#5 30 VEXT.8 d12,d24,d25,#1 31 VEXT.8 d16,d24,d25,#2 32 VEXT.8 d17,d24,d25,#3 33 VEXT.8 d13,d24,d25,#4
|
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S | 78 VZIP.8 d24,d25 83 VZIP.16 d25,d11 87 VTRN.32 d6,d25 94 VST1.8 {d25},[r10],r11 117 VZIP.8 d24,d25 122 VZIP.16 d25,d11 126 VTRN.32 d31,d25 133 VST1.8 {d25},[r10],r11
|
armVCM4P10_DeblockingLuma_unsafe_s.S | 46 VMAX.U8 d25,d27,d21 48 VMIN.U8 d25,d25,d19 52 VBIF d25,d9,d12 89 VQRSHRN.U16 d25,q12,#2 92 VBIF d25,d9,d12
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 96 VEXT.8 d28,d24,d25,#6 98 VEXT.8 d27,d24,d25,#4 99 VEXT.8 d29,d25,d6,#2 101 VEXT.8 d8,d24,d25,#2 105 VADD.I16 d8,d8,d25
|
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S | 70 VST1.8 {d25},[r0] 90 VST1.8 {d25},[r0],r1
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 66 vst1.u8 {d25}, [r8@64], r1 ; store op1 97 vst1.u8 {d25}, [r8@64], r1 ; store op4 188 vswp d23, d25 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r [all...] |
vp9_convolve8_avg_neon.asm | 83 vld1.8 {d25}, [r0], r1 88 vtrn.8 d24, d25 94 vmovl.u8 q9, d25 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 288 vmov d22, d25
|
vp9_convolve8_neon.asm | 83 vld1.8 {d25}, [r0], r1 88 vtrn.8 d24, d25 94 vmovl.u8 q9, d25 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25 266 vmov d22, d25
|
/system/core/debuggerd/ |
vfp.S | 32 fconstd d25, #25
|
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 57 vmlal.s16 q10, d25, d25 127 vmlal.s16 q10, d25, d25 188 vmlal.s16 q10, d25, d25 247 vmlal.s16 q10, d25, d25
|
bilinearpredict8x4_neon.asm | 68 vqrshrn.u16 d25, q9, #7 88 vmull.u8 q4, d25, d0 92 vmlal.u8 q3, d25, d1 114 vld1.u8 {d25}, [r0], r1 124 vst1.u8 {d25}, [r4], lr
|
sixtappredict8x4_neon.asm | 64 vdup.8 d2, d25[0] 68 vdup.8 d3, d25[4] 144 vqrshrun.s16 d25, q10, #7 153 vst1.u8 {d25}, [lr]! 257 vmull.u8 q6, d25, d0 261 vmlsl.u8 q5, d25, d1 270 vmlal.u8 q4, d25, d2 279 vmull.u8 q7, d25, d3 ;(src_ptr[1] * vp8_filter[3]) 314 vdup.8 d2, d25[0] 316 vdup.8 d3, d25[4 [all...] |
vp8_subpixelvariance8x8_neon.asm | 71 vqrshrn.u16 d25, q9, #7 116 vmull.u8 q4, d25, d0 124 vmlal.u8 q3, d25, d1 134 vqrshrn.u16 d25, q4, #7 147 vld1.u8 {d25}, [r0], r1 180 vsubl.u8 q7, d25, d3
|
sixtappredict4x4_neon.asm | 65 vdup.8 d2, d25[0] 67 vdup.8 d3, d25[4] 221 vext.8 d25, d29, d30, #4 234 vmull.u8 q5, d25, d5 ;(src_ptr[3] * vp8_filter[5]) 247 vmlal.u8 q6, d25, d3 280 vdup.8 d2, d25[0] 283 vdup.8 d3, d25[4] 380 vext.8 d25, d29, d30, #4 386 vmull.u8 q5, d25, d5 ;(src_ptr[3] * vp8_filter[5]) 399 vmlal.u8 q6, d25, d [all...] |
sixtappredict16x16_neon.asm | 74 vdup.8 d2, d25[0] 75 vdup.8 d3, d25[4] 229 vld1.u8 {d25}, [lr], r2 245 vmlsl.u8 q6, d25, d4 254 vmlal.u8 q5, d25, d5 306 vdup.8 d2, d25[0] 307 vdup.8 d3, d25[4] 329 vext.8 d25, d9, d10, #4 340 vmlsl.u8 q8, d25, d4 351 vext.8 d25, d10, d11, # [all...] |
sixtappredict8x8_neon.asm | 67 vdup.8 d2, d25[0] 71 vdup.8 d3, d25[4] 150 vqrshrun.s16 d25, q10, #7 158 vst1.u8 {d25}, [lr]! 285 vmlsl.u8 q6, d25, d4 294 vmlal.u8 q5, d25, d5 341 vdup.8 d2, d25[0] 342 vdup.8 d3, d25[4] 422 vqrshrun.s16 d25, q10, #7 427 vst1.u8 {d25}, [r4], r [all...] |
bilinearpredict8x8_neon.asm | 68 vqrshrn.u16 d25, q9, #7 114 vmull.u8 q4, d25, d0 122 vmlal.u8 q3, d25, d1 154 vld1.u8 {d25}, [r0], r1 168 vst1.u8 {d25}, [r4], lr
|
vp8_subpixelvariance16x16_neon.asm | 195 vld1.u8 {d24, d25}, [lr]! 203 vmull.u8 q4, d25, d0 210 vmlal.u8 q2, d25, d1 322 vld1.u8 {d24, d25}, [r0], r1 330 vmull.u8 q4, d25, d0 337 vmlal.u8 q2, d25, d1 394 vmlal.s16 q10, d25, d25
|
/external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/ |
lpc_masking_model_neon.S | 55 vdup.s32 d25, r2 71 vmull.s32 q0, d0, d25 114 vmull.s32 q0, d0, d25
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 54 vmlal.s16 q10, d25, d25
|
/external/valgrind/main/none/tests/arm/ |
vfp.c | 1092 TESTINSN_scalar_to_core("vmov.32 r8, d25[1]", r8, d25, i32, 0x11223344); [all...] |