/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 17 VLD1.8 {d22,d23},[r0],r1 18 VEXT.8 d10,d22,d23,#5 19 VEXT.8 d12,d22,d23,#1 20 VEXT.8 d14,d22,d23,#2 21 VEXT.8 d15,d22,d23,#3 22 VEXT.8 d13,d22,d23,#4 23 VADDL.U8 q11,d22,d10 27 VMLA.I16 d22,d8,d31 35 VSUB.I16 d22,d22,d [all...] |
omxVCM4P10_InterpolateLuma_s.S | 63 VRHADD.U8 d22,d22,d14 68 VST1.32 {d22[0]},[r2],r3 78 VST1.32 {d22[0]},[r2],r3 87 VRHADD.U8 d22,d22,d15 92 VST1.32 {d22[0]},[r2],r3 118 VRHADD.U8 d22,d22,d0 123 VST1.32 {d22[0]},[r2],r [all...] |
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 41 VMUL.I16 d22,d18,d31 48 VADD.I16 d4,d4,d22
|
armVCM4P10_DeblockingLuma_unsafe_s.S | 31 VQSUB.U8 d22,d5,d18 38 VMAX.U8 d30,d26,d22 91 VRHADD.U8 d22,d28,d9 94 VBIF d24,d22,d12
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 87 VEXT.8 d28,d22,d23,#6 90 VEXT.8 d27,d22,d23,#4 91 VEXT.8 d8,d22,d23,#2 92 VADDL.S16 q2,d22,d29
|
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S | 101 VMLA.I16 d22,d2,d31 112 VSUB.I16 d22,d22,d8 134 VADDL.S16 q6,d12,d22 142 VADDL.S16 q0,d16,d22 147 VADDL.S16 q1,d20,d22
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1 104 vst1.u8 {d22}, [r8@64], r1 ; store oq2 210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1 212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1 214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1 216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1 218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1 220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1 222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1 224 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r [all...] |
vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 219 vld1.u32 {d22[0]}, [r4], r1 224 vmovl.u8 q11, d22 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2 [all...] |
vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 208 vld1.u32 {d22[0]}, [r4], r1 213 vmovl.u8 q11, d22 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2 [all...] |
vp9_loopfilter_neon.asm | 192 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0) 198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 210 vcgt.u8 d22, d22, d2 ; (abs(q1 - q0) > thresh)*-1 238 vorr d22, d21, d22 ; hevmask 242 vand d27, d27, d22 ; filter &= hev 267 vbic d27, d27, d22 ; filter &= ~hev 456 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0) 462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4 [all...] |
/external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/ |
sha512-armv4.S | 464 veor d29,d21,d22 468 veor d29,d22 @ Ch(e,f,g) 500 vadd.i64 d27,d28,d22 517 veor d22,d24,d25 519 veor d22,d26 @ Sigma0(a) 521 vadd.i64 d22,d27 523 vadd.i64 d22,d30 544 vshr.u64 d24,d22,#28 546 vshr.u64 d25,d22,#34 547 vshr.u64 d26,d22,#3 [all...] |
/external/openssl/crypto/sha/asm/ |
sha512-armv4.S | 464 veor d29,d21,d22 468 veor d29,d22 @ Ch(e,f,g) 500 vadd.i64 d27,d28,d22 517 veor d22,d24,d25 519 veor d22,d26 @ Sigma0(a) 521 vadd.i64 d22,d27 523 vadd.i64 d22,d30 544 vshr.u64 d24,d22,#28 546 vshr.u64 d25,d22,#34 547 vshr.u64 d26,d22,#3 [all...] |
/system/core/debuggerd/ |
vfp.S | 29 fconstd d22, #22
|
/external/pixman/pixman/ |
pixman-arm-neon-asm-bilinear.S | 515 q1, q11, d0, d1, d20, d21, d22, d23 521 vshll.u16 q10, d22, #BILINEAR_INTERPOLATION_BITS 522 vmlsl.u16 q10, d22, d31 544 q1, q11, d0, d1, d20, d21, d22, d23 \ 551 vshll.u16 q10, d22, #BILINEAR_INTERPOLATION_BITS 552 vmlsl.u16 q10, d22, d31 559 bilinear_load_mask mask_fmt, 4, d22 569 bilinear_duplicate_mask mask_fmt, 4, d22 577 mask_fmt, 4, d0, d1, q0, d22, \ 904 vld1.32 {d22}, [TMP1], STRID [all...] |
pixman-arm-neon-asm.S | 174 vraddhn.u16 d22, q12, q15 289 vraddhn.u16 d22, q12, q15 372 vraddhn.u16 d22, q12, q15 620 vmvn.8 d22, d3 624 vmull.u8 q8, d22, d4 626 vmull.u8 q9, d22, d5 628 vmull.u8 q10, d22, d6 630 vmull.u8 q11, d22, d7 674 vmvn.8 d22, d3 678 vmull.u8 q8, d22, d [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 48 vmlal.s16 q7, d22, d22 99 vmull.s16 q7, d22, d22
|
/external/llvm/test/MC/ARM/ |
neon-vld-encoding.s | 175 vld3.p16 {d20, d22, d24}, [r5]! 195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4] 204 vld4.32 {d16, d18, d20, d22}, [r8] 211 vld4.u32 {d16, d18, d20, d22}, [r8]! 216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2 217 vld4.i16 {d16, d18, d20, d22}, [r6], r3 225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4] 231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4] 235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4] 236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x66,0xf4 [all...] |
neont2-vld-encoding.s | 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01] 61 vld4.8 {d16, d18, d20, d22}, [r0:256]! 64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01] 65 vld4.16 {d16, d18, d20, d22}, [r0]! 68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01] 69 vld4.32 {d16, d18, d20, d22}, [r0]! 108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07] 109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
|
neon-vst-encoding.s | 79 vst3.p16 {d20, d22, d24}, [r5]! 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8] 114 vst4.u32 {d16, d18, d20, d22}, [r8]! 119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2 120 vst4.i16 {d16, d18, d20, d22}, [r6], r3 128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4] 134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4] 138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4] 139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x46,0xf4 [all...] |
neont2-pairwise-encoding.s | 75 vpmin.f32 d22, d23, d16 83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f] 88 vpmax.s32 d5, d22, d15 96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 50 vmlal.s16 q9, d22, d22 ;calculate sse 120 vmlal.s16 q9, d22, d22 ;calculate sse 181 vmlal.s16 q9, d22, d22 ;calculate sse 240 vmlal.s16 q9, d22, d22 ;calculate sse
|
bilinearpredict8x4_neon.asm | 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8 85 vmull.u8 q1, d22, d0 ;(src_ptr[0] * vp8_filter[0]) 111 vld1.u8 {d22}, [r0], r1 ;load src data 121 vst1.u8 {d22}, [r4], lr ;store result
|
sixtappredict16x16_neon.asm | 224 vld1.u8 {d22}, [lr], r2 240 vmlsl.u8 q6, d22, d1 242 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4]) 249 vmlal.u8 q5, d22, d2 258 vmull.u8 q8, d22, d3 279 vmov d22, d26 326 vext.8 d22, d7, d8, #1 337 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1]) 348 vext.8 d22, d6, d7, #2 ;construct src_ptr[0] 360 vmlal.u8 q6, d22, d2 ;(src_ptr[0] * vp8_filter[2] [all...] |
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels 111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst
|