HomeSort by relevance Sort by last modified time
    Searched refs:d26 (Results 1 - 25 of 57) sorted by null

1 2 3

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 38 VLD1.8 {d26,d27},[r0],r1
41 VEXT.8 d10,d26,d27,#5
42 VEXT.8 d12,d26,d27,#1
43 VEXT.8 d18,d26,d27,#2
44 VEXT.8 d19,d26,d27,#3
45 VEXT.8 d13,d26,d27,#4
46 VADDL.U8 q13,d26,d10
51 VMLA.I16 d26,d8,d31
59 VSUB.I16 d26,d26,d
    [all...]
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S 45 VMOV.32 d26[0],r6
47 VMOVL.U8 q13,d26
49 VCGT.S16 d27,d26,#0
61 VTST.16 d26,d26,d1
63 VBIT d29,d13,d26
64 VBIT d24,d31,d26
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 63 VEXT.8 d26,d18,d19,#2
77 VADD.I16 d26,d26,d19
82 VMLSL.S16 q0,d26,d30
83 VEXT.8 d26,d20,d21,#2
86 VADD.I16 d26,d26,d21
93 VMLSL.S16 q1,d26,d30
95 VADD.I16 d26,d8,d23
103 VMLSL.S16 q2,d26,d3
    [all...]
omxVCM4P10_InterpolateLuma_s.S 64 VRHADD.U8 d26,d26,d18
69 VST1.32 {d26[0]},[r12],r3
79 VST1.32 {d26[0]},[r12],r3
88 VRHADD.U8 d26,d26,d19
93 VST1.32 {d26[0]},[r12],r3
119 VRHADD.U8 d26,d26,d4
124 VST1.32 {d26[0]},[r12],r
    [all...]
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S 59 VMOV.32 d26[0],r6
62 VMOVL.U8 q13,d26
64 VCGT.S16 d27,d26,#0
76 VTST.16 d26,d26,d1
78 VBIT d29,d13,d26
79 VBIT d24,d31,d26
  /external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
sha512-armv4.S 455 vshr.u64 d26,d20,#41
459 vsli.64 d26,d20,#23
467 veor d24,d26 @ Sigma1(e)
473 vshr.u64 d26,d16,#39
476 vsli.64 d26,d16,#25
482 veor d23,d26 @ Sigma0(a)
492 vshr.u64 d26,d19,#41
496 vsli.64 d26,d19,#23
504 veor d24,d26 @ Sigma1(e)
510 vshr.u64 d26,d23,#3
    [all...]
  /external/openssl/crypto/sha/asm/
sha512-armv4.S 455 vshr.u64 d26,d20,#41
459 vsli.64 d26,d20,#23
467 veor d24,d26 @ Sigma1(e)
473 vshr.u64 d26,d16,#39
476 vsli.64 d26,d16,#25
482 veor d23,d26 @ Sigma0(a)
492 vshr.u64 d26,d19,#41
496 vsli.64 d26,d19,#23
504 veor d24,d26 @ Sigma1(e)
510 vshr.u64 d26,d23,#3
    [all...]
  /system/core/debuggerd/
vfp.S 33 fconstd d26, #26
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 69 vst1.u8 {d26}, [r8@64], r1 ; store oq1
98 vst1.u8 {d26}, [r8@64], r1 ; store op3
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r
    [all...]
vp9_convolve8_avg_neon.asm 84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
229 vld1.u32 {d26[0]}, [r4], r1
230 vld1.u32 {d26[1]}, [r7], r1
235 vmovl.u8 q13, d26
251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
    [all...]
vp9_convolve8_neon.asm 84 vld1.8 {d26}, [r0], r1
89 vtrn.8 d26, d27
95 vmovl.u8 q10, d26
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
218 vld1.u32 {d26[0]}, [r4], r1
219 vld1.u32 {d26[1]}, [r7], r1
224 vmovl.u8 q13, d26
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
    [all...]
vp9_short_iht4x4_add_neon.asm 37 vqrshrn.s32 d26, q13, #14
214 vld1.32 {d26[0]}, [r1], r2
215 vld1.32 {d26[1]}, [r1], r2
220 vaddw.u8 q8, q8, d26
224 vqmovun.s16 d26, q8
232 vst1.32 {d26[1]}, [r1], r2
233 vst1.32 {d26[0]}, [r1] ; no post-increment
  /external/jpeg/
jsimd_arm_neon.S 199 vld1.16 {d24, d25, d26, d27}, [DCT_TABLE]!
425 vld1.16 {d26, d27, d28, d29}, [DCT_TABLE]!
440 idct_helper d4, d6, d8, d10, d7, d9, d11, 19, d26, d27, d28, d29
441 transpose_4x4 d26, d27, d28, d29
447 vqmovun.s16 d26, q13
461 vst1.32 {d26[0]}, [TMP1]!
463 vst1.32 {d26[1]}, [TMP2]!
466 vst1.8 {d26[0]}, [TMP1]!
468 vst1.8 {d26[1]}, [TMP1]!
470 vst1.8 {d26[2]}, [TMP1]
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 55 vmlal.s16 q7, d26, d26
101 vmull.s16 q9, d26, d26
shortfdct_neon.asm 78 vmov.s16 d26, #7
83 vadd.s16 d4, d4, d26 ; a1 + 7
151 vmlal.s16 q9, d26, d17 ; A[1] = c1*2217 + d1*5352 + 14500
152 vmlsl.s16 q10, d26, d16 ; A[3] = d1*2217 - c1*5352 + 7500
198 vmlal.s16 q9, d26, d17 ; A[4] = c1*2217 + d1*5352 + 12000
199 vmlsl.s16 q10, d26, d16 ; A[12] = d1*2217 - c1*5352 + 51000
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
92 vpmax.f32 d9, d26, d11
100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
neon-shiftaccum-encoding.s 72 vrsra.s8 d5, d26, #8
90 vrsra.s8 d26, #8
107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2]
124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2]
151 vsri.16 d26, d12, #16
186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
neont2-shiftaccum-encoding.s 75 vrsra.s8 d5, d26, #8
93 vrsra.s8 d26, #8
110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53]
127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3]
154 vsri.16 d26, d12, #16
189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
  /external/libvpx/libvpx/vp8/common/arm/neon/
variance_neon.asm 59 vmlal.s16 q9, d26, d26
129 vmlal.s16 q9, d26, d26
249 vmlal.s16 q9, d26, d26
sixtappredict16x16_neon.asm 76 vdup.8 d4, d26[0]
77 vdup.8 d5, d26[4]
230 vld1.u8 {d26}, [lr], r2
255 vmlal.u8 q6, d26, d5
279 vmov d22, d26
308 vdup.8 d4, d26[0]
309 vdup.8 d5, d26[4]
330 vext.8 d26, d7, d8, #4
341 vmlsl.u8 q7, d26, d4 ;-(src_ptr[2] * vp8_filter[4])
353 vext.8 d26, d6, d7, #3 ;construct src_ptr[1
    [all...]
sixtappredict8x4_neon.asm 70 vdup.8 d4, d26[0]
72 vdup.8 d5, d26[4]
228 vqrshrun.s16 d26, q8, #7 ;shift/round/saturate to u8
262 vmlsl.u8 q6, d26, d1
264 vmlsl.u8 q3, d26, d4 ;-(src_ptr[2] * vp8_filter[4])
271 vmlal.u8 q5, d26, d2
280 vmull.u8 q8, d26, d3
317 vdup.8 d4, d26[0]
318 vdup.8 d5, d26[4]
412 vld1.u8 {d26}, [r0], r
    [all...]
bilinearpredict8x8_neon.asm 91 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8
115 vmull.u8 q5, d26, d0
123 vmlal.u8 q4, d26, d1
155 vld1.u8 {d26}, [r0], r1
169 vst1.u8 {d26}, [r4], lr
vp8_subpixelvariance8x8_neon.asm 94 vqrshrn.u16 d26, q6, #7 ;shift/round/saturate to u8
117 vmull.u8 q5, d26, d0
125 vmlal.u8 q4, d26, d1
135 vqrshrn.u16 d26, q5, #7
148 vld1.u8 {d26}, [r0], r1
bilinearpredict8x4_neon.asm 69 vqrshrn.u16 d26, q10, #7
93 vmlal.u8 q4, d26, d1
115 vld1.u8 {d26}, [r0], r1

Completed in 307 milliseconds

1 2 3