HomeSort by relevance Sort by last modified time
    Searched refs:d24 (Results 1 - 25 of 58) sorted by null

1 2 3

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 26 VLD1.8 {d24,d25},[r0],r1
29 VEXT.8 d10,d24,d25,#5
30 VEXT.8 d12,d24,d25,#1
31 VEXT.8 d16,d24,d25,#2
32 VEXT.8 d17,d24,d25,#3
33 VEXT.8 d13,d24,d25,#4
34 VADDL.U8 q12,d24,d10
39 VMLA.I16 d24,d8,d31
47 VSUB.I16 d24,d24,d
    [all...]
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S 79 VBIT d24,d31,d26
84 VBIF d24,d8,d16
96 VST1.8 {d24[0]},[r12],lr
97 VST1.8 {d24[1]},[r10],lr
98 VST1.8 {d24[2]},[r12],lr
99 VST1.8 {d24[3]},[r10],lr
100 VST1.8 {d24[4]},[r12],lr
101 VST1.8 {d24[5]},[r10],lr
102 VST1.8 {d24[6]},[r12],lr
103 VST1.8 {d24[7]},[r10],l
    [all...]
omxVCM4P10_InterpolateLuma_s.S 65 VRHADD.U8 d24,d24,d16
70 VST1.32 {d24[0]},[r2]
80 VST1.32 {d24[0]},[r2]
89 VRHADD.U8 d24,d24,d17
94 VST1.32 {d24[0]},[r2]
120 VRHADD.U8 d24,d24,d2
125 VST1.32 {d24[0]},[r2
    [all...]
armVCM4P10_DeblockingLuma_unsafe_s.S 25 VRHADD.U8 d24,d4,d8
33 VHADD.U8 d26,d24,d6
37 VHADD.U8 d27,d24,d10
45 VQMOVUN.S16 d24,q12
51 VBIF d24,d8,d16
90 VQRSHRN.U16 d24,q11,#1
94 VBIF d24,d22,d12
96 VBIF d24,d8,d16
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S 78 VZIP.8 d24,d25
82 VZIP.16 d24,d10
85 VTRN.32 d7,d24
90 VST1.8 {d24},[r10],r11
117 VZIP.8 d24,d25
121 VZIP.16 d24,d28
124 VTRN.32 d7,d24
129 VST1.8 {d24},[r10],r11
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S 64 VBIT d24,d31,d26
66 VBIF d24,d8,d16
69 VST1.8 {d24},[r0],r1
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 96 VEXT.8 d28,d24,d25,#6
98 VEXT.8 d27,d24,d25,#4
101 VEXT.8 d8,d24,d25,#2
102 VADDL.S16 q3,d24,d29
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S 68 VST1.8 {d24},[r0],r1
88 VST1.8 {d24},[r0],r1
armVCM4P10_DeblockingChroma_unsafe_s.S 36 VQMOVUN.S16 d24,q12
  /external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
sha512-armv4.S 450 vshr.u64 d24,d20,#14 @ 0
457 vsli.64 d24,d20,#50
465 veor d24,d25
467 veor d24,d26 @ Sigma1(e)
469 vadd.i64 d27,d24
470 vshr.u64 d24,d16,#28
474 vsli.64 d24,d16,#36
480 veor d23,d24,d25
487 vshr.u64 d24,d19,#14 @ 1
494 vsli.64 d24,d19,#5
    [all...]
  /external/openssl/crypto/sha/asm/
sha512-armv4.S 450 vshr.u64 d24,d20,#14 @ 0
457 vsli.64 d24,d20,#50
465 veor d24,d25
467 veor d24,d26 @ Sigma1(e)
469 vadd.i64 d27,d24
470 vshr.u64 d24,d16,#28
474 vsli.64 d24,d16,#36
480 veor d23,d24,d25
487 vshr.u64 d24,d19,#14 @ 1
494 vsli.64 d24,d19,#5
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_convolve8_avg_neon.asm 82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
228 vld1.u32 {d24[0]}, [r7], r1
231 vld1.u32 {d24[1]}, [r4], r1
234 vmovl.u8 q12, d24
    [all...]
vp9_convolve8_neon.asm 82 vld1.8 {d24}, [r0], r1
88 vtrn.8 d24, d25
93 vmovl.u8 q8, d24
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
217 vld1.u32 {d24[0]}, [r7], r1
220 vld1.u32 {d24[1]}, [r4], r1
223 vmovl.u8 q12, d24
    [all...]
vp9_mb_lpf_neon.asm 67 vst1.u8 {d24}, [r8@64], r1 ; store op0
96 vst1.u8 {d24}, [r8@64], r1 ; store op5
190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1
191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1
192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1
193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1
194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1
195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1
196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1
197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r
    [all...]
  /system/core/debuggerd/
vfp.S 31 fconstd d24, #24
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 53 vmlal.s16 q9, d24, d24
100 vmull.s16 q8, d24, d24
  /external/libvpx/libvpx/vp8/common/arm/neon/
variance_neon.asm 56 vmlal.s16 q9, d24, d24
126 vmlal.s16 q9, d24, d24
187 vmlal.s16 q9, d24, d24
246 vmlal.s16 q9, d24, d24
bilinearpredict8x4_neon.asm 67 vqrshrn.u16 d24, q8, #7
87 vmull.u8 q3, d24, d0
91 vmlal.u8 q2, d24, d1
113 vld1.u8 {d24}, [r0], r1
123 vst1.u8 {d24}, [r4], lr
sixtappredict16x16_neon.asm 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
73 vdup.8 d1, d24[4]
228 vld1.u8 {d24}, [lr], r2
244 vmlsl.u8 q5, d24, d4
253 vmlal.u8 q4, d24, d5
260 vmull.u8 q10, d24, d3
304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
305 vdup.8 d1, d24[4]
328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2]
339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4]
    [all...]
vp8_subpixelvariance8x8_neon.asm 69 vqrshrn.u16 d24, q8, #7
115 vmull.u8 q3, d24, d0
123 vmlal.u8 q2, d24, d1
133 vqrshrn.u16 d24, q3, #7
146 vld1.u8 {d24}, [r0], r1
174 vsubl.u8 q6, d24, d2
sixtappredict8x4_neon.asm 62 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
63 vdup.8 d1, d24[4]
143 vqrshrun.s16 d24, q9, #7
151 vst1.u8 {d24}, [lr]!
256 vmull.u8 q5, d24, d0
260 vmlsl.u8 q4, d24, d1
269 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2])
310 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
312 vdup.8 d1, d24[4]
387 vqrshrun.s16 d24, q9, #
    [all...]
sixtappredict8x8_neon.asm 65 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
66 vdup.8 d1, d24[4]
149 vqrshrun.s16 d24, q9, #7
156 vst1.u8 {d24}, [lr]!
284 vmlsl.u8 q5, d24, d4
293 vmlal.u8 q4, d24, d5
300 vmull.u8 q10, d24, d3
339 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
340 vdup.8 d1, d24[4]
421 vqrshrun.s16 d24, q9, #
    [all...]
  /external/pixman/pixman/
pixman-arm-neon-asm.S 105 * d24, d25, d26, d27 - contain loading mask pixel data (if mask is used)
584 vmvn.8 d24, d3 /* get inverted alpha */
586 vmull.u8 q8, d24, d4
587 vmull.u8 q9, d24, d5
588 vmull.u8 q10, d24, d6
589 vmull.u8 q11, d24, d7
712 /* inverted alpha in {d24} */
714 vmull.u8 q8, d24, d4
715 vmull.u8 q9, d24, d5
716 vmull.u8 q10, d24, d
    [all...]
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}

Completed in 234 milliseconds

1 2 3