HomeSort by relevance Sort by last modified time
    Searched refs:d28 (Results 1 - 25 of 43) sorted by null

1 2

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 50 VLD1.8 {d28,d29},[r0],r1
53 VEXT.8 d10,d28,d29,#5
54 VEXT.8 d12,d28,d29,#1
55 VEXT.8 d20,d28,d29,#2
56 VEXT.8 d21,d28,d29,#3
57 VEXT.8 d13,d28,d29,#4
58 VADDL.U8 q14,d28,d10
62 VMLA.I16 d28,d8,d31
63 VMLS.I16 d28,d12,d30
67 VQRSHRUN.S16 d28,q14,#
    [all...]
armVCM4P10_DeblockingLuma_unsafe_s.S 71 VHADD.U8 d28,d4,d9
75 VRHADD.U8 d28,d28,d5
79 VBIF d29,d28,d17
85 VHADD.U8 d28,d8,d5
91 VRHADD.U8 d22,d28,d9
95 VQRSHRN.U16 d28,q13,#2
97 VBIF d28,d10,d12
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 72 VEXT.8 d28,d18,d19,#6
75 VADD.I16 d27,d27,d28
80 VEXT.8 d28,d20,d21,#6
85 VADD.I16 d27,d27,d28
87 VEXT.8 d28,d22,d23,#6
94 VADD.I16 d27,d27,d28
96 VEXT.8 d28,d24,d25,#6
100 VADD.I16 d27,d27,d28
omxVCM4P10_InterpolateLuma_s.S 66 VRHADD.U8 d28,d28,d20
71 VST1.32 {d28[0]},[r12]
81 VST1.32 {d28[0]},[r12]
90 VRHADD.U8 d28,d28,d21
95 VST1.32 {d28[0]},[r12]
121 VRHADD.U8 d28,d28,d6
126 VST1.32 {d28[0]},[r12
    [all...]
armVCM4P10_DeblockingChroma_unsafe_s.S 18 VMOV d28,d18
21 VZIP.8 d18,d28
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S 118 VZIP.8 d28,d11
121 VZIP.16 d24,d28
125 VTRN.32 d30,d28
131 VST1.8 {d28},[r10],r11
  /external/libvpx/vp8/common/arm/neon/
bilinearpredict4x4_neon.asm 65 vqrshrn.u16 d28, q7, #7 ;shift/round/saturate to u8
80 vmull.u8 q1, d28, d0
83 vext.8 d26, d28, d29, #4 ;construct src_ptr[pixel_step]
106 vld1.32 {d28[0]}, [r0], r1 ;load src data
107 vld1.32 {d28[1]}, [r0], r1
116 vst1.32 {d28[0]}, [r4], lr ;store result
117 vst1.32 {d28[1]}, [r4], lr
sixtappredict8x4_neon.asm 85 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
90 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
95 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
100 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
105 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
110 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
115 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
120 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
125 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
130 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]
    [all...]
sixtappredict8x8_neon.asm 77 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
82 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
87 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
92 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
97 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
102 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
107 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
112 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
117 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
122 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3]
    [all...]
sixtappredict16x16_neon.asm 97 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
101 vmlsl.u8 q8, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
105 vext.8 d28, d7, d8, #1
109 vmlsl.u8 q9, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
113 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
117 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
121 vext.8 d28, d7, d8, #4
125 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
129 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
133 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5]
    [all...]
sixtappredict4x4_neon.asm 135 vqrshrun.s16 d28, q8, #7
210 vext.8 d23, d27, d28, #4
221 vext.8 d24, d28, d29, #4
233 vmull.u8 q4, d28, d0
244 vmlal.u8 q3, d28, d2 ;(src_ptr[0] * vp8_filter[2])
345 vqrshrun.s16 d28, q8, #7
349 vst1.32 {d28[0]}, [r1]
350 vst1.32 {d28[1]}, [r2]
364 vld1.32 {d28[0]}, [r0], r1
366 vld1.32 {d28[1]}, [r0], r
    [all...]
bilinearpredict8x8_neon.asm 93 vqrshrn.u16 d28, q8, #7
117 vmull.u8 q7, d28, d0
125 vmlal.u8 q6, d28, d1
157 vld1.u8 {d28}, [r0], r1
171 vst1.u8 {d28}, [r4], lr
bilinearpredict16x16_neon.asm 188 vld1.u8 {d28, d29}, [lr]!
195 vmull.u8 q7, d28, d0
202 vmlal.u8 q5, d28, d1
312 vld1.u8 {d28, d29}, [r0], r1
319 vmull.u8 q7, d28, d0
326 vmlal.u8 q5, d28, d1
recon16x16mb_neon.asm 39 vmovl.u8 q4, d28
90 vmovl.u8 q4, d28
  /system/core/debuggerd/
vfp.S 35 fconstd d28, #28
  /external/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 58 vmlal.s16 q9, d28, d28
115 vmlal.s16 q9, d28, d28
159 vmull.s16 q10, d28, d28
shortfdct_neon.asm 58 vrshrn.i32 d28, q14, #14
76 vmlal.s16 q4, d28, d7[0] ;sumtemp for i=0
77 vmlal.s16 q5, d28, d7[1] ;sumtemp for i=1
78 vmlal.s16 q6, d28, d7[2] ;sumtemp for i=2
79 vmlal.s16 q7, d28, d7[3] ;sumtemp for i=3
variance_neon.asm 62 vmlal.s16 q9, d28, d28
132 vmlal.s16 q9, d28, d28
252 vmlal.s16 q9, d28, d28
vp8_subpixelvariance8x8_neon.asm 96 vqrshrn.u16 d28, q8, #7
119 vmull.u8 q7, d28, d0
127 vmlal.u8 q6, d28, d1
137 vqrshrn.u16 d28, q7, #7
150 vld1.u8 {d28}, [r0], r1
vp8_subpixelvariance16x16_neon.asm 194 vld1.u8 {d28, d29}, [lr]!
201 vmull.u8 q7, d28, d0
208 vmlal.u8 q5, d28, d1
321 vld1.u8 {d28, d29}, [r0], r1
328 vmull.u8 q7, d28, d0
335 vmlal.u8 q5, d28, d1
394 vmlal.s16 q9, d28, d28
fastfdct8x4_neon.asm 81 vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>16
90 vadd.s16 d5, d28, d31 ;op[1] = temp1 + temp2 -- q is not necessary, just for protection
132 vshr.s16 q14, q14, #1 ;d28:temp1 = ( c1 * x_c3)>>16; d29:temp1 = (d1 * x_c3)>>16
141 vadd.s16 d7, d28, d31 ;b2 = temp1 + temp2 -- q is not necessary, just for protection
  /external/openssl/crypto/sha/asm/
sha512-armv4.s 456 vld1.64 {d28},[r3,:64]! @ K[i++]
463 vadd.i64 d27,d28,d23
493 vld1.64 {d28},[r3,:64]! @ K[i++]
500 vadd.i64 d27,d28,d22
530 vld1.64 {d28},[r3,:64]! @ K[i++]
537 vadd.i64 d27,d28,d21
567 vld1.64 {d28},[r3,:64]! @ K[i++]
574 vadd.i64 d27,d28,d20
604 vld1.64 {d28},[r3,:64]! @ K[i++]
611 vadd.i64 d27,d28,d1
    [all...]
  /external/openssl/crypto/modes/asm/
ghash-armv4.s 319 vld1.64 d28,[r0,:64]!
332 vdup.8 d4,d28[0] @ broadcast lowest byte
353 vld1.64 d28,[r2]!
362 vdup.8 d4,d28[0] @ broadcast lowest byte
371 vdup.8 d4,d28[0] @ broadcast lowest byte
  /frameworks/rs/driver/
rsdIntrinsics_Convolve.S 59 vmovl.u8 q4, d28
142 vmlal.s16 q8, d28, d6[0]
143 vmlal.s16 q9, d28, d6[1]
144 vmlal.s16 q10, d28, d6[2]
145 vmlal.s16 q11, d28, d6[3]
154 vshrn.i32 d28, q10, #8
207 vmlal.s16 q8, d28, d6[0]
208 vmlal.s16 q9, d28, d6[1]
209 vmlal.s16 q10, d28, d6[2]
213 vshrn.i32 d28, q10, #
    [all...]
  /frameworks/support/renderscript/v8/rs_support/driver/
rsdIntrinsics_Convolve.S 59 vmovl.u8 q4, d28
142 vmlal.s16 q8, d28, d6[0]
143 vmlal.s16 q9, d28, d6[1]
144 vmlal.s16 q10, d28, d6[2]
145 vmlal.s16 q11, d28, d6[3]
154 vshrn.i32 d28, q10, #8
207 vmlal.s16 q8, d28, d6[0]
208 vmlal.s16 q9, d28, d6[1]
209 vmlal.s16 q10, d28, d6[2]
213 vshrn.i32 d28, q10, #
    [all...]

Completed in 464 milliseconds

1 2