HomeSort by relevance Sort by last modified time
    Searched refs:d22 (Results 1 - 25 of 72) sorted by null

1 2 3

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 17 VLD1.8 {d22,d23},[r0],r1
18 VEXT.8 d10,d22,d23,#5
19 VEXT.8 d12,d22,d23,#1
20 VEXT.8 d14,d22,d23,#2
21 VEXT.8 d15,d22,d23,#3
22 VEXT.8 d13,d22,d23,#4
23 VADDL.U8 q11,d22,d10
27 VMLA.I16 d22,d8,d31
35 VSUB.I16 d22,d22,d
    [all...]
omxVCM4P10_InterpolateLuma_s.S 63 VRHADD.U8 d22,d22,d14
68 VST1.32 {d22[0]},[r2],r3
78 VST1.32 {d22[0]},[r2],r3
87 VRHADD.U8 d22,d22,d15
92 VST1.32 {d22[0]},[r2],r3
118 VRHADD.U8 d22,d22,d0
123 VST1.32 {d22[0]},[r2],r
    [all...]
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 41 VMUL.I16 d22,d18,d31
48 VADD.I16 d4,d4,d22
armVCM4P10_DeblockingLuma_unsafe_s.S 31 VQSUB.U8 d22,d5,d18
38 VMAX.U8 d30,d26,d22
91 VRHADD.U8 d22,d28,d9
94 VBIF d24,d22,d12
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 87 VEXT.8 d28,d22,d23,#6
90 VEXT.8 d27,d22,d23,#4
91 VEXT.8 d8,d22,d23,#2
92 VADDL.S16 q2,d22,d29
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S 101 VMLA.I16 d22,d2,d31
112 VSUB.I16 d22,d22,d8
134 VADDL.S16 q6,d12,d22
142 VADDL.S16 q0,d16,d22
147 VADDL.S16 q1,d20,d22
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1
104 vst1.u8 {d22}, [r8@64], r1 ; store oq2
210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1
212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1
214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1
216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1
218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1
220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1
222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1
224 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r
    [all...]
vp9_convolve8_avg_neon.asm 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
219 vld1.u32 {d22[0]}, [r4], r1
224 vmovl.u8 q11, d22
246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2
    [all...]
vp9_convolve8_neon.asm 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
208 vld1.u32 {d22[0]}, [r4], r1
213 vmovl.u8 q11, d22
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2
    [all...]
vp9_loopfilter_neon.asm 192 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0)
198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
210 vcgt.u8 d22, d22, d2 ; (abs(q1 - q0) > thresh)*-1
238 vorr d22, d21, d22 ; hevmask
242 vand d27, d27, d22 ; filter &= hev
267 vbic d27, d27, d22 ; filter &= ~hev
456 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0)
462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4
    [all...]
  /external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
sha512-armv4.S 464 veor d29,d21,d22
468 veor d29,d22 @ Ch(e,f,g)
500 vadd.i64 d27,d28,d22
517 veor d22,d24,d25
519 veor d22,d26 @ Sigma0(a)
521 vadd.i64 d22,d27
523 vadd.i64 d22,d30
544 vshr.u64 d24,d22,#28
546 vshr.u64 d25,d22,#34
547 vshr.u64 d26,d22,#3
    [all...]
  /external/openssl/crypto/sha/asm/
sha512-armv4.S 464 veor d29,d21,d22
468 veor d29,d22 @ Ch(e,f,g)
500 vadd.i64 d27,d28,d22
517 veor d22,d24,d25
519 veor d22,d26 @ Sigma0(a)
521 vadd.i64 d22,d27
523 vadd.i64 d22,d30
544 vshr.u64 d24,d22,#28
546 vshr.u64 d25,d22,#34
547 vshr.u64 d26,d22,#3
    [all...]
  /system/core/debuggerd/
vfp.S 29 fconstd d22, #22
  /external/pixman/pixman/
pixman-arm-neon-asm-bilinear.S 515 q1, q11, d0, d1, d20, d21, d22, d23
521 vshll.u16 q10, d22, #BILINEAR_INTERPOLATION_BITS
522 vmlsl.u16 q10, d22, d31
544 q1, q11, d0, d1, d20, d21, d22, d23 \
551 vshll.u16 q10, d22, #BILINEAR_INTERPOLATION_BITS
552 vmlsl.u16 q10, d22, d31
559 bilinear_load_mask mask_fmt, 4, d22
569 bilinear_duplicate_mask mask_fmt, 4, d22
577 mask_fmt, 4, d0, d1, q0, d22, \
904 vld1.32 {d22}, [TMP1], STRID
    [all...]
pixman-arm-neon-asm.S 174 vraddhn.u16 d22, q12, q15
289 vraddhn.u16 d22, q12, q15
372 vraddhn.u16 d22, q12, q15
620 vmvn.8 d22, d3
624 vmull.u8 q8, d22, d4
626 vmull.u8 q9, d22, d5
628 vmull.u8 q10, d22, d6
630 vmull.u8 q11, d22, d7
674 vmvn.8 d22, d3
678 vmull.u8 q8, d22, d
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 48 vmlal.s16 q7, d22, d22
99 vmull.s16 q7, d22, d22
  /external/llvm/test/MC/ARM/
neon-vld-encoding.s 175 vld3.p16 {d20, d22, d24}, [r5]!
195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4]
204 vld4.32 {d16, d18, d20, d22}, [r8]
211 vld4.u32 {d16, d18, d20, d22}, [r8]!
216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2
217 vld4.i16 {d16, d18, d20, d22}, [r6], r3
225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4]
231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4]
235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4]
236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x66,0xf4
    [all...]
neont2-vld-encoding.s 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01]
61 vld4.8 {d16, d18, d20, d22}, [r0:256]!
64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01]
65 vld4.16 {d16, d18, d20, d22}, [r0]!
68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01]
69 vld4.32 {d16, d18, d20, d22}, [r0]!
108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07]
109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
neon-vst-encoding.s 79 vst3.p16 {d20, d22, d24}, [r5]!
98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4]
107 vst4.32 {d16, d18, d20, d22}, [r8]
114 vst4.u32 {d16, d18, d20, d22}, [r8]!
119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2
120 vst4.i16 {d16, d18, d20, d22}, [r6], r3
128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4]
134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4]
138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4]
139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r6], r3 @ encoding: [0x43,0x01,0x46,0xf4
    [all...]
neont2-pairwise-encoding.s 75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
88 vpmax.s32 d5, d22, d15
96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/libvpx/libvpx/vp8/common/arm/neon/
variance_neon.asm 50 vmlal.s16 q9, d22, d22 ;calculate sse
120 vmlal.s16 q9, d22, d22 ;calculate sse
181 vmlal.s16 q9, d22, d22 ;calculate sse
240 vmlal.s16 q9, d22, d22 ;calculate sse
bilinearpredict8x4_neon.asm 65 vqrshrn.u16 d22, q6, #7 ;shift/round/saturate to u8
85 vmull.u8 q1, d22, d0 ;(src_ptr[0] * vp8_filter[0])
111 vld1.u8 {d22}, [r0], r1 ;load src data
121 vst1.u8 {d22}, [r4], lr ;store result
sixtappredict16x16_neon.asm 224 vld1.u8 {d22}, [lr], r2
240 vmlsl.u8 q6, d22, d1
242 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
249 vmlal.u8 q5, d22, d2
258 vmull.u8 q8, d22, d3
279 vmov d22, d26
326 vext.8 d22, d7, d8, #1
337 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1])
348 vext.8 d22, d6, d7, #2 ;construct src_ptr[0]
360 vmlal.u8 q6, d22, d2 ;(src_ptr[0] * vp8_filter[2]
    [all...]
  /system/core/libpixelflinger/
col32cb16blend_neon.S 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels
111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst

Completed in 136 milliseconds

1 2 3