HomeSort by relevance Sort by last modified time
    Searched refs:d20 (Results 26 - 50 of 156) sorted by null

12 3 4 5 6 7

  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_convolve8_neon.asm 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
157 vmov d20, d23
206 vld1.u32 {d20[0]}, [r4], r1
207 vld1.u32 {d20[1]}, [r7], r1
212 vmovl.u8 q10, d20
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d2
    [all...]
vp9_mb_lpf_neon.asm 84 vst1.u8 {d20}, [r8@64], r1 ; store op0
102 vst1.u8 {d20}, [r8@64], r1 ; store oq0
209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1
211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1
213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1
215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1
217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1
219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1
221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1
223 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r
    [all...]
vp9_loopfilter_neon.asm 190 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
197 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
270 vqsub.s8 d20, d16, d27 ; u = clamp(qs1 - filter)
274 veor d7, d20, d18 ; *oq1 = u^0x80
454 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
461 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
470 vmax.u8 d19, d19, d20
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 84 vst1.u8 {d20}, [r8@64], r1 ; store op0
102 vst1.u8 {d20}, [r8@64], r1 ; store oq0
209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1
211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1
213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1
215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1
217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1
219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1
221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1
223 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r
    [all...]
vp9_loopfilter_neon.asm 190 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
197 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
270 vqsub.s8 d20, d16, d27 ; u = clamp(qs1 - filter)
274 veor d7, d20, d18 ; *oq1 = u^0x80
454 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
461 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
470 vmax.u8 d19, d19, d20
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 84 vst1.u8 {d20}, [r8@64], r1 ; store op0
102 vst1.u8 {d20}, [r8@64], r1 ; store oq0
209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1
211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1
213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1
215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1
217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1
219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1
221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1
223 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r
    [all...]
vp9_loopfilter_neon.asm 190 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
197 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
198 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
206 vmax.u8 d23, d19, d20 ; m1 = max(m1, m2)
270 vqsub.s8 d20, d16, d27 ; u = clamp(qs1 - filter)
274 veor d7, d20, d18 ; *oq1 = u^0x80
454 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1)
461 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2)
462 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
470 vmax.u8 d19, d19, d20
    [all...]
  /external/llvm/test/MC/ARM/
neon-vst-encoding.s 57 @ CHECK: vst2.16 {d18, d19, d20, d21}, [r0:128]! @ encoding: [0x6d,0x23,0x40,0xf4]
64 vst3.8 {d16, d18, d20}, [r0:64]
73 vst3.i32 {d16, d18, d20}, [r10], r5
78 vst3.8 {d16, d18, d20}, [r0:64]!
79 vst3.p16 {d20, d22, d24}, [r5]!
85 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64] @ encoding: [0x1f,0x05,0x40,0xf4]
93 @ CHECK: vst3.32 {d16, d18, d20}, [r10], r5 @ encoding: [0x85,0x05,0x4a,0xf4]
97 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x1d,0x05,0x40,0xf4]
98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4]
107 vst4.32 {d16, d18, d20, d22}, [r8
    [all...]
neon-minmax-encoding.s 9 vmax.f32 d19, d20, d21
17 vmax.f32 d20, d21
41 @ CHECK: vmax.f32 d19, d20, d21 @ encoding: [0xa5,0x3f,0x44,0xf2]
48 @ CHECK: vmax.f32 d20, d20, d21 @ encoding: [0xa5,0x4f,0x44,0xf2]
71 vmin.f32 d19, d20, d21
79 vmin.f32 d20, d21
103 @ CHECK: vmin.f32 d19, d20, d21 @ encoding: [0xa5,0x3f,0x64,0xf2]
110 @ CHECK: vmin.f32 d20, d20, d21 @ encoding: [0xa5,0x4f,0x64,0xf2
    [all...]
neont2-minmax-encoding.s 11 vmax.f32 d19, d20, d21
19 vmax.f32 d20, d21
43 @ CHECK: vmax.f32 d19, d20, d21 @ encoding: [0x44,0xef,0xa5,0x3f]
50 @ CHECK: vmax.f32 d20, d20, d21 @ encoding: [0x44,0xef,0xa5,0x4f]
73 vmin.f32 d19, d20, d21
81 vmin.f32 d20, d21
105 @ CHECK: vmin.f32 d19, d20, d21 @ encoding: [0x64,0xef,0xa5,0x3f]
112 @ CHECK: vmin.f32 d20, d20, d21 @ encoding: [0x64,0xef,0xa5,0x4f
    [all...]
neont2-pairwise-encoding.s 43 vpadal.s16 d20, d9
56 @ CHECK: vpadal.s16 d20, d9 @ encoding: [0xf4,0xff,0x09,0x46]
73 vpmin.u16 d20, d25, d14
81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a]
86 vpmax.s8 d3, d20, d17
94 @ CHECK: vpmax.s8 d3, d20, d17 @ encoding: [0x04,0xef,0xa1,0x3a]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
omxVCM4P10_InterpolateLuma_s.S 81 VRHADD.U8 d28,d28,d20
151 VQRSHRUN.S16 d20,q10,#5
155 VRHADD.U8 d6,d6,d20
196 VEXT.8 d20,d20,d21,#4
202 VQRSHRUN.S16 d20,q12,#5
206 VRHADD.U8 d6,d6,d20
230 VEXT.8 d20,d20,d21,#6
236 VQRSHRUN.S16 d20,q12,#
    [all...]
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 46 VMUL.I16 d20,d18,d31
61 VADD.I16 d0,d0,d20
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 94 VEXT.8 d27,d20,d21,#4
95 VEXT.8 d28,d20,d21,#6
98 VEXT.8 d26,d20,d21,#2
99 VADDL.S16 q1,d20,d29
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S 104 VMLA.I16 d20,d2,d31
115 VSUB.I16 d20,d20,d8
143 VADDL.S16 q5,d10,d20
151 VADDL.S16 q0,d14,d20
156 VADDL.S16 q1,d18,d20
162 VADDL.S16 q1,d20,d22
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 70 VEXT.8 d20,d28,d29,#2
75 VADDL.U8 q4,d20,d21
  /external/chromium_org/third_party/boringssl/linux-arm/crypto/modes/
ghash-armv4.S 390 vext.8 d20, d26, d26, #3 @ A3
392 vmull.p8 q10, d20, d6 @ J = A3*B
405 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24
411 veor d20, d20, d21
428 vext.8 d20, d28, d28, #3 @ A3
430 vmull.p8 q10, d20, d6 @ J = A3*B
443 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 2
    [all...]
  /external/openssl/crypto/modes/asm/
ghash-armv4.S 382 vext.8 d20, d26, d26, #3 @ A3
384 vmull.p8 q10, d20, d6 @ J = A3*B
397 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24
403 veor d20, d20, d21
420 vext.8 d20, d28, d28, #3 @ A3
422 vmull.p8 q10, d20, d6 @ J = A3*B
435 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 2
    [all...]
  /external/libhevc/common/arm/
ihevc_intra_pred_luma_dc.s 251 vmov.i64 d20, #0x00000000000000ff @byte mask row 1 (prol)
255 vbsl d20, d3, d16 @row 1 (prol)
260 vst1.8 d20, [r2], r3 @store row 1 (prol)
266 vmov.i64 d20, #0x00000000000000ff @byte mask row 3 (prol)
272 vbsl d20, d3, d16 @row 3 (prol)
277 vst1.8 d20, [r2], r3 @store row 3 (prol)
282 vmov.i64 d20, #0x00000000000000ff @byte mask row 5 (prol)
288 vbsl d20, d3, d16 @row 5 (prol)
293 vst1.8 d20, [r2], r3 @store row 5 (prol)
301 vmov.i64 d20, #0x00000000000000ff @byte mask row 7 (prol
    [all...]
ihevc_weighted_pred_bi_default.s 187 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2)
188 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t)
189 vqshrun.s16 d20,q9,#7
198 vst1.32 {d20[0]},[r2]! @store pu1_dst i iteration
199 vst1.32 {d20[1]},[r14],r5 @store pu1_dst ii iteration
237 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2)
238 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t)
239 vqshrun.s16 d20,q9,#7
240 vst1.32 {d20[0]},[r2]! @store pu1_dst i iteration
241 vst1.32 {d20[1]},[r14],r5 @store pu1_dst ii iteratio
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Convolve.S 161 d18, d19, d20, d21, d22, d23,
166 vmlal.s16 q4, d20, d0[2]
177 vmlal.s16 q5, d20, d0[1]
207 d18, d19, d20, d21, d22, d23,
212 vmlal.s16 q4, d20, d3[0]
223 vmlal.s16 q5, d20, d2[3]
247 d18, d19, d20, d21, d22, d23,
253 vmlal.s16 q4, d20, d5[2]
258 vmlal.s16 q5, d20, d5[1]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 134 vmax.u16 d20, d20, d21
136 vmovl.u16 q10, d20
139 vmax.u32 d20, d20, d21
141 vpmax.u32 d20, d20, d20
147 vst1.8 {d20[0]}, [r5] ; store eob
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 134 vmax.u16 d20, d20, d21
136 vmovl.u16 q10, d20
139 vmax.u32 d20, d20, d21
141 vpmax.u32 d20, d20, d20
147 vst1.8 {d20[0]}, [r5] ; store eob
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 134 vmax.u16 d20, d20, d21
136 vmovl.u16 q10, d20
139 vmax.u32 d20, d20, d21
141 vpmax.u32 d20, d20, d20
147 vst1.8 {d20[0]}, [r5] ; store eob
  /external/libhevc/common/arm64/
ihevc_intra_pred_luma_dc.s 259 movi d20, #0x00000000000000ff //byte mask row 1 (prol)
274 movi d20, #0x00000000000000ff //byte mask row 3 (prol)
290 movi d20, #0x00000000000000ff //byte mask row 5 (prol)
309 movi d20, #0x00000000000000ff //byte mask row 7 (prol)
326 movi d20, #0x00000000000000ff //byte mask row 9 (prol)
348 movi d20, #0x00000000000000ff //byte mask row 9 (prol)
481 movi d20, #0x00000000000000ff //byte mask row 1 (prol)
501 movi d20, #0x00000000000000ff //byte mask row 3 (prol)

Completed in 1303 milliseconds

12 3 4 5 6 7