HomeSort by relevance Sort by last modified time
    Searched refs:d22 (Results 1 - 25 of 181) sorted by null

1 2 3 4 5 6 7 8

  /external/llvm/test/MC/AArch64/
neon-scalar-compare.s 9 cmeq d20, d21, d22
11 // CHECK: cmeq d20, d21, d22 // encoding: [0xb4,0x8e,0xf6,0x7e]
25 cmhs d20, d21, d22
27 // CHECK: cmhs d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x7e]
33 cmge d20, d21, d22
35 // CHECK: cmge d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x5e]
49 cmhi d20, d21, d22
51 // CHECK: cmhi d20, d21, d22 // encoding: [0xb4,0x36,0xf6,0x7e]
56 cmgt d20, d21, d22
58 // CHECK: cmgt d20, d21, d22 // encoding: [0xb4,0x36,0xf6,0x5e
    [all...]
neon-scalar-recip.s 11 frecps d22, d30, d21
15 // CHECK: frecps d22, d30, d21 // encoding: [0xd6,0xff,0x75,0x5e]
23 frsqrts d8, d22, d18
27 // CHECK: frsqrts d8, d22, d18 // encoding: [0xc8,0xfe,0xf2,0x5e]
neon-scalar-fp-compare.s 11 fcmeq d20, d21, d22
15 // CHECK: fcmeq d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x5e]
41 fcmge d20, d21, d22
45 // CHECK: fcmge d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x7e]
71 fcmgt d20, d21, d22
75 // CHECK: fcmgt d20, d21, d22 // encoding: [0xb4,0xe6,0xf6,0x7e]
137 facge d20, d21, d22
141 // CHECK: facge d20, d21, d22 // encoding: [0xb4,0xee,0x76,0x7e]
149 facgt d20, d21, d22
153 // CHECK: facgt d20, d21, d22 // encoding: [0xb4,0xee,0xf6,0x7e
    [all...]
neon-scalar-saturating-add-sub.s 62 suqadd d18, d22
67 // CHECK: suqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x5e]
76 usqadd d18, d22
81 // CHECK: usqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x7e]
arm64-elf-relocs.s 208 ldr d22, [x21, :got_lo12:sym]
210 // CHECK: ldr d22, [x21, :got_lo12:sym]
215 ldr d22, [x21, #:dtprel_lo12:sym]
217 // CHECK: ldr d22, [x21, :dtprel_lo12:sym]
222 ldr d22, [x21, :tprel_lo12_nc:sym]
224 // CHECK: ldr d22, [x21, :tprel_lo12_nc:sym]
229 ldr d22, [x21, #:gottprel_lo12:sym]
231 // CHECK: ldr d22, [x21, :gottprel_lo12:sym]
236 ldr d22, [x21, :tlsdesc_lo12:sym]
238 // CHECK: ldr d22, [x21, :tlsdesc_lo12:sym
    [all...]
  /external/libhevc/common/arm/
ihevc_intra_pred_chroma_ver.s 121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31)
132 vst2.8 {d22,d23}, [r2], r11
133 vst2.8 {d22,d23}, [r5], r11
134 vst2.8 {d22,d23}, [r8], r11
135 vst2.8 {d22,d23}, [r10], r11
145 vst2.8 {d22,d23}, [r2], r11
146 vst2.8 {d22,d23}, [r5], r11
147 vst2.8 {d22,d23}, [r8], r11
148 vst2.8 {d22,d23}, [r10], r11
158 vst2.8 {d22,d23}, [r2], r1
    [all...]
ihevc_intra_pred_luma_vert.s 122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31)
131 vst1.8 {d22,d23}, [r2], r11
132 vst1.8 {d22,d23}, [r5], r11
133 vst1.8 {d22,d23}, [r8], r11
134 vst1.8 {d22,d23}, [r10], r11
144 vst1.8 {d22,d23}, [r2], r11
145 vst1.8 {d22,d23}, [r5], r11
146 vst1.8 {d22,d23}, [r8], r11
147 vst1.8 {d22,d23}, [r10], r11
156 vst1.8 {d22,d23}, [r2], r1
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 31 VLD1.8 {d22,d23},[r0],r1
32 VEXT.8 d10,d22,d23,#5
33 VEXT.8 d12,d22,d23,#1
34 VEXT.8 d14,d22,d23,#2
35 VEXT.8 d15,d22,d23,#3
36 VEXT.8 d13,d22,d23,#4
37 VADDL.U8 q11,d22,d10
41 VMLA.I16 d22,d8,d31
49 VSUB.I16 d22,d22,d
    [all...]
omxVCM4P10_InterpolateLuma_s.S 77 VRHADD.U8 d22,d22,d14
82 VST1.32 {d22[0]},[r2],r3
92 VST1.32 {d22[0]},[r2],r3
101 VRHADD.U8 d22,d22,d15
106 VST1.32 {d22[0]},[r2],r3
132 VRHADD.U8 d22,d22,d0
137 VST1.32 {d22[0]},[r2],r
    [all...]
  /art/test/705-register-conflict/src/
Main.java 30 double d16 = 0, d17 = 0, d18 = 0, d19 = 0, d20 = 0, d21 = 0, d22 = 0, d23 = 0; local
55 d22 = d21 + 1;
56 d23 = d22 + 1;
70 + d16 + d17 + d18 + d19 + d20 + d21 + d22 + d23
  /external/llvm/test/MC/ARM/
pr22395-2.s 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
neon-mov-vfp.s 16 @ NEON-DAG: vmov.8 d22[5], r2 @ encoding:
18 vmov.8 d22[5], r2
28 @ NEON-DAG: vmov.s8 r2, d22[5] @ encoding:
30 vmov.s8 r2, d22[5]
d16.s 19 @ D16-NEXT: vcvt.f64.f32 d22, s4
20 vcvt.f64.f32 d22, s4
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
vfpv3-32drs.s 3 fcpyd d3,d22
4 fcpyd d22,d3
5 fcvtds d22,s22
6 fcvtsd s22,d22
11 fsitod d22,s22
24 fstmiad r9,{d20,d21,d22,d23,d24}
  /external/libavc/encoder/arm/
ih264e_half_pel.s 172 vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0
317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1)
322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2)
327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2)
330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2)
332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2)
337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2)
344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3)
345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_mb_neon.asm 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1
104 vst1.u8 {d22}, [r8@64], r1 ; store oq2
210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1
212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1
214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1
216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1
218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1
220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1
222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1
224 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r
    [all...]
vpx_convolve8_avg_neon_asm.asm 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
209 vld1.u32 {d22[0]}, [r4], r1
214 vmovl.u8 q11, d22
236 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
246 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
251 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2
    [all...]
vpx_convolve8_neon_asm.asm 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
198 vld1.u32 {d22[0]}, [r4], r1
203 vmovl.u8 q11, d22
220 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
230 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
235 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2
    [all...]
loopfilter_8_neon.asm 199 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0)
205 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4)
248 vcgt.u8 d23, d22, d2 ; (abs(q1 - q0) > thresh)*-1
252 vmov.u8 d22, #0x80
273 veor d21, d7, d22 ; qs0
274 veor d24, d6, d22 ; ps0
275 veor d25, d5, d22 ; ps1
276 veor d26, d16, d22 ; qs1
318 veor d24, d24, d22 ; *f_op0 = u^0x80
319 veor d21, d21, d22 ; *f_oq0 = u^0x8
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1
104 vst1.u8 {d22}, [r8@64], r1 ; store oq2
210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1
212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1
214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1
216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1
218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1
220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1
222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1
224 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r
    [all...]
vp9_convolve8_avg_neon.asm 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
219 vld1.u32 {d22[0]}, [r4], r1
224 vmovl.u8 q11, d22
246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2
    [all...]
vp9_convolve8_neon.asm 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
208 vld1.u32 {d22[0]}, [r4], r1
213 vmovl.u8 q11, d22
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26
240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27
245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1)
170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
178 vqrshrun.s32 d22, q1, #10
180 vqmovun.s16 d22, q11
181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2)
185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2)
192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2)
199 vqmovun.s16 d22, q10
200 vst1.u8 {d22}, [r1], r7 @//Store dest row0 ,column 2; (1/2,1/2
    [all...]
  /external/libpng/arm/
filter_neon.S 89 vext.8 d5, d22, d23, #3
90 vadd.u8 d0, d3, d22
91 vext.8 d6, d22, d23, #6
151 vext.8 d5, d22, d23, #3
154 vadd.u8 d0, d0, d22
155 vext.8 d6, d22, d23, #6
227 vext.8 d5, d22, d23, #3
228 vadd.u8 d0, d0, d22
232 vext.8 d6, d22, d23, #6
  /external/opencv3/3rdparty/libpng/arm/
filter_neon.S 64 vext.8 d5, d22, d23, #3
65 vadd.u8 d0, d3, d22
66 vext.8 d6, d22, d23, #6
126 vext.8 d5, d22, d23, #3
129 vadd.u8 d0, d0, d22
130 vext.8 d6, d22, d23, #6
202 vext.8 d5, d22, d23, #3
203 vadd.u8 d0, d0, d22
207 vext.8 d6, d22, d23, #6

Completed in 462 milliseconds

1 2 3 4 5 6 7 8