/external/llvm/test/MC/AArch64/ |
neon-scalar-compare.s | 9 cmeq d20, d21, d22 11 // CHECK: cmeq d20, d21, d22 // encoding: [0xb4,0x8e,0xf6,0x7e] 25 cmhs d20, d21, d22 27 // CHECK: cmhs d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x7e] 33 cmge d20, d21, d22 35 // CHECK: cmge d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x5e] 49 cmhi d20, d21, d22 51 // CHECK: cmhi d20, d21, d22 // encoding: [0xb4,0x36,0xf6,0x7e] 56 cmgt d20, d21, d22 58 // CHECK: cmgt d20, d21, d22 // encoding: [0xb4,0x36,0xf6,0x5e [all...] |
neon-scalar-recip.s | 11 frecps d22, d30, d21 15 // CHECK: frecps d22, d30, d21 // encoding: [0xd6,0xff,0x75,0x5e] 23 frsqrts d8, d22, d18 27 // CHECK: frsqrts d8, d22, d18 // encoding: [0xc8,0xfe,0xf2,0x5e]
|
neon-scalar-fp-compare.s | 11 fcmeq d20, d21, d22 15 // CHECK: fcmeq d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x5e] 41 fcmge d20, d21, d22 45 // CHECK: fcmge d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x7e] 71 fcmgt d20, d21, d22 75 // CHECK: fcmgt d20, d21, d22 // encoding: [0xb4,0xe6,0xf6,0x7e] 137 facge d20, d21, d22 141 // CHECK: facge d20, d21, d22 // encoding: [0xb4,0xee,0x76,0x7e] 149 facgt d20, d21, d22 153 // CHECK: facgt d20, d21, d22 // encoding: [0xb4,0xee,0xf6,0x7e [all...] |
neon-scalar-saturating-add-sub.s | 62 suqadd d18, d22 67 // CHECK: suqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x5e] 76 usqadd d18, d22 81 // CHECK: usqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x7e]
|
arm64-elf-relocs.s | 208 ldr d22, [x21, :got_lo12:sym] 210 // CHECK: ldr d22, [x21, :got_lo12:sym] 215 ldr d22, [x21, #:dtprel_lo12:sym] 217 // CHECK: ldr d22, [x21, :dtprel_lo12:sym] 222 ldr d22, [x21, :tprel_lo12_nc:sym] 224 // CHECK: ldr d22, [x21, :tprel_lo12_nc:sym] 229 ldr d22, [x21, #:gottprel_lo12:sym] 231 // CHECK: ldr d22, [x21, :gottprel_lo12:sym] 236 ldr d22, [x21, :tlsdesc_lo12:sym] 238 // CHECK: ldr d22, [x21, :tlsdesc_lo12:sym [all...] |
/external/libhevc/common/arm/ |
ihevc_intra_pred_chroma_ver.s | 121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31) 132 vst2.8 {d22,d23}, [r2], r11 133 vst2.8 {d22,d23}, [r5], r11 134 vst2.8 {d22,d23}, [r8], r11 135 vst2.8 {d22,d23}, [r10], r11 145 vst2.8 {d22,d23}, [r2], r11 146 vst2.8 {d22,d23}, [r5], r11 147 vst2.8 {d22,d23}, [r8], r11 148 vst2.8 {d22,d23}, [r10], r11 158 vst2.8 {d22,d23}, [r2], r1 [all...] |
ihevc_intra_pred_luma_vert.s | 122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31) 131 vst1.8 {d22,d23}, [r2], r11 132 vst1.8 {d22,d23}, [r5], r11 133 vst1.8 {d22,d23}, [r8], r11 134 vst1.8 {d22,d23}, [r10], r11 144 vst1.8 {d22,d23}, [r2], r11 145 vst1.8 {d22,d23}, [r5], r11 146 vst1.8 {d22,d23}, [r8], r11 147 vst1.8 {d22,d23}, [r10], r11 156 vst1.8 {d22,d23}, [r2], r1 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 31 VLD1.8 {d22,d23},[r0],r1 32 VEXT.8 d10,d22,d23,#5 33 VEXT.8 d12,d22,d23,#1 34 VEXT.8 d14,d22,d23,#2 35 VEXT.8 d15,d22,d23,#3 36 VEXT.8 d13,d22,d23,#4 37 VADDL.U8 q11,d22,d10 41 VMLA.I16 d22,d8,d31 49 VSUB.I16 d22,d22,d [all...] |
omxVCM4P10_InterpolateLuma_s.S | 77 VRHADD.U8 d22,d22,d14 82 VST1.32 {d22[0]},[r2],r3 92 VST1.32 {d22[0]},[r2],r3 101 VRHADD.U8 d22,d22,d15 106 VST1.32 {d22[0]},[r2],r3 132 VRHADD.U8 d22,d22,d0 137 VST1.32 {d22[0]},[r2],r [all...] |
/art/test/705-register-conflict/src/ |
Main.java | 30 double d16 = 0, d17 = 0, d18 = 0, d19 = 0, d20 = 0, d21 = 0, d22 = 0, d23 = 0; local 55 d22 = d21 + 1; 56 d23 = d22 + 1; 70 + d16 + d17 + d18 + d19 + d20 + d21 + d22 + d23
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
neon-mov-vfp.s | 16 @ NEON-DAG: vmov.8 d22[5], r2 @ encoding: 18 vmov.8 d22[5], r2 28 @ NEON-DAG: vmov.s8 r2, d22[5] @ encoding: 30 vmov.s8 r2, d22[5]
|
d16.s | 19 @ D16-NEXT: vcvt.f64.f32 d22, s4 20 vcvt.f64.f32 d22, s4
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/ |
vfpv3-32drs.s | 3 fcpyd d3,d22 4 fcpyd d22,d3 5 fcvtds d22,s22 6 fcvtsd s22,d22 11 fsitod d22,s22 24 fstmiad r9,{d20,d21,d22,d23,d24}
|
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 172 vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0) 177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0 317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1) 322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2) 327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2) 330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2) 332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2) 337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2) 344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3) 345 vext.16 d29, d22, d23, #3 @//extract a[3] (set3 [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_mb_neon.asm | 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1 104 vst1.u8 {d22}, [r8@64], r1 ; store oq2 210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1 212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1 214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1 216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1 218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1 220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1 222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1 224 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r [all...] |
vpx_convolve8_avg_neon_asm.asm | 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 209 vld1.u32 {d22[0]}, [r4], r1 214 vmovl.u8 q11, d22 236 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 246 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 251 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2 [all...] |
vpx_convolve8_neon_asm.asm | 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 198 vld1.u32 {d22[0]}, [r4], r1 203 vmovl.u8 q11, d22 220 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 230 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 235 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2 [all...] |
loopfilter_8_neon.asm | 199 vabd.u8 d22, d16, d7 ; m4 = abs(q1 - q0) 205 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 248 vcgt.u8 d23, d22, d2 ; (abs(q1 - q0) > thresh)*-1 252 vmov.u8 d22, #0x80 273 veor d21, d7, d22 ; qs0 274 veor d24, d6, d22 ; ps0 275 veor d25, d5, d22 ; ps1 276 veor d26, d16, d22 ; qs1 318 veor d24, d24, d22 ; *f_op0 = u^0x80 319 veor d21, d21, d22 ; *f_oq0 = u^0x8 [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1 104 vst1.u8 {d22}, [r8@64], r1 ; store oq2 210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1 212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1 214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1 216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1 218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1 220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1 222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1 224 vst3.8 {d21[7], d22[7], d23[7]}, [r0], r [all...] |
vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 219 vld1.u32 {d22[0]}, [r4], r1 224 vmovl.u8 q11, d22 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2 [all...] |
vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 208 vld1.u32 {d22[0]}, [r4], r1 213 vmovl.u8 q11, d22 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d2 [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1) 170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 178 vqrshrun.s32 d22, q1, #10 180 vqmovun.s16 d22, q11 181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2) 185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2) 192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 199 vqmovun.s16 d22, q10 200 vst1.u8 {d22}, [r1], r7 @//Store dest row0 ,column 2; (1/2,1/2 [all...] |
/external/libpng/arm/ |
filter_neon.S | 89 vext.8 d5, d22, d23, #3 90 vadd.u8 d0, d3, d22 91 vext.8 d6, d22, d23, #6 151 vext.8 d5, d22, d23, #3 154 vadd.u8 d0, d0, d22 155 vext.8 d6, d22, d23, #6 227 vext.8 d5, d22, d23, #3 228 vadd.u8 d0, d0, d22 232 vext.8 d6, d22, d23, #6
|
/external/opencv3/3rdparty/libpng/arm/ |
filter_neon.S | 64 vext.8 d5, d22, d23, #3 65 vadd.u8 d0, d3, d22 66 vext.8 d6, d22, d23, #6 126 vext.8 d5, d22, d23, #3 129 vadd.u8 d0, d0, d22 130 vext.8 d6, d22, d23, #6 202 vext.8 d5, d22, d23, #3 203 vadd.u8 d0, d0, d22 207 vext.8 d6, d22, d23, #6
|