/external/llvm/test/MC/AArch64/ |
neon-scalar-rounding-shift.s | 7 srshl d17, d31, d8 9 // CHECK: srshl d17, d31, d8 // encoding: [0xf1,0x57,0xe8,0x5e] 14 urshl d17, d31, d8 16 // CHECK: urshl d17, d31, d8 // encoding: [0xf1,0x57,0xe8,0x7e]
|
neon-scalar-shift.s | 6 sshl d17, d31, d8 8 // CHECK: sshl d17, d31, d8 // encoding: [0xf1,0x47,0xe8,0x5e] 13 ushl d17, d31, d8 15 // CHECK: ushl d17, d31, d8 // encoding: [0xf1,0x47,0xe8,0x7e]
|
arm64-nv-cond.s | 3 fcsel d28,d31,d31,nv 8 // CHECK: fcsel d28, d31, d31, nv // encoding: [0xfc,0xff,0x7f,0x1e]
|
neon-scalar-add-sub.s | 6 add d31, d0, d16 8 // CHECK: add d31, d0, d16 // encoding: [0x1f,0x84,0xf0,0x5e]
|
neon-scalar-saturating-rounding-shift.s | 9 sqrshl d17, d31, d8 14 // CHECK: sqrshl d17, d31, d8 // encoding: [0xf1,0x5f,0xe8,0x5e] 22 uqrshl d17, d31, d8 27 // CHECK: uqrshl d17, d31, d8 // encoding: [0xf1,0x5f,0xe8,0x7e]
|
neon-scalar-saturating-shift.s | 9 sqshl d17, d31, d8 14 // CHECK: sqshl d17, d31, d8 // encoding: [0xf1,0x4f,0xe8,0x5e] 22 uqshl d17, d31, d8 27 // CHECK: uqshl d17, d31, d8 // encoding: [0xf1,0x4f,0xe8,0x7e]
|
neon-scalar-saturating-add-sub.s | 9 sqadd d17, d31, d8 14 // CHECK: sqadd d17, d31, d8 // encoding: [0xf1,0x0f,0xe8,0x5e] 22 uqadd d17, d31, d8 27 // CHECK: uqadd d17, d31, d8 // encoding: [0xf1,0x0f,0xe8,0x7e] 35 sqsub d17, d31, d8 40 // CHECK: sqsub d17, d31, d8 // encoding: [0xf1,0x2f,0xe8,0x5e] 48 uqsub d17, d31, d8 53 // CHECK: uqsub d17, d31, d8 // encoding: [0xf1,0x2f,0xe8,0x7e]
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/aarch64/ |
advsisd-misc.d | 8 0: 5ee0bbe0 abs d0, d31 9 4: 7ee0bbe0 neg d0, d31 16 20: 5ee07be0 sqabs d0, d31 17 24: 7ee07be0 sqneg d0, d31
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/ |
armv8-a+simd.s | 9 vmaxnm.f32 d31, d31, d31 17 vminnm.f32 d31, d31, d31 25 vcvtm.u32.f32 d31, d31 33 vrintp.f32 d31, d31 [all...] |
armv8-a+fp.s | 14 vselgt.f64 d31, d31, d31 22 vmaxnm.f64 d31, d31, d31 30 vminnm.f64 d31, d31, d31 38 vcvtm.u32.f64 s31, d31 [all...] |
armv8-a+simd.d | 11 0[0-9a-f]+ <[^>]+> f34fffbf vmaxnm.f32 d31, d31, d31 19 0[0-9a-f]+ <[^>]+> f36fffbf vminnm.f32 d31, d31, d31 27 0[0-9a-f]+ <[^>]+> f3fbf3af vcvtm.u32.f32 d31, d31 35 0[0-9a-f]+ <[^>]+> f3faf7af vrintp.f32 d31, d31 [all...] |
armv8-a+fp.d | 15 0[0-9a-f]+ <[^>]+> fe7ffbaf vselgt.f64 d31, d31, d31 23 0[0-9a-f]+ <[^>]+> fecffbaf vmaxnm.f64 d31, d31, d31 31 0[0-9a-f]+ <[^>]+> fecffbef vminnm.f64 d31, d31, d31 39 0[0-9a-f]+ <[^>]+> fefffb6f vcvtm.u32.f64 s31, d31 [all...] |
neon-ldst-rm.d | 11 0[0-9a-f]+ <[^>]+> ecd28b10 vldmia r2, {d24-d31} 16 0[0-9a-f]+ <[^>]+> ecd28b10 vldmia r2, {d24-d31} 21 0[0-9a-f]+ <[^>]+> ecf28b10 vldmia r2!, {d24-d31} 26 0[0-9a-f]+ <[^>]+> ed728b10 vldmdb r2!, {d24-d31} 31 0[0-9a-f]+ <[^>]+> ecc28b10 vstmia r2, {d24-d31} 36 0[0-9a-f]+ <[^>]+> ecc28b10 vstmia r2, {d24-d31} 41 0[0-9a-f]+ <[^>]+> ece28b10 vstmia r2!, {d24-d31} 46 0[0-9a-f]+ <[^>]+> ed628b10 vstmdb r2!, {d24-d31}
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingChroma_unsafe_s.S | 38 VADD.I8 d31,d18,d15 41 VMIN.S8 d20,d20,d31 42 VNEG.S8 d31,d31 44 VMAX.S8 d20,d20,d31 56 VHADD.U8 d31,d8,d5 61 VRHADD.U8 d31,d31,d9
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 34 VMOV.I8 d31,#0x14 44 VMLAL.U8 q9,d4,d31 46 VMLAL.U8 q0,d5,d31 48 VMLAL.U8 q9,d6,d31 49 VMLAL.U8 q10,d6,d31 54 VMLAL.U8 q0,d7,d31 55 VMLAL.U8 q10,d8,d31 57 VMLAL.U8 q1,d7,d31 59 VMLAL.U8 q11,d8,d31 63 VMLAL.U8 q11,d10,d31 [all...] |
armVCM4P10_DeblockingLuma_unsafe_s.S | 40 VADD.I8 d31,d18,d19 44 VADD.I8 d31,d31,d19 48 VMIN.S8 d20,d20,d31 49 VNEG.S8 d31,d31 53 VMAX.S8 d20,d20,d31 92 VQRSHRN.U16 d31,q13,#2 105 VBIF d31,d6,d17
|
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 45 VMUL.I16 d20,d18,d31 50 VMUL.I16 d21,d18,d31 55 VMUL.I16 d22,d18,d31 63 VMLA.I16 d6,d18,d31
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 9 vldmia r0, {d16-d31} 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 14 vldmia r0, {d16-d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 19 vldmia r0, {d16-d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 24 vldmia r0, {d16-d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 29 vldmia r0, {d16-d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 103 vext.8 d31, d2, d3, #5 @//extract a[5] (column1,row0) 106 vaddl.u8 q4, d31, d2 @// a0 + a5 (column1,row0) 116 vext.8 d31, d2, d3, #2 @//extract a[2] (column1,row0) 119 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0) 129 vext.8 d31, d2, d3, #3 @//extract a[3] (column1,row0) 132 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 142 vext.8 d31, d2, d3, #1 @//extract a[1] (column1,row0) 145 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 155 vext.8 d31, d2, d3, #4 @//extract a[4] (column1,row0) 158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0 [all...] |
ih264e_evaluate_intra16x16_modes_a9q.s | 129 vadd.u16 d30, d31, d30 159 vabdl.u8 q12, d1, d31 167 vabal.u8 q12, d3, d31 269 vst1.32 {d30, d31}, [r2], r4 @10 291 vst1.32 {d30, d31}, [r2], r4 @0 292 vst1.32 {d30, d31}, [r2], r4 @1 293 vst1.32 {d30, d31}, [r2], r4 @2 294 vst1.32 {d30, d31}, [r2], r4 @3 295 vst1.32 {d30, d31}, [r2], r4 @4 296 vst1.32 {d30, d31}, [r2], r4 @ [all...] |
/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 64 d31 = d30 + 1; 66 b = d31; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
idct_dequant_full_2x_neon.c | 20 int32x2_t d28, d29, d30, d31; local 27 d28 = d29 = d30 = d31 = vdup_n_s32(0); 63 d31 = vld1_lane_s32((const int32_t *)dst0, d31, 0); 64 d31 = vld1_lane_s32((const int32_t *)dst1, d31, 1); 157 vaddw_u8(vreinterpretq_u16_s16(q2tmp3.val[1]), vreinterpret_u8_s32(d31))); 162 d31 = vreinterpret_s32_u8(vqmovun_s16(q7)); 179 vst1_lane_s32((int32_t *)dst0, d31, 0); 180 vst1_lane_s32((int32_t *)dst1, d31, 1) [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_filters_luma_horz_a9q.s | 124 vext.8 d31, d2, d3, #5 @//extract a[5] (column1,row0) 127 vaddl.u8 q4, d31, d2 @// a0 + a5 (column1,row0) 132 vext.8 d31, d2, d3, #2 @//extract a[2] (column1,row0) 135 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0) 140 vext.8 d31, d2, d3, #3 @//extract a[3] (column1,row0) 143 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 148 vext.8 d31, d2, d3, #1 @//extract a[1] (column1,row0) 151 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 156 vext.8 d31, d2, d3, #4 @//extract a[4] (column1,row0) 159 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0 [all...] |
ih264_inter_pred_luma_horz_qpel_a9q.s | 131 vext.8 d31, d2, d3, #5 @//extract a[5] (column1,row0) 134 vaddl.u8 q4, d31, d2 @// a0 + a5 (column1,row0) 139 vext.8 d31, d2, d3, #2 @//extract a[2] (column1,row0) 142 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 (column1,row0) 147 vext.8 d31, d2, d3, #3 @//extract a[3] (column1,row0) 150 vmlal.u8 q4, d31, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row0) 155 vext.8 d31, d2, d3, #1 @//extract a[1] (column1,row0) 158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0) 163 vext.8 d31, d2, d3, #4 @//extract a[4] (column1,row0) 166 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0 [all...] |
ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 132 vmov.u8 d31, #5 @ Filter coeff 5 151 vmlsl.u8 q12, d2, d31 152 vmlsl.u8 q12, d8, d31 162 vmlsl.u8 q14, d19, d31 163 vmlsl.u8 q14, d22, d31 168 vmlsl.u8 q12, d3, d31 169 vmlsl.u8 q12, d9, d31 182 vmlsl.u8 q12, d19, d31 183 vmlsl.u8 q12, d22, d31 188 vmlsl.u8 q8, d4, d31 [all...] |