/external/llvm/test/MC/ARM/ |
directive-fpu-instrs.s | 16 fstmfdd sp!, {d8, d9, d10, d11, d12, d13, d14, d15}
|
neon-shiftaccum-encoding.s | 4 vsra.s16 d15, d14, #16 13 vsra.u32 d12, d15, #22 31 vsra.u32 d15, #22 39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2] 48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3] 65 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0x1f,0xf1,0xaa,0xf3] 76 vrsra.u8 d15, d22, #8 111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3] 145 vsli.64 d14, d15, #6 [all...] |
neont2-shiftaccum-encoding.s | 6 vsra.s16 d15, d14, #16 15 vsra.u32 d12, d15, #22 33 vsra.u32 d15, #22 41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1] 50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1] 67 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xf1] 79 vrsra.u8 d15, d22, #8 114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3] 148 vsli.64 d14, d15, #6 [all...] |
neont2-pairwise-encoding.s | 20 vpaddl.u32 d6, d15 33 @ CHECK: vpaddl.u32 d6, d15 @ encoding: [0xb8,0xff,0x8f,0x62] 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 88 vpmax.s32 d5, d22, d15 96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/ |
vfp2.d | 14 0+010 <[^>]*> ec45ab1f vmov d15, sl, r5 15 0+014 <[^>]*> ec55ab1f vmov sl, r5, d15
|
vfp2_t2.d | 14 0+010 <[^>]*> ec45 ab1f vmov d15, sl, r5 15 0+014 <[^>]*> ec55 ab1f vmov sl, r5, d15
|
vfp1_t2.d | 55 0+0b4 <[^>]*> eeb5 fb40 (vcmp\.f64 d15, #0.0|fcmpzd d15) 58 0+0c0 <[^>]*> eeb4 0b4f (vcmp\.f64|fcmpd) d0, d15 61 0+0cc <[^>]*> eeb4 fb40 (vcmp\.f64|fcmpd) d15, d0 65 0+0dc <[^>]*> eeb1 0b4f (vneg\.f64|fnegd) d0, d15 68 0+0e8 <[^>]*> eeb1 fb40 (vneg\.f64|fnegd) d15, d0 72 0+0f8 <[^>]*> ee30 0b0f (vadd\.f64|faddd) d0, d0, d15 75 0+104 <[^>]*> ee3f 0b00 (vadd\.f64|faddd) d0, d15, d0 78 0+110 <[^>]*> ee30 fb00 (vadd\.f64|faddd) d15, d0, d0 85 0+12c <[^>]*> eeb7 fac0 (vcvt\.f64\.f32|fcvtds) d15, s [all...] |
/external/llvm/test/MC/AArch64/ |
neon-scalar-mul.s | 62 sqdmull d15, s22, s12 65 // CHECK: sqdmull d15, s22, s12 // encoding: [0xcf,0xd2,0xac,0x5e]
|
neon-scalar-by-elem-mul.s | 31 fmulx d15, d9, v7.d[0] 39 // CHECK: fmulx d15, d9, v7.d[0] // encoding: [0x2f,0x91,0xc7,0x7f]
|
/frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
R4R8First_v7.s | 31 fstmfdd sp!, {d8 - d15} 32 .vsave {d8 - d15} 93 VSUB.S32 d15, d3, d6 105 VST1.I32 {d12, d13, d14, d15}, [r0]! 110 fldmfdd sp!, {d8 - d15} 125 fstmfdd sp!, {d8 - d15} 126 .vsave {d8 - d15} 153 fldmfdd sp!, {d8 - d15}
|
PrePostMDCT_v7.s | 31 fstmfdd sp!, {d8 - d15} 32 .vsave {d8 - d15} 44 VLD2.I32 {d13, d15}, [r3]! @ tr2 = *(buf1 - 1)@ ti1 = *(buf1 + 0)@ 81 fldmfdd sp!, {d8 - d15} 93 fstmfdd sp!, {d8 - d15} 94 .vsave {d8 - d15} 106 VLD2.I32 {d13, d15}, [r3]! @ tr2 = *(zbuf2 - 1)@ ti2 = *(zbuf2 + 0)@ 142 fldmfdd sp!, {d8 - d15}
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S | 31 VPUSH {d8-d15} 41 VMOV.I8 d15,#0x1 86 VPOP {d8-d15} 96 VPOP {d8-d15}
|
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S | 31 VPUSH {d8-d15} 41 VMOV.I8 d15,#0x1 116 VPOP {d8-d15}
|
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 43 VLD1.8 {d15},[r12],r1 57 VADDL.U8 q3,d10,d15
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p2/src/ |
omxVCM4P2_IDCT8x8blk_s.s | 56 M_START omxVCM4P2_IDCT8x8blk, r11, d15
|
/external/libhevc/common/arm/ |
ihevc_itrans_recon_4x4_ttype1.s | 163 vqrshrn.s32 d15,q4,#shift_stage1_idct @ (pi2_out[1] + rounding ) >> shift_stage1_idct 168 vtrn.16 d14,d15 171 vtrn.32 d15,d17 172 @ output in d14,d15,d16,d17 178 @ d15 - d1 182 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1] 187 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1] 198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
|
ihevc_inter_pred_chroma_vert_w16inp.s | 121 vdup.16 d15,d0[3] @coeff_3 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 192 vmlal.s16 q15,d3,d15 201 vmlal.s16 q14,d4,d15 211 vmlal.s16 q13,d5,d15 223 vmlal.s16 q12,d6,d15 238 vmlal.s16 q15,d3,d15 247 vmlal.s16 q14,d4,d15 263 vmlal.s16 q13,d5,d15 [all...] |
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 121 vdup.16 d15,d0[3] @coeff_3 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 191 vmlal.s16 q15,d3,d15 200 vmlal.s16 q14,d4,d15 210 vmlal.s16 q13,d5,d15 221 vmlal.s16 q12,d6,d15 235 vmlal.s16 q15,d3,d15 243 vmlal.s16 q14,d4,d15 258 vmlal.s16 q13,d5,d15 [all...] |
ihevc_itrans_recon_8x8.s | 140 @// row 7 first half - d15 - y7 207 vld1.16 d15,[r9]! 227 @// vld1.16 d15,[r2]! 245 vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of r0,r7) 246 vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of r1,r6) 247 vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of r2,r5) 248 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4) 268 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 336 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct) 428 vtrn.32 d14,d15 @//r4,r5,r6,r7 third qudrant transposing continued.... [all...] |
ihevc_intra_pred_chroma_mode2.s | 140 vld2.8 {d14,d15},[r10],r8 167 vrev64.8 d31,d15 200 vld2.8 {d14,d15},[r10],r8 232 vrev64.8 d31,d15 261 vld2.8 {d14,d15},[r10],r8 265 vshl.i64 d3,d15,#32
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/cris/ |
scc.d | 11 [ ]+6:[ ]+3d15[ ]+scs[ ]+\$?r13
|
/external/valgrind/none/tests/arm/ |
vfpv4_fma.c | 85 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0), f2u1(0.0)); 86 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN), f2u1(NAN)); 91 TESTINSN_bin_f64("vfma.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i32, f2u0(-248562.76), f2u1(-248562.76)); 94 TESTINSN_bin_f64("vfma.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752065), f2u1(1752065)); 104 TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i32, f2u0(0.0), f2u1(0.0)) [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blend.S | 84 vmull.u8 q12, d15, d1 86 vmull.u8 q13, d15, d3 88 vmull.u8 q14, d15, d5 90 vmull.u8 q15, d15, d7 100 vrshrn.u16 d15, q15, #8 109 vaddw.u8 q15, d15 130 vmull.u8 q12, d15, d17 132 vmull.u8 q13, d15, d19 134 vmull.u8 q14, d15, d21 136 vmull.u8 q15, d15, d2 [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_bilinear_a9q.s | 123 vstmdb sp!, {d8-d15} @push neon registers to stack 156 vaddl.u8 q11, d11, d15 184 vaddl.u8 q11, d11, d15 219 vaddl.u8 q11, d11, d15 244 vaddl.u8 q11, d11, d15 295 vld1.8 {d15}, [r1], r4 @// Load row7 ;src2 296 vaddl.u8 q11, d11, d15 332 vld1.8 {d15}, [r1], r4 @// Load roW15 ;src2 335 vaddl.u8 q11, d11, d15 387 vld1.32 d15[0], [r1], r4 @// Load row7 ;src [all...] |
ih264_resi_trans_quant_a9.s | 110 vpush {d8-d15} 153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2; 157 vtrn.16 d14, d15 @T12 160 vtrn.32 d15, d17 @T24 165 vadd.s16 d19, d15, d16 @x1 = x5+x6 166 vsub.s16 d20, d15, d16 @x2 = x5-x6 223 vmovn.u16 d15, q6 @I Narrow the comparison for row 1 and 2 blk 2 238 vpop {d8-d15} 306 vpush {d8-d15} 348 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2 [all...] |