HomeSort by relevance Sort by last modified time
    Searched refs:d15 (Results 26 - 50 of 243) sorted by null

12 3 4 5 6 7 8 910

  /external/llvm/test/MC/ARM/
directive-fpu-instrs.s 16 fstmfdd sp!, {d8, d9, d10, d11, d12, d13, d14, d15}
neon-shiftaccum-encoding.s 4 vsra.s16 d15, d14, #16
13 vsra.u32 d12, d15, #22
31 vsra.u32 d15, #22
39 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x1e,0xf1,0x90,0xf2]
48 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0x1f,0xc1,0xaa,0xf3]
65 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0x1f,0xf1,0xaa,0xf3]
76 vrsra.u8 d15, d22, #8
111 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x36,0xf3,0x88,0xf3]
145 vsli.64 d14, d15, #6
    [all...]
neont2-shiftaccum-encoding.s 6 vsra.s16 d15, d14, #16
15 vsra.u32 d12, d15, #22
33 vsra.u32 d15, #22
41 @ CHECK: vsra.s16 d15, d14, #16 @ encoding: [0x90,0xef,0x1e,0xf1]
50 @ CHECK: vsra.u32 d12, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xc1]
67 @ CHECK: vsra.u32 d15, d15, #22 @ encoding: [0xaa,0xff,0x1f,0xf1]
79 vrsra.u8 d15, d22, #8
114 @ CHECK: vrsra.u8 d15, d22, #8 @ encoding: [0x88,0xff,0x36,0xf3]
148 vsli.64 d14, d15, #6
    [all...]
neont2-pairwise-encoding.s 20 vpaddl.u32 d6, d15
33 @ CHECK: vpaddl.u32 d6, d15 @ encoding: [0xb8,0xff,0x8f,0x62]
74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
88 vpmax.s32 d5, d22, d15
96 @ CHECK: vpmax.s32 d5, d22, d15 @ encoding: [0x26,0xef,0x8f,0x5a]
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
vfp2.d 14 0+010 <[^>]*> ec45ab1f vmov d15, sl, r5
15 0+014 <[^>]*> ec55ab1f vmov sl, r5, d15
vfp2_t2.d 14 0+010 <[^>]*> ec45 ab1f vmov d15, sl, r5
15 0+014 <[^>]*> ec55 ab1f vmov sl, r5, d15
vfp1_t2.d 55 0+0b4 <[^>]*> eeb5 fb40 (vcmp\.f64 d15, #0.0|fcmpzd d15)
58 0+0c0 <[^>]*> eeb4 0b4f (vcmp\.f64|fcmpd) d0, d15
61 0+0cc <[^>]*> eeb4 fb40 (vcmp\.f64|fcmpd) d15, d0
65 0+0dc <[^>]*> eeb1 0b4f (vneg\.f64|fnegd) d0, d15
68 0+0e8 <[^>]*> eeb1 fb40 (vneg\.f64|fnegd) d15, d0
72 0+0f8 <[^>]*> ee30 0b0f (vadd\.f64|faddd) d0, d0, d15
75 0+104 <[^>]*> ee3f 0b00 (vadd\.f64|faddd) d0, d15, d0
78 0+110 <[^>]*> ee30 fb00 (vadd\.f64|faddd) d15, d0, d0
85 0+12c <[^>]*> eeb7 fac0 (vcvt\.f64\.f32|fcvtds) d15, s
    [all...]
  /external/llvm/test/MC/AArch64/
neon-scalar-mul.s 62 sqdmull d15, s22, s12
65 // CHECK: sqdmull d15, s22, s12 // encoding: [0xcf,0xd2,0xac,0x5e]
neon-scalar-by-elem-mul.s 31 fmulx d15, d9, v7.d[0]
39 // CHECK: fmulx d15, d9, v7.d[0] // encoding: [0x2f,0x91,0xc7,0x7f]
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
R4R8First_v7.s 31 fstmfdd sp!, {d8 - d15}
32 .vsave {d8 - d15}
93 VSUB.S32 d15, d3, d6
105 VST1.I32 {d12, d13, d14, d15}, [r0]!
110 fldmfdd sp!, {d8 - d15}
125 fstmfdd sp!, {d8 - d15}
126 .vsave {d8 - d15}
153 fldmfdd sp!, {d8 - d15}
PrePostMDCT_v7.s 31 fstmfdd sp!, {d8 - d15}
32 .vsave {d8 - d15}
44 VLD2.I32 {d13, d15}, [r3]! @ tr2 = *(buf1 - 1)@ ti1 = *(buf1 + 0)@
81 fldmfdd sp!, {d8 - d15}
93 fstmfdd sp!, {d8 - d15}
94 .vsave {d8 - d15}
106 VLD2.I32 {d13, d15}, [r3]! @ tr2 = *(zbuf2 - 1)@ ti2 = *(zbuf2 + 0)@
142 fldmfdd sp!, {d8 - d15}
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S 31 VPUSH {d8-d15}
41 VMOV.I8 d15,#0x1
86 VPOP {d8-d15}
96 VPOP {d8-d15}
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S 31 VPUSH {d8-d15}
41 VMOV.I8 d15,#0x1
116 VPOP {d8-d15}
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 43 VLD1.8 {d15},[r12],r1
57 VADDL.U8 q3,d10,d15
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p2/src/
omxVCM4P2_IDCT8x8blk_s.s 56 M_START omxVCM4P2_IDCT8x8blk, r11, d15
  /external/libhevc/common/arm/
ihevc_itrans_recon_4x4_ttype1.s 163 vqrshrn.s32 d15,q4,#shift_stage1_idct @ (pi2_out[1] + rounding ) >> shift_stage1_idct
168 vtrn.16 d14,d15
171 vtrn.32 d15,d17
172 @ output in d14,d15,d16,d17
178 @ d15 - d1
182 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1]
187 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1]
198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
ihevc_inter_pred_chroma_vert_w16inp.s 121 vdup.16 d15,d0[3] @coeff_3
151 vmlal.s16 q0,d6,d15
152 vmlal.s16 q4,d2,d15
192 vmlal.s16 q15,d3,d15
201 vmlal.s16 q14,d4,d15
211 vmlal.s16 q13,d5,d15
223 vmlal.s16 q12,d6,d15
238 vmlal.s16 q15,d3,d15
247 vmlal.s16 q14,d4,d15
263 vmlal.s16 q13,d5,d15
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 121 vdup.16 d15,d0[3] @coeff_3
151 vmlal.s16 q0,d6,d15
152 vmlal.s16 q4,d2,d15
191 vmlal.s16 q15,d3,d15
200 vmlal.s16 q14,d4,d15
210 vmlal.s16 q13,d5,d15
221 vmlal.s16 q12,d6,d15
235 vmlal.s16 q15,d3,d15
243 vmlal.s16 q14,d4,d15
258 vmlal.s16 q13,d5,d15
    [all...]
ihevc_itrans_recon_8x8.s 140 @// row 7 first half - d15 - y7
207 vld1.16 d15,[r9]!
227 @// vld1.16 d15,[r2]!
245 vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of r0,r7)
246 vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of r1,r6)
247 vmlal.s16 q14,d15,d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of r2,r5)
248 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4)
268 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
336 vqrshrn.s32 d15,q3,#shift_stage1_idct @// r7 = (a0 - b0 + rnd) >> 7(shift_stage1_idct)
428 vtrn.32 d14,d15 @//r4,r5,r6,r7 third qudrant transposing continued....
    [all...]
ihevc_intra_pred_chroma_mode2.s 140 vld2.8 {d14,d15},[r10],r8
167 vrev64.8 d31,d15
200 vld2.8 {d14,d15},[r10],r8
232 vrev64.8 d31,d15
261 vld2.8 {d14,d15},[r10],r8
265 vshl.i64 d3,d15,#32
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/cris/
scc.d 11 [ ]+6:[ ]+3d15[ ]+scs[ ]+\$?r13
  /external/valgrind/none/tests/arm/
vfpv4_fma.c 85 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(0.0), f2u1(0.0));
86 TESTINSN_bin_f64("vfma.f64 d10, d13, d15", d10, d13, i32, f2u0(NAN), f2u1(NAN), d15, i32, f2u0(NAN), f2u1(NAN));
91 TESTINSN_bin_f64("vfma.f64 d30, d15, d2", d30, d15, i32, f2u0(-45667.24), f2u1(-45667.24), d2, i32, f2u0(-248562.76), f2u1(-248562.76));
94 TESTINSN_bin_f64("vfma.f64 d29, d15, d7", d29, d15, i32, f2u0(214), f2u1(214), d7, i32, f2u0(1752065), f2u1(1752065));
104 TESTINSN_bin_f64("vfma.f64 d20, d13, d15", d20, d13, i32, f2u0(-INFINITY), f2u1(-INFINITY), d15, i32, f2u0(0.0), f2u1(0.0))
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 84 vmull.u8 q12, d15, d1
86 vmull.u8 q13, d15, d3
88 vmull.u8 q14, d15, d5
90 vmull.u8 q15, d15, d7
100 vrshrn.u16 d15, q15, #8
109 vaddw.u8 q15, d15
130 vmull.u8 q12, d15, d17
132 vmull.u8 q13, d15, d19
134 vmull.u8 q14, d15, d21
136 vmull.u8 q15, d15, d2
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_bilinear_a9q.s 123 vstmdb sp!, {d8-d15} @push neon registers to stack
156 vaddl.u8 q11, d11, d15
184 vaddl.u8 q11, d11, d15
219 vaddl.u8 q11, d11, d15
244 vaddl.u8 q11, d11, d15
295 vld1.8 {d15}, [r1], r4 @// Load row7 ;src2
296 vaddl.u8 q11, d11, d15
332 vld1.8 {d15}, [r1], r4 @// Load roW15 ;src2
335 vaddl.u8 q11, d11, d15
387 vld1.32 d15[0], [r1], r4 @// Load row7 ;src
    [all...]
ih264_resi_trans_quant_a9.s 110 vpush {d8-d15}
153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
157 vtrn.16 d14, d15 @T12
160 vtrn.32 d15, d17 @T24
165 vadd.s16 d19, d15, d16 @x1 = x5+x6
166 vsub.s16 d20, d15, d16 @x2 = x5-x6
223 vmovn.u16 d15, q6 @I Narrow the comparison for row 1 and 2 blk 2
238 vpop {d8-d15}
306 vpush {d8-d15}
348 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2
    [all...]

Completed in 1684 milliseconds

12 3 4 5 6 7 8 910