HomeSort by relevance Sort by last modified time
    Searched refs:d13 (Results 1 - 25 of 198) sorted by null

1 2 3 4 5 6 7 8

  /external/libhevc/common/arm64/
ihevc_neon_macros.s 41 stp d12,d13,[sp,#-16]!
46 ldp d12,d13,[sp],#16
  /external/libavc/common/armv8/
ih264_neon_macros.s 26 stp d12, d13, [sp, #-16]!
31 ldp d12, d13, [sp], #16
  /external/libmpeg2/common/armv8/
impeg2_neon_macros.s 43 stp d12, d13, [sp, #-16]!
48 ldp d12, d13, [sp], #16
  /external/llvm/test/MC/AArch64/
neon-scalar-recip.s 35 frecpe d13, d13
39 // CHECK: frecpe d13, d13 // encoding: [0xad,0xd9,0xe1,0x5e]
neon-scalar-shift-imm.s 43 usra d20, d13, #61
45 // CHECK: usra d20, d13, #61 // encoding: [0xb4,0x15,0x43,0x7f]
100 sqshlu d11, d13, #32
105 // CHECK: sqshlu d11, d13, #32 // encoding: [0xab,0x65,0x60,0x7f]
neon-scalar-by-elem-mul.s 32 fmulx d13, d12, v11.d[1]
40 // CHECK: fmulx d13, d12, v11.d[1] // encoding: [0x8d,0x99,0xcb,0x7f]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 36 VEXT.8 d13,d22,d23,#4
39 VADDL.U8 q6,d12,d13
47 VEXT.8 d13,d24,d25,#4
51 VADDL.U8 q6,d12,d13
59 VEXT.8 d13,d26,d27,#4
63 VADDL.U8 q6,d12,d13
71 VEXT.8 d13,d28,d29,#4
75 VADDL.U8 q6,d12,d13
armVCM4P10_DeblockingChroma_unsafe_s.S 55 VHADD.U8 d13,d4,d9
60 VRHADD.U8 d13,d13,d5
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 38 VLD1.8 {d13},[r12],r1
48 VADDL.U8 q1,d8,d13
51 VADDL.U8 q8,d10,d13
58 VADDL.U8 q9,d12,d13
armVCM4P10_Interpolate_Chroma_s.S 60 VDUP.8 d13,r9
72 VMLAL.U8 q2,d1,d13
75 VMLAL.U8 q3,d3,d13
78 VMLAL.U8 q11,d17,d13
83 VMLAL.U8 q12,d19,d13
110 VMLAL.U8 q2,d1,d13
111 VMLAL.U8 q3,d3,d13
133 VMLAL.U8 q2,d1,d13
134 VMLAL.U8 q3,d3,d13
  /art/test/705-register-conflict/src/
Main.java 29 double d8 = 0, d9 = 0, d10 = 0, d11 = 0, d12 = 0, d13 = 0, d14 = 0, d15 = 0; local
46 d13 = d12 + 1;
47 d14 = d13 + 1;
69 + d8 + d9 + d10 + d11 + d12 + d13 + d14 + d15
  /external/libhevc/common/arm/
ihevc_itrans_recon_32x32.s 242 vld1.16 d13,[r0],r6
264 vmlal.s16 q10,d13,d1[2]
266 vmlal.s16 q11,d13,d4[2]
268 vmlal.s16 q8,d13,d7[2]
270 vmlsl.s16 q9,d13,d5[2]
314 vld1.16 d13,[r0],r6
338 vmlal.s16 q10,d13,d3[2]
340 vmlsl.s16 q11,d13,d5[2]
342 vmlsl.s16 q8,d13,d1[2]
344 vmlal.s16 q9,d13,d7[2
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
shortidct4x4llm_neon.c 28 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
47 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1
57 d3 = vqadd_s16(d13, d10);
58 d4 = vqsub_s16(d13, d10);
76 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1
86 d3 = vqadd_s16(d13, d10);
87 d4 = vqsub_s16(d13, d10);
dequant_idct_neon.c 26 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local
62 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2));
77 d3 = vqadd_s16(d13, d10);
78 d4 = vqsub_s16(d13, d10);
95 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]);
105 d3 = vqadd_s16(d13, d10);
106 d4 = vqsub_s16(d13, d10);
  /external/llvm/test/MC/ARM/
directive-fpu-instrs.s 16 fstmfdd sp!, {d8, d9, d10, d11, d12, d13, d14, d15}
neon-mov-vfp.s 9 @ CHECK-DAG: vmov.32 d13[0], r6 @ encoding:
11 vmov.32 d13[0], r6
21 @ CHECK-DAG: vmov.32 r6, d13[0] @ encoding:
23 vmov.32 r6, d13[0]
neont2-dup-encoding.s 21 vdup.32 d18, d13[0]
27 vdup.32 d18, d13[1]
34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c]
40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
neont2-pairwise-encoding.s 5 vpadd.i16 d13, d2, d12
6 vpadd.i32 d14, d1, d13
10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb]
11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb]
18 vpaddl.u8 d0, d13
31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02]
72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a
    [all...]
neon-shiftaccum-encoding.s 5 vsra.s32 d13, d12, #32
14 vsra.u64 d13, d16, #54
40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2]
49 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0xb0,0xd1,0x8a,0xf3]
143 vsli.16 d12, d13, #15
144 vsli.32 d13, d14, #31
152 vsri.32 d24, d13, #32
161 vsli.16 d13, #15
170 vsri.32 d13, #32
178 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x1d,0xc5,0x9f,0xf3
    [all...]
neont2-shiftaccum-encoding.s 7 vsra.s32 d13, d12, #32
16 vsra.u64 d13, d16, #54
42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1]
51 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0x8a,0xff,0xb0,0xd1]
146 vsli.16 d12, d13, #15
147 vsli.32 d13, d14, #31
155 vsri.32 d24, d13, #32
164 vsli.16 d13, #15
173 vsri.32 d13, #32
181 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x9f,0xff,0x1d,0xc5
    [all...]
  /external/vixl/examples/aarch32/
pi.cc 50 __ Vmov(I64, d13, 0); // d13 = 0.0
63 __ Vadd(F64, d13, d13, d9);
75 __ Vadd(F64, d11, d11, d13);
  /external/swiftshader/third_party/LLVM/test/MC/ARM/
neont2-dup-encoding.s 21 vdup.32 d18, d13[0]
27 vdup.32 d18, d13[1]
34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c]
40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
neont2-pairwise-encoding.s 5 vpadd.i16 d13, d2, d12
6 vpadd.i32 d14, d1, d13
10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb]
11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb]
18 vpaddl.u8 d0, d13
31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02]
72 vpmin.u8 d19, d26, d13
80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s 193 vaddl.u8 q12, d3, d13
254 vext.8 d17, d12, d13, #5
255 vext.8 d14, d12, d13, #2
256 vext.8 d15, d12, d13, #3
257 vext.8 d16, d12, d13, #4
258 vext.8 d13, d12, d13, #1
264 vmlsl.u8 q5, d13, d31
273 vext.8 d17, d12, d13, #5
274 vext.8 d14, d12, d13, #
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_3DLUT.S 130 1: vst4.u8 {d12,d13,d14,d15}, [r0]!
192 lanepair dst=d13, src=d13, xr0=d0[2], xr1=d0[3], yr0=d2[2], yr1=d2[3], zr0=d4[2], zr1=d4[3]
200 vuzp.u8 d12, d13
203 vuzp.u8 d13, d15
213 vst4.u8 {d12,d13,d14,d15}, [r0]!
239 vzip.8 d13, d15
240 vzip.8 d12, d13
244 vst1.u32 {d12,d13}, [r0]!

Completed in 529 milliseconds

1 2 3 4 5 6 7 8