/external/libhevc/common/arm64/ |
ihevc_neon_macros.s | 41 stp d12,d13,[sp,#-16]! 46 ldp d12,d13,[sp],#16
|
/external/libavc/common/armv8/ |
ih264_neon_macros.s | 26 stp d12, d13, [sp, #-16]! 31 ldp d12, d13, [sp], #16
|
/external/libmpeg2/common/armv8/ |
impeg2_neon_macros.s | 43 stp d12, d13, [sp, #-16]! 48 ldp d12, d13, [sp], #16
|
/external/llvm/test/MC/AArch64/ |
neon-scalar-recip.s | 35 frecpe d13, d13 39 // CHECK: frecpe d13, d13 // encoding: [0xad,0xd9,0xe1,0x5e]
|
neon-scalar-shift-imm.s | 43 usra d20, d13, #61 45 // CHECK: usra d20, d13, #61 // encoding: [0xb4,0x15,0x43,0x7f] 100 sqshlu d11, d13, #32 105 // CHECK: sqshlu d11, d13, #32 // encoding: [0xab,0x65,0x60,0x7f]
|
neon-scalar-by-elem-mul.s | 32 fmulx d13, d12, v11.d[1] 40 // CHECK: fmulx d13, d12, v11.d[1] // encoding: [0x8d,0x99,0xcb,0x7f]
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 36 VEXT.8 d13,d22,d23,#4 39 VADDL.U8 q6,d12,d13 47 VEXT.8 d13,d24,d25,#4 51 VADDL.U8 q6,d12,d13 59 VEXT.8 d13,d26,d27,#4 63 VADDL.U8 q6,d12,d13 71 VEXT.8 d13,d28,d29,#4 75 VADDL.U8 q6,d12,d13
|
armVCM4P10_DeblockingChroma_unsafe_s.S | 55 VHADD.U8 d13,d4,d9 60 VRHADD.U8 d13,d13,d5
|
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 38 VLD1.8 {d13},[r12],r1 48 VADDL.U8 q1,d8,d13 51 VADDL.U8 q8,d10,d13 58 VADDL.U8 q9,d12,d13
|
armVCM4P10_Interpolate_Chroma_s.S | 60 VDUP.8 d13,r9 72 VMLAL.U8 q2,d1,d13 75 VMLAL.U8 q3,d3,d13 78 VMLAL.U8 q11,d17,d13 83 VMLAL.U8 q12,d19,d13 110 VMLAL.U8 q2,d1,d13 111 VMLAL.U8 q3,d3,d13 133 VMLAL.U8 q2,d1,d13 134 VMLAL.U8 q3,d3,d13
|
/art/test/705-register-conflict/src/ |
Main.java | 29 double d8 = 0, d9 = 0, d10 = 0, d11 = 0, d12 = 0, d13 = 0, d14 = 0, d15 = 0; local 46 d13 = d12 + 1; 47 d14 = d13 + 1; 69 + d8 + d9 + d10 + d11 + d12 + d13 + d14 + d15
|
/external/libhevc/common/arm/ |
ihevc_itrans_recon_32x32.s | 242 vld1.16 d13,[r0],r6 264 vmlal.s16 q10,d13,d1[2] 266 vmlal.s16 q11,d13,d4[2] 268 vmlal.s16 q8,d13,d7[2] 270 vmlsl.s16 q9,d13,d5[2] 314 vld1.16 d13,[r0],r6 338 vmlal.s16 q10,d13,d3[2] 340 vmlsl.s16 q11,d13,d5[2] 342 vmlsl.s16 q8,d13,d1[2] 344 vmlal.s16 q9,d13,d7[2 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
shortidct4x4llm_neon.c | 28 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 47 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 57 d3 = vqadd_s16(d13, d10); 58 d4 = vqsub_s16(d13, d10); 76 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 86 d3 = vqadd_s16(d13, d10); 87 d4 = vqsub_s16(d13, d10);
|
dequant_idct_neon.c | 26 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 62 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); 77 d3 = vqadd_s16(d13, d10); 78 d4 = vqsub_s16(d13, d10); 95 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]); 105 d3 = vqadd_s16(d13, d10); 106 d4 = vqsub_s16(d13, d10);
|
/external/llvm/test/MC/ARM/ |
directive-fpu-instrs.s | 16 fstmfdd sp!, {d8, d9, d10, d11, d12, d13, d14, d15}
|
neon-mov-vfp.s | 9 @ CHECK-DAG: vmov.32 d13[0], r6 @ encoding: 11 vmov.32 d13[0], r6 21 @ CHECK-DAG: vmov.32 r6, d13[0] @ encoding: 23 vmov.32 r6, d13[0]
|
neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a [all...] |
neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 14 vsra.u64 d13, d16, #54 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 49 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0xb0,0xd1,0x8a,0xf3] 143 vsli.16 d12, d13, #15 144 vsli.32 d13, d14, #31 152 vsri.32 d24, d13, #32 161 vsli.16 d13, #15 170 vsri.32 d13, #32 178 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x1d,0xc5,0x9f,0xf3 [all...] |
neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 16 vsra.u64 d13, d16, #54 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 51 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0x8a,0xff,0xb0,0xd1] 146 vsli.16 d12, d13, #15 147 vsli.32 d13, d14, #31 155 vsri.32 d24, d13, #32 164 vsli.16 d13, #15 173 vsri.32 d13, #32 181 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x9f,0xff,0x1d,0xc5 [all...] |
/external/vixl/examples/aarch32/ |
pi.cc | 50 __ Vmov(I64, d13, 0); // d13 = 0.0 63 __ Vadd(F64, d13, d13, d9); 75 __ Vadd(F64, d11, d11, d13);
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 193 vaddl.u8 q12, d3, d13 254 vext.8 d17, d12, d13, #5 255 vext.8 d14, d12, d13, #2 256 vext.8 d15, d12, d13, #3 257 vext.8 d16, d12, d13, #4 258 vext.8 d13, d12, d13, #1 264 vmlsl.u8 q5, d13, d31 273 vext.8 d17, d12, d13, #5 274 vext.8 d14, d12, d13, # [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_3DLUT.S | 130 1: vst4.u8 {d12,d13,d14,d15}, [r0]! 192 lanepair dst=d13, src=d13, xr0=d0[2], xr1=d0[3], yr0=d2[2], yr1=d2[3], zr0=d4[2], zr1=d4[3] 200 vuzp.u8 d12, d13 203 vuzp.u8 d13, d15 213 vst4.u8 {d12,d13,d14,d15}, [r0]! 239 vzip.8 d13, d15 240 vzip.8 d12, d13 244 vst1.u32 {d12,d13}, [r0]!
|