/external/libhevc/common/arm64/ |
ihevc_neon_macros.s | 41 stp d12,d13,[sp,#-16]! 46 ldp d12,d13,[sp],#16
|
/external/llvm/test/MC/AArch64/ |
neon-scalar-recip.s | 30 frecpe d13, d13 33 // CHECK: frecpe d13, d13 // encoding: [0xad,0xd9,0xe1,0x5e]
|
neon-scalar-by-elem-mul.s | 29 fmulx d13, d12, v11.d[1] 36 // CHECK: fmulx d13, d12, v11.d[1] // encoding: [0x8d,0x99,0xcb,0x7f]
|
neon-scalar-shift-imm.s | 43 usra d20, d13, #61 45 // CHECK: usra d20, d13, #61 // encoding: [0xb4,0x15,0x43,0x7f] 100 sqshlu d11, d13, #32 105 // CHECK: sqshlu d11, d13, #32 // encoding: [0xab,0x65,0x60,0x7f]
|
neon-scalar-cvt.s | 70 fcvtxn s22, d13 72 // CHECK: fcvtxn s22, d13 // encoding: [0xb6,0x69,0x61,0x7e]
|
/external/libhevc/common/arm/ |
ihevc_itrans_recon_32x32.s | 242 vld1.16 d13,[r0],r6 264 vmlal.s16 q10,d13,d1[2] 266 vmlal.s16 q11,d13,d4[2] 268 vmlal.s16 q8,d13,d7[2] 270 vmlsl.s16 q9,d13,d5[2] 314 vld1.16 d13,[r0],r6 338 vmlal.s16 q10,d13,d3[2] 340 vmlsl.s16 q11,d13,d5[2] 342 vmlsl.s16 q8,d13,d1[2] 344 vmlal.s16 q9,d13,d7[2 [all...] |
ihevc_inter_pred_chroma_vert_w16inp.s | 119 vdup.16 d13,d0[1] @coeff_1 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 189 vmlal.s16 q15,d1,d13 197 vmlal.s16 q14,d2,d13 208 vmlal.s16 q13,d3,d13 219 vmlal.s16 q12,d4,d13 235 vmlal.s16 q15,d1,d13 245 vmlal.s16 q14,d2,d13 258 vmlal.s16 q13,d3,d13 [all...] |
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 119 vdup.16 d13,d0[1] @coeff_1 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 188 vmlal.s16 q15,d1,d13 197 vmlal.s16 q14,d2,d13 206 vmlal.s16 q13,d3,d13 217 vmlal.s16 q12,d4,d13 232 vmlal.s16 q15,d1,d13 241 vmlal.s16 q14,d2,d13 253 vmlal.s16 q13,d3,d13 [all...] |
ihevc_inter_pred_filters_luma_horz.s | 207 @ vext.u8 d14,d12,d13,#2 209 @vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 211 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 212 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 213 @vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 214 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1] 225 vld1.u32 {d13},[r4],r11 245 vmlal.u8 q5,d13,d25 @mul_res = vmlal_u8(src[0_1], coeffabs_1) [all...] |
ihevc_intra_pred_chroma_mode2.s | 137 vld2.8 {d12,d13},[r0],r8 163 vrev64.8 d29,d13 198 vld2.8 {d12,d13},[r0],r8 228 vrev64.8 d29,d13 255 vld2.8 {d12,d13},[r0],r8 258 vshl.i64 d1,d13,#32
|
ihevc_inter_pred_luma_horz_w16out.s | 221 vld1.u32 {d13},[r4],r11 224 vzip.32 d1,d13 236 @ vext.u8 d14,d12,d13,#2 @vector extract of src[0_2] 237 @ vext.u8 d15,d12,d13,#3 @vector extract of src[0_3] 238 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 239 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5] 240 @ vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 241 @ vext.u8 d19,d12,d13,#7 @vector extract of src[0_7] 242 @vext.u8 d13,d12,d13,#1 @vector extract of src[0_1 [all...] |
ihevc_intra_pred_luma_mode2.s | 151 vrev64.8 d13,d5 173 vst1.8 {d13},[r7],r5 213 vrev64.8 d13,d5 230 vst1.8 {d13},[r7],r5
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
shortidct4x4llm_neon.c | 25 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 44 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 56 d3 = vqadd_s16(d13, d10); 57 d4 = vqsub_s16(d13, d10); 75 d13 = vqsub_s16(vget_low_s16(q1s16), vget_high_s16(q1s16)); // b1 87 d3 = vqadd_s16(d13, d10); 88 d4 = vqsub_s16(d13, d10);
|
dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 59 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); 76 d3 = vqadd_s16(d13, d10); 77 d4 = vqsub_s16(d13, d10); 94 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]); 106 d3 = vqadd_s16(d13, d10); 107 d4 = vqsub_s16(d13, d10);
|
/external/llvm/test/MC/ARM/ |
neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
neont2-pairwise-encoding.s | 5 vpadd.i16 d13, d2, d12 6 vpadd.i32 d14, d1, d13 10 @ CHECK: vpadd.i16 d13, d2, d12 @ encoding: [0x12,0xef,0x1c,0xdb] 11 @ CHECK: vpadd.i32 d14, d1, d13 @ encoding: [0x21,0xef,0x1d,0xeb] 18 vpaddl.u8 d0, d13 31 @ CHECK: vpaddl.u8 d0, d13 @ encoding: [0xb0,0xff,0x8d,0x02] 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a [all...] |
neon-shiftaccum-encoding.s | 5 vsra.s32 d13, d12, #32 14 vsra.u64 d13, d16, #54 40 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0x1c,0xd1,0xa0,0xf2] 49 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0xb0,0xd1,0x8a,0xf3] 143 vsli.16 d12, d13, #15 144 vsli.32 d13, d14, #31 152 vsri.32 d24, d13, #32 161 vsli.16 d13, #15 170 vsri.32 d13, #32 178 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x1d,0xc5,0x9f,0xf3 [all...] |
neont2-shiftaccum-encoding.s | 7 vsra.s32 d13, d12, #32 16 vsra.u64 d13, d16, #54 42 @ CHECK: vsra.s32 d13, d12, #32 @ encoding: [0xa0,0xef,0x1c,0xd1] 51 @ CHECK: vsra.u64 d13, d16, #54 @ encoding: [0x8a,0xff,0xb0,0xd1] 146 vsli.16 d12, d13, #15 147 vsli.32 d13, d14, #31 155 vsri.32 d24, d13, #32 164 vsli.16 d13, #15 173 vsri.32 d13, #32 181 @ CHECK: vsli.16 d12, d13, #15 @ encoding: [0x9f,0xff,0x1d,0xc5 [all...] |
single-precision-fp.s | 47 vsqrt.f64 d13, d12 48 vsqrt d13, d14 52 @ CHECK-ERRORS-NEXT: vsqrt.f64 d13, d12 54 @ CHECK-ERRORS-NEXT: vsqrt d13, d14 89 vcvt.f64.u16 d13, d14, #2 91 vcvt.f64.u32 d13, d12, #1 115 @ CHECK-ERRORS-NEXT: vcvt.f64.u16 d13, d14, #2 119 @ CHECK-ERRORS-NEXT: vcvt.f64.u32 d13, d12, #1 135 vmaxnm.f64 d12, d13, d14 137 @ CHECK-ERRORS-NEXT: vmaxnm.f64 d12, d13, d1 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
dequant_idct_neon.c | 23 int16x4_t d2, d3, d4, d5, d10, d11, d12, d13; local 59 d13 = vqsub_s16(vget_low_s16(q1), vget_low_s16(q2)); 76 d3 = vqadd_s16(d13, d10); 77 d4 = vqsub_s16(d13, d10); 94 d13 = vqsub_s16(d2tmp2.val[0], d2tmp3.val[0]); 106 d3 = vqadd_s16(d13, d10); 107 d4 = vqsub_s16(d13, d10);
|
shortidct4x4llm_neon.asm | 51 vqsub.s16 d13, d2, d3 ;b1 68 vqadd.s16 d3, d13, d10 69 vqsub.s16 d4, d13, d10 83 vqsub.s16 d13, d2, d3 ;b1 95 vqadd.s16 d3, d13, d10 96 vqsub.s16 d4, d13, d10
|
/bionic/libc/arch-arm64/bionic/ |
_setjmp.S | 60 stp d12, d13, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 1)] 90 ldp d12, d13, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 1)]
|
setjmp.S | 72 stp d12, d13, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 1)] 102 ldp d12, d13, [x0, #(_JB_FLOAT_BASE * 4 + 16 * 1)]
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_idct16x16_add_neon.asm | 145 vqrshrn.s32 d13, q15, #14 ; >> 14 245 vqrshrn.s32 d13, q10, #14 ; >> 14 323 vdup.16 d13, r12 ; duplicate cospi_2_64 339 vmull.s16 q1, d16, d13 340 vmull.s16 q4, d17, d13 343 vmlsl.s16 q2, d30, d13 344 vmlsl.s16 q3, d31, d13 395 vqrshrn.s32 d13, q5, #14 ; >> 14 502 vqrshrn.s32 d13, q3, #14 ; >> 14 616 vld1.64 {d13}, [r7], r8 ; load destinatoin dat [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_idct16x16_add_neon.asm | 145 vqrshrn.s32 d13, q15, #14 ; >> 14 245 vqrshrn.s32 d13, q10, #14 ; >> 14 323 vdup.16 d13, r12 ; duplicate cospi_2_64 339 vmull.s16 q1, d16, d13 340 vmull.s16 q4, d17, d13 343 vmlsl.s16 q2, d30, d13 344 vmlsl.s16 q3, d31, d13 395 vqrshrn.s32 d13, q5, #14 ; >> 14 502 vqrshrn.s32 d13, q3, #14 ; >> 14 616 vld1.64 {d13}, [r7], r8 ; load destinatoin dat [all...] |