/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
neont2-minmax-encoding.s | 8 vmax.u8 d10, d11, d12 16 vmax.u8 d11, d12 40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6] 47 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xb6] 70 vmin.u8 d10, d11, d12 78 vmin.u8 d11, d12 102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6] 109 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xb6]
|
single-precision-fp.s | 28 vfnms.f64 d10, d11, d12 44 @ CHECK-ERRORS-NEXT: vfnms.f64 d10, d11, d12 47 vsqrt.f64 d13, d12 52 @ CHECK-ERRORS-NEXT: vsqrt.f64 d13, d12 88 vcvt.f64.s16 d11, d12, #3 91 vcvt.f64.u32 d13, d12, #1 113 @ CHECK-ERRORS-NEXT: vcvt.f64.s16 d11, d12, #3 119 @ CHECK-ERRORS-NEXT: vcvt.f64.u32 d13, d12, #1 135 vmaxnm.f64 d12, d13, d14 137 @ CHECK-ERRORS-NEXT: vmaxnm.f64 d12, d13, d1 [all...] |
arm-reg-addr-errors.s | 15 ldr r4, [r1, d12] 23 ldr r4, [r3], d12
|
eh-directive-section-comdat.s | 24 .vsave {d8, d9, d10, d11, d12} 25 vpush {d8, d9, d10, d11, d12} 30 vpop {d8, d9, d10, d11, d12}
|
fp-armv8.s | 7 vcvtt.f16.f64 s5, d12 8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee] 17 vcvttgt.f16.f64 s5, d12 18 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xce] 94 vrintzge.f64 d3, d12 95 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xcc,0x3b,0xb6,0xae]
|
thumb-fp-armv8.s | 7 vcvtt.f16.f64 s5, d12 8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b] 19 vcvttgt.f16.f64 s5, d12 20 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b] 97 vrintzge.f64 d3, d12 98 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xb6,0xee,0xcc,0x3b]
|
/external/libavc/common/arm/ |
ih264_inter_pred_luma_bilinear_a9q.s | 147 vaddl.u8 q8, d8, d12 178 vaddl.u8 q8, d8, d12 210 vaddl.u8 q8, d8, d12 235 vaddl.u8 q8, d8, d12 280 vld1.8 {d12}, [r1], r4 @// Load row4 ;src2 283 vaddl.u8 q8, d8, d12 320 vld1.8 {d12}, [r1], r4 @// Load row12 ;src2 323 vaddl.u8 q8, d8, d12 372 vld1.32 d12[0], [r1], r4 @// Load row4 ;src2 375 vaddl.u8 q8, d8, d12 [all...] |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 154 vld1.u32 d12, [r0], r2 @ Vector load from src[0_0] 177 vaddl.u8 q11, d12, d17 238 vld1.u32 d12, [r0], r2 @ Vector load from src[6_0] 254 vaddl.u8 q11, d13, d12 346 vaddl.s16 q15, d12, d22 364 vqrshrun.s32 d12, q15, #10 396 vmov d12, d25 402 vst1.32 d12, [r1], r3 @ store row 0 438 vaddl.s16 q15, d12, d22 456 vqrshrun.s32 d12, q15, #1 [all...] |
/external/capstone/suite/MC/ARM/ |
fp-armv8.s.cs | 3 0xcc,0x2b,0xf3,0xee = vcvtt.f16.f64 s5, d12 7 0xcc,0x2b,0xf3,0xce = vcvttgt.f16.f64 s5, d12 38 0xcc,0x3b,0xb6,0xae = vrintzge.f64 d3, d12
|
thumb-fp-armv8.s.cs | 3 0xf3,0xee,0xcc,0x2b = vcvtt.f16.f64 s5, d12 7 0xf3,0xee,0xcc,0x2b = vcvttgt.f16.f64 s5, d12 38 0xb6,0xee,0xcc,0x3b = vrintzge.f64 d3, d12
|
neon-minmax-encoding.s.cs | 5 0x0c,0xa6,0x0b,0xf3 = vmax.u8 d10, d11, d12 12 0x0c,0xb6,0x0b,0xf3 = vmax.u8 d11, d11, d12 33 0x1c,0xa6,0x0b,0xf3 = vmin.u8 d10, d11, d12 40 0x1c,0xb6,0x0b,0xf3 = vmin.u8 d11, d11, d12
|
neont2-minmax-encoding.s.cs | 5 0x0b,0xff,0x0c,0xa6 = vmax.u8 d10, d11, d12 12 0x0b,0xff,0x0c,0xb6 = vmax.u8 d11, d11, d12 33 0x0b,0xff,0x1c,0xa6 = vmin.u8 d10, d11, d12 40 0x0b,0xff,0x1c,0xb6 = vmin.u8 d11, d11, d12
|
/external/libhevc/common/arm/ |
ihevc_inter_pred_luma_copy_w16out.s | 156 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 160 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 171 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 194 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp) 209 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp) 233 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
|
ihevc_intra_pred_chroma_mode_18_34.s | 149 vld1.8 {d12,d13},[r8],r6 150 vst1.8 {d12,d13},[r10],r3
|
ihevc_weighted_pred_uni.s | 205 vqmovun.s32 d12,q6 @vqmovun_s32(sto_res_tmp1) iv iteration 207 vmov.s32 d13,d12 @vcombine_u16(sto_res_tmp2, sto_res_tmp2) iv iteration 209 vqmovn.u16 d12,q6 @vqmovn_u16(sto_res_tmp3) iv iteration 212 vst1.32 {d12[0]},[r6],r3 @store pu1_dst iv iteration
|
ihevc_inter_pred_chroma_horz.s | 228 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 304 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 351 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 416 @vld1.u32 {d12,d13},[r4],r11 @vector load pu1_src + src_strd 417 @vext.u8 d14,d12,d13,#2 @vector extract of src[0_2] 420 @vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 421 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6] 541 vqrshrun.s16 d12,q6,#6 @(3)right shift and saturating narrow result 1 558 vst1.8 {d12},[r4],r3 @(3)store the result pu1_dst 606 vqrshrun.s16 d12,q6,#6 @(3)right shift and saturating narrow result [all...] |
/external/llvm/test/MC/MachO/ARM/ |
compact-unwind-armv7k.s | 70 vpush {d12} 74 .cfi_offset d12, -24
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/MachO/ARM/ |
compact-unwind-armv7k.s | 70 vpush {d12} 74 .cfi_offset d12, -24
|
/external/boringssl/src/crypto/curve25519/asm/ |
x25519-asm-arm.S | 97 vld1.8 {d12},[r2] 170 vtrn.32 d12,d14 175 vst1.8 d12,[r2,: 64]! 301 vst1.8 {d12-d13},[r2,: 128]! 305 vst1.8 d12,[r2,: 64] 341 vmlal.s32 q12,d12,d0 369 vmlal.s32 q11,d12,d5 374 vmlal.s32 q15,d12,d6 380 vmlal.s32 q2,d12,d7 386 vmlal.s32 q0,d12,d [all...] |
/external/boringssl/src/crypto/test/asm/ |
trampoline-armv8.pl | 73 stp d12, d13, [sp, #48] 89 ldp d12, d13, [$state], #16 134 stp d12, d13, [$state], #16 154 ldp d12, d13, [sp, #48]
|
/external/apache-commons-math/src/main/java/org/apache/commons/math/ode/ |
ContinuousOutputModel.java | 309 final double d12 = tMax - tMed; local 317 (dt1 * dt2 * d12) * iMin) / 318 (d12 * d23 * d13);
|
/external/llvm/test/MC/ARM/ |
eh-directive-section-comdat.s | 24 .vsave {d8, d9, d10, d11, d12} 25 vpush {d8, d9, d10, d11, d12} 30 vpop {d8, d9, d10, d11, d12}
|
fp-armv8.s | 7 vcvtt.f16.f64 s5, d12 8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee] 17 vcvttgt.f16.f64 s5, d12 18 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xce] 94 vrintzge.f64 d3, d12 95 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xcc,0x3b,0xb6,0xae]
|
thumb-fp-armv8.s | 7 vcvtt.f16.f64 s5, d12 8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b] 19 vcvttgt.f16.f64 s5, d12 20 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b] 97 vrintzge.f64 d3, d12 98 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xb6,0xee,0xcc,0x3b]
|
/external/skia/src/core/ |
SkMaskBlurFilter.cpp | 673 // Instead of using memory we can introduce temporaries d01 and d12. The update step changes 677 // d01 = d12 + S[n+0r]*G[0] 678 // d12 = S[n+0r]*G[1] 683 // d01[0..7] = d12[0..7] + S[n+0r..n+0r+7]*G[0] 684 // d12[0..7] = S[n+0r..n+0r+7]*G[1] 689 Sk8h* d01, Sk8h* d12, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*) { 694 *d01 = *d12 + v0; 695 *d12 = v1 + kHalf; 703 Sk8h* d01, Sk8h* d12, Sk8h* d23, Sk8h* d34, Sk8h*, Sk8h*, Sk8h*, Sk8h*) { 709 *d01 = *d12 + v1 [all...] |