HomeSort by relevance Sort by last modified time
    Searched refs:d12 (Results 76 - 100 of 275) sorted by null

1 2 34 5 6 7 8 91011

  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neont2-minmax-encoding.s 8 vmax.u8 d10, d11, d12
16 vmax.u8 d11, d12
40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6]
47 @ CHECK: vmax.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xb6]
70 vmin.u8 d10, d11, d12
78 vmin.u8 d11, d12
102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6]
109 @ CHECK: vmin.u8 d11, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xb6]
single-precision-fp.s 28 vfnms.f64 d10, d11, d12
44 @ CHECK-ERRORS-NEXT: vfnms.f64 d10, d11, d12
47 vsqrt.f64 d13, d12
52 @ CHECK-ERRORS-NEXT: vsqrt.f64 d13, d12
88 vcvt.f64.s16 d11, d12, #3
91 vcvt.f64.u32 d13, d12, #1
113 @ CHECK-ERRORS-NEXT: vcvt.f64.s16 d11, d12, #3
119 @ CHECK-ERRORS-NEXT: vcvt.f64.u32 d13, d12, #1
135 vmaxnm.f64 d12, d13, d14
137 @ CHECK-ERRORS-NEXT: vmaxnm.f64 d12, d13, d1
    [all...]
arm-reg-addr-errors.s 15 ldr r4, [r1, d12]
23 ldr r4, [r3], d12
eh-directive-section-comdat.s 24 .vsave {d8, d9, d10, d11, d12}
25 vpush {d8, d9, d10, d11, d12}
30 vpop {d8, d9, d10, d11, d12}
fp-armv8.s 7 vcvtt.f16.f64 s5, d12
8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
17 vcvttgt.f16.f64 s5, d12
18 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xce]
94 vrintzge.f64 d3, d12
95 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xcc,0x3b,0xb6,0xae]
thumb-fp-armv8.s 7 vcvtt.f16.f64 s5, d12
8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b]
19 vcvttgt.f16.f64 s5, d12
20 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b]
97 vrintzge.f64 d3, d12
98 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xb6,0xee,0xcc,0x3b]
  /external/libavc/common/arm/
ih264_inter_pred_luma_bilinear_a9q.s 147 vaddl.u8 q8, d8, d12
178 vaddl.u8 q8, d8, d12
210 vaddl.u8 q8, d8, d12
235 vaddl.u8 q8, d8, d12
280 vld1.8 {d12}, [r1], r4 @// Load row4 ;src2
283 vaddl.u8 q8, d8, d12
320 vld1.8 {d12}, [r1], r4 @// Load row12 ;src2
323 vaddl.u8 q8, d8, d12
372 vld1.32 d12[0], [r1], r4 @// Load row4 ;src2
375 vaddl.u8 q8, d8, d12
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 154 vld1.u32 d12, [r0], r2 @ Vector load from src[0_0]
177 vaddl.u8 q11, d12, d17
238 vld1.u32 d12, [r0], r2 @ Vector load from src[6_0]
254 vaddl.u8 q11, d13, d12
346 vaddl.s16 q15, d12, d22
364 vqrshrun.s32 d12, q15, #10
396 vmov d12, d25
402 vst1.32 d12, [r1], r3 @ store row 0
438 vaddl.s16 q15, d12, d22
456 vqrshrun.s32 d12, q15, #1
    [all...]
  /external/capstone/suite/MC/ARM/
fp-armv8.s.cs 3 0xcc,0x2b,0xf3,0xee = vcvtt.f16.f64 s5, d12
7 0xcc,0x2b,0xf3,0xce = vcvttgt.f16.f64 s5, d12
38 0xcc,0x3b,0xb6,0xae = vrintzge.f64 d3, d12
thumb-fp-armv8.s.cs 3 0xf3,0xee,0xcc,0x2b = vcvtt.f16.f64 s5, d12
7 0xf3,0xee,0xcc,0x2b = vcvttgt.f16.f64 s5, d12
38 0xb6,0xee,0xcc,0x3b = vrintzge.f64 d3, d12
neon-minmax-encoding.s.cs 5 0x0c,0xa6,0x0b,0xf3 = vmax.u8 d10, d11, d12
12 0x0c,0xb6,0x0b,0xf3 = vmax.u8 d11, d11, d12
33 0x1c,0xa6,0x0b,0xf3 = vmin.u8 d10, d11, d12
40 0x1c,0xb6,0x0b,0xf3 = vmin.u8 d11, d11, d12
neont2-minmax-encoding.s.cs 5 0x0b,0xff,0x0c,0xa6 = vmax.u8 d10, d11, d12
12 0x0b,0xff,0x0c,0xb6 = vmax.u8 d11, d11, d12
33 0x0b,0xff,0x1c,0xa6 = vmin.u8 d10, d11, d12
40 0x0b,0xff,0x1c,0xb6 = vmin.u8 d11, d11, d12
  /external/libhevc/common/arm/
ihevc_inter_pred_luma_copy_w16out.s 156 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
160 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
171 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
194 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
209 vld1.8 {d12},[r6],r2 @vld1_u8(pu1_src_tmp)
233 vmovl.u8 q10,d12 @vmovl_u8(vld1_u8(pu1_src_tmp)
ihevc_intra_pred_chroma_mode_18_34.s 149 vld1.8 {d12,d13},[r8],r6
150 vst1.8 {d12,d13},[r10],r3
ihevc_weighted_pred_uni.s 205 vqmovun.s32 d12,q6 @vqmovun_s32(sto_res_tmp1) iv iteration
207 vmov.s32 d13,d12 @vcombine_u16(sto_res_tmp2, sto_res_tmp2) iv iteration
209 vqmovn.u16 d12,q6 @vqmovn_u16(sto_res_tmp3) iv iteration
212 vst1.32 {d12[0]},[r6],r3 @store pu1_dst iv iteration
ihevc_inter_pred_chroma_horz.s 228 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
304 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
351 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
416 @vld1.u32 {d12,d13},[r4],r11 @vector load pu1_src + src_strd
417 @vext.u8 d14,d12,d13,#2 @vector extract of src[0_2]
420 @vext.u8 d16,d12,d13,#4 @vector extract of src[0_4]
421 @vext.u8 d18,d12,d13,#6 @vector extract of src[0_6]
541 vqrshrun.s16 d12,q6,#6 @(3)right shift and saturating narrow result 1
558 vst1.8 {d12},[r4],r3 @(3)store the result pu1_dst
606 vqrshrun.s16 d12,q6,#6 @(3)right shift and saturating narrow result
    [all...]
  /external/llvm/test/MC/MachO/ARM/
compact-unwind-armv7k.s 70 vpush {d12}
74 .cfi_offset d12, -24
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/MachO/ARM/
compact-unwind-armv7k.s 70 vpush {d12}
74 .cfi_offset d12, -24
  /external/boringssl/src/crypto/curve25519/asm/
x25519-asm-arm.S 97 vld1.8 {d12},[r2]
170 vtrn.32 d12,d14
175 vst1.8 d12,[r2,: 64]!
301 vst1.8 {d12-d13},[r2,: 128]!
305 vst1.8 d12,[r2,: 64]
341 vmlal.s32 q12,d12,d0
369 vmlal.s32 q11,d12,d5
374 vmlal.s32 q15,d12,d6
380 vmlal.s32 q2,d12,d7
386 vmlal.s32 q0,d12,d
    [all...]
  /external/boringssl/src/crypto/test/asm/
trampoline-armv8.pl 73 stp d12, d13, [sp, #48]
89 ldp d12, d13, [$state], #16
134 stp d12, d13, [$state], #16
154 ldp d12, d13, [sp, #48]
  /external/apache-commons-math/src/main/java/org/apache/commons/math/ode/
ContinuousOutputModel.java 309 final double d12 = tMax - tMed; local
317 (dt1 * dt2 * d12) * iMin) /
318 (d12 * d23 * d13);
  /external/llvm/test/MC/ARM/
eh-directive-section-comdat.s 24 .vsave {d8, d9, d10, d11, d12}
25 vpush {d8, d9, d10, d11, d12}
30 vpop {d8, d9, d10, d11, d12}
fp-armv8.s 7 vcvtt.f16.f64 s5, d12
8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
17 vcvttgt.f16.f64 s5, d12
18 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xce]
94 vrintzge.f64 d3, d12
95 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xcc,0x3b,0xb6,0xae]
thumb-fp-armv8.s 7 vcvtt.f16.f64 s5, d12
8 @ CHECK: vcvtt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b]
19 vcvttgt.f16.f64 s5, d12
20 @ CHECK: vcvttgt.f16.f64 s5, d12 @ encoding: [0xf3,0xee,0xcc,0x2b]
97 vrintzge.f64 d3, d12
98 @ CHECK: vrintzge.f64 d3, d12 @ encoding: [0xb6,0xee,0xcc,0x3b]
  /external/skia/src/core/
SkMaskBlurFilter.cpp 673 // Instead of using memory we can introduce temporaries d01 and d12. The update step changes
677 // d01 = d12 + S[n+0r]*G[0]
678 // d12 = S[n+0r]*G[1]
683 // d01[0..7] = d12[0..7] + S[n+0r..n+0r+7]*G[0]
684 // d12[0..7] = S[n+0r..n+0r+7]*G[1]
689 Sk8h* d01, Sk8h* d12, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*, Sk8h*) {
694 *d01 = *d12 + v0;
695 *d12 = v1 + kHalf;
703 Sk8h* d01, Sk8h* d12, Sk8h* d23, Sk8h* d34, Sk8h*, Sk8h*, Sk8h*, Sk8h*) {
709 *d01 = *d12 + v1
    [all...]

Completed in 1452 milliseconds

1 2 34 5 6 7 8 91011