HomeSort by relevance Sort by last modified time
    Searched refs:d10 (Results 101 - 125 of 255) sorted by null

1 2 3 45 6 7 8 91011

  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neon-vst-encoding.s 58 @ CHECK: vst2.32 {d8, d9, d10, d11}, [r0:256]! @ encoding: [0xbd,0x83,0x00,0xf4]
66 vst3.i32 {d6, d8, d10}, [r5]
76 vst3.16 {d9, d10, d11}, [r7]!
87 @ CHECK: vst3.32 {d6, d8, d10}, [r5] @ encoding: [0x8f,0x65,0x05,0xf4]
95 @ CHECK: vst3.16 {d9, d10, d11}, [r7]! @ encoding: [0x4d,0x94,0x07,0xf4]
182 vst3.i32 {d6[1], d8[1], d10[1]}, [r5]
191 vst3.16 {d9[1], d10[1], d11[1]}, [r7]!
200 @ CHECK: vst3.32 {d6[1], d8[1], d10[1]}, [r5] @ encoding: [0xcf,0x6a,0x85,0xf4]
207 @ CHECK: vst3.16 {d9[1], d10[1], d11[1]}, [r7]! @ encoding: [0x4d,0x96,0x87,0xf4]
269 vst2.8 {d8, d10}, [r4
    [all...]
neon-minmax-encoding.s 6 vmax.u8 d10, d11, d12
38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3]
68 vmin.u8 d10, d11, d12
100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3]
neont2-minmax-encoding.s 8 vmax.u8 d10, d11, d12
40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6]
70 vmin.u8 d10, d11, d12
102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6]
neon-shiftaccum-encoding.s 6 vsra.s64 d11, d10, #64
24 vsra.s64 d10, #64
41 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x9a,0xb1,0x80,0xf2]
58 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x9a,0xa1,0x80,0xf2]
neont2-shiftaccum-encoding.s 8 vsra.s64 d11, d10, #64
26 vsra.s64 d10, #64
43 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x80,0xef,0x9a,0xb1]
60 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x80,0xef,0x9a,0xa1]
  /external/boringssl/src/crypto/test/
abi_test.h 121 CALLER_STATE_REGISTER(uint64_t, d10) \
162 CALLER_STATE_REGISTER(uint64_t, d10) \
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 168 vaddl.u8 q9, d0, d10
235 vaddl.u8 q11, d4, d10
330 vaddl.u8 q6, d0, d10
344 vaddl.u8 q9, d4, d10
370 vaddl.u8 q8, d8, d10
421 vaddl.u8 q6, d0, d10 @ temp = src[0_0] + src[5_0]
436 vaddl.u8 q9, d4, d10
461 vaddl.u8 q8, d8, d10
ih264_weighted_bi_pred_a9q.s 178 vld1.32 d10[0], [r1], r4 @load row 3 in source 2
179 vld1.32 d10[1], [r1], r4 @load row 4 in source 2
182 vmovl.u8 q5, d10 @converting rows 3,4 in source 2 to 16-bit
213 vld1.8 d10, [r1], r4 @load row 2 in source 2
222 vmovl.u8 q5, d10 @converting row 2 in source 2 to 16-bit
282 vmovl.u8 q13, d10 @converting row 2L in source 2 to 16-bit
335 vqmovun.s16 d10, q12 @saturating row 2L to unsigned 8-bit
494 vld1.32 d10[0], [r1], r4 @load row 1 in source 2
495 vld1.32 d10[1], [r1], r4 @load row 2 in source 2
498 vmovl.u8 q5, d10 @converting rows 1,2 in source 2 to 16-bi
    [all...]
ih264_inter_pred_filters_luma_vert_a9q.s 129 vaddl.u8 q7, d0, d10 @ temp = src[0_0] + src[5_0]
140 vaddl.u8 q9, d4, d10
152 vaddl.u8 q6, d8, d10
167 vaddl.u8 q6, d10, d0
184 vaddl.u8 q8, d10, d4 @ temp2 = src[1_0] + src[4_0]
ih264_resi_trans_quant_a9.s 145 vsub.s16 d10, d2, d4 @x2 = x5-x6
148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
312 vld2.u8 {d10, d11}, [r0], r3 @load first 8 pix src row 1
323 vsubl.u8 q0, d10, d11 @find residue row 1
340 vsub.s16 d10, d2, d4 @x2 = x5-x6
343 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
348 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
536 vmlal.u16 q7, d10, d30
664 vqmovn.u32 d10, q1
    [all...]
  /external/libhevc/common/arm/
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 305 vrshrn.i16 d10,q5,#5 @(i row)shift_res = vrshrn_n_u16(add_res, 5)
319 vst1.8 {d10},[r2]! @(i row)
371 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
383 vst1.8 {d10},[r0],r3 @(v)
449 vrshrn.i16 d10,q5,#5 @(i)shift_res = vrshrn_n_u16(add_res, 5)
473 vst1.8 {d10},[r2]! @(i)
524 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
536 vst1.8 {d10},[r0],r3 @(v)
ihevc_intra_pred_filters_luma_mode_19_to_25.s 308 vrshrn.i16 d10,q5,#5 @(i row)shift_res = vrshrn_n_u16(add_res, 5)
321 vst1.8 {d10},[r2]! @(i row)
370 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
382 vst1.8 {d10},[r0],r3 @(v)
446 vrshrn.i16 d10,q5,#5 @(i)shift_res = vrshrn_n_u16(add_res, 5)
469 vst1.8 {d10},[r2]! @(i)
518 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
530 vst1.8 {d10},[r0],r3 @(v)
617 vrshrn.i16 d10,q5,#5 @shift_res = vrshrn_n_u16(add_res, 5)
637 vst1.32 {d10[0]},[r2],r
    [all...]
ihevc_inter_pred_chroma_horz.s 212 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
297 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
349 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
428 vqrshrun.s16 d10,q5,#6 @right shift and saturating narrow result 2
430 vst1.8 {d10},[r6]! @store the result pu1_dst
523 vqrshrun.s16 d10,q5,#6 @(2)right shift and saturating narrow result 2
540 vst1.8 {d10},[r4],r3 @(2)store the result pu1_dst
596 vqrshrun.s16 d10,q5,#6 @(2)right shift and saturating narrow result 2
605 vst1.8 {d10},[r4],r3 @(2)store the result pu1_dst
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S 297 vqrshrun.s16 d10, q5, #6 @right shift and saturating narrow
322 vrhadd.u8 d10, d10, d0
352 vrhadd.u8 d10, d10, d20
421 vld1.u32 {d10[0]}, [r1]
422 vld1.u32 {d10[1]}, [r6]
423 vrhadd.u8 d8, d8, d10
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S 298 vqrshrun.s16 d10, q5, #6 @right shift and saturating narrow
323 vrhadd.u8 d10, d10, d0
353 vrhadd.u8 d10, d10, d20
422 vld1.u32 {d10[0]}, [r1]
423 vld1.u32 {d10[1]}, [r6]
424 vrhadd.u8 d8, d8, d10
loopfilter_16_neon.asm.S 62 vld1.u8 {d10}, [r8,:64], r1 @ q2
189 vld1.8 {d10}, [r0,:64], r1
219 vtrn.8 d10, d11
377 @ d10 q2
392 vabd.u8 d23, d10, d9 @ abs(q2 - q1)
393 vabd.u8 d24, d11, d10 @ abs(q3 - q2)
413 vabd.u8 d26, d8, d10 @ abs(q0 - q2)
536 vaddl.u8 q14, d7, d10
553 vaddl.u8 q14, d10, d11
569 vbif d23, d10, d16 @ t_oq2 |= q2 & ~(flat & mask
    [all...]
loopfilter_4_neon.asm.S 370 vld1.u8 {d10}, [r2], r1 @ 20 21 22 23 24 25 26 27
423 vst4.8 {d10[0], d11[0], d12[0], d13[0]}, [r0], r1
424 vst4.8 {d10[1], d11[1], d12[1], d13[1]}, [r0], r1
425 vst4.8 {d10[2], d11[2], d12[2], d13[2]}, [r0], r1
426 vst4.8 {d10[3], d11[3], d12[3], d13[3]}, [r0], r1
427 vst4.8 {d10[4], d11[4], d12[4], d13[4]}, [r0], r1
428 vst4.8 {d10[5], d11[5], d12[5], d13[5]}, [r0], r1
429 vst4.8 {d10[6], d11[6], d12[6], d13[6]}, [r0], r1
430 vst4.8 {d10[7], d11[7], d12[7], d13[7]}, [r0], r1
  /external/llvm/test/MC/ARM/
neon-minmax-encoding.s 6 vmax.u8 d10, d11, d12
38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3]
68 vmin.u8 d10, d11, d12
100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3]
neont2-minmax-encoding.s 8 vmax.u8 d10, d11, d12
40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6]
70 vmin.u8 d10, d11, d12
102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6]
neon-shiftaccum-encoding.s 6 vsra.s64 d11, d10, #64
24 vsra.s64 d10, #64
41 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x9a,0xb1,0x80,0xf2]
58 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x9a,0xa1,0x80,0xf2]
neont2-shiftaccum-encoding.s 8 vsra.s64 d11, d10, #64
26 vsra.s64 d10, #64
43 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x80,0xef,0x9a,0xb1]
60 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x80,0xef,0x9a,0xa1]
  /external/libmpeg2/common/arm/
impeg2_idct.s 396 @// Row 4 First Half - D10 - y4
458 vld1.16 d10, [r0]!
469 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
483 @// VLD1.16 D10,[r0]!
535 vqrshrn.s32 d10, q15, #idct_stg1_shift @// r4 = (a3 - b3 + rnd) >> 7(IDCT_STG1_SHIFT)
607 vqrshrn.s32 d10, q15, #idct_stg1_shift @// r4 = (a3 - b3 + rnd) >> 7(IDCT_STG1_SHIFT)
701 vtrn.32 d10, d11 @//r4,r5,r6,r7 third qudrant transposing continued.....
780 vmull.s16 q10, d10, d0[0] @// y0 * cos4(part of c0 and c1)
823 vqrshrn.s32 d10, q0, #idct_stg2_shift
883 vtrn.32 d10, d11 @//r4,r5,r6,r7 third qudrant transposing continued....
    [all...]
  /external/boringssl/ios-aarch64/crypto/test/
trampoline-armv8.S 39 stp d10, d11, [sp, #32]
55 ldp d10, d11, [x1], #16
100 stp d10, d11, [x1], #16
120 ldp d10, d11, [sp, #32]
449 fmov d10, xzr
  /external/libavc/encoder/arm/
ih264e_half_pel.s 268 vld1.8 {d8, d9, d10}, [r0], r3
311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0)
417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
518 vaddl.u8 q12, d10, d7 @// a0 + a5 (column3,row0)
540 vqrshrun.s16 d10, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
552 vst1.8 {d9, d10}, [r11], r12 @// store row1 - 1,1/2 grid
    [all...]
  /external/capstone/suite/MC/ARM/
neon-shift-encoding.s.cs 52 0x1a,0xb1,0xa1,0xf2 = vsra.s32 d11, d10, #31 package
68 0x1a,0xb1,0xa1,0xf3 = vsra.u32 d11, d10, #31 package
84 0x1a,0xb4,0xa1,0xf3 = vsri.32 d11, d10, #31 package
100 0x1a,0xb5,0xbf,0xf3 = vsli.32 d11, d10, #31 package
197 0x21,0x15,0x6a,0xf3 = vrshl.u32 d17, d17, d10
214 0x9a,0xa0,0x80,0xf3 = vshr.u64 d10, d10, #64 package
230 0x9a,0xa2,0x80,0xf3 = vrshr.u64 d10, d10, #64 package

Completed in 466 milliseconds

1 2 3 45 6 7 8 91011