HomeSort by relevance Sort by last modified time
    Searched refs:d10 (Results 101 - 125 of 247) sorted by null

1 2 3 45 6 7 8 910

  /external/llvm/test/MC/ARM/
neon-vst-encoding.s 58 @ CHECK: vst2.32 {d8, d9, d10, d11}, [r0:256]! @ encoding: [0xbd,0x83,0x00,0xf4]
66 vst3.i32 {d6, d8, d10}, [r5]
76 vst3.16 {d9, d10, d11}, [r7]!
87 @ CHECK: vst3.32 {d6, d8, d10}, [r5] @ encoding: [0x8f,0x65,0x05,0xf4]
95 @ CHECK: vst3.16 {d9, d10, d11}, [r7]! @ encoding: [0x4d,0x94,0x07,0xf4]
182 vst3.i32 {d6[1], d8[1], d10[1]}, [r5]
191 vst3.16 {d9[1], d10[1], d11[1]}, [r7]!
200 @ CHECK: vst3.32 {d6[1], d8[1], d10[1]}, [r5] @ encoding: [0xcf,0x6a,0x85,0xf4]
207 @ CHECK: vst3.16 {d9[1], d10[1], d11[1]}, [r7]! @ encoding: [0x4d,0x96,0x87,0xf4]
269 vst2.8 {d8, d10}, [r4
    [all...]
neon-minmax-encoding.s 6 vmax.u8 d10, d11, d12
38 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0c,0xa6,0x0b,0xf3]
68 vmin.u8 d10, d11, d12
100 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x1c,0xa6,0x0b,0xf3]
neont2-minmax-encoding.s 8 vmax.u8 d10, d11, d12
40 @ CHECK: vmax.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x0c,0xa6]
70 vmin.u8 d10, d11, d12
102 @ CHECK: vmin.u8 d10, d11, d12 @ encoding: [0x0b,0xff,0x1c,0xa6]
neon-shiftaccum-encoding.s 6 vsra.s64 d11, d10, #64
24 vsra.s64 d10, #64
41 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x9a,0xb1,0x80,0xf2]
58 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x9a,0xa1,0x80,0xf2]
neont2-shiftaccum-encoding.s 8 vsra.s64 d11, d10, #64
26 vsra.s64 d10, #64
43 @ CHECK: vsra.s64 d11, d10, #64 @ encoding: [0x80,0xef,0x9a,0xb1]
60 @ CHECK: vsra.s64 d10, d10, #64 @ encoding: [0x80,0xef,0x9a,0xa1]
  /bionic/libc/arch-arm64/bionic/
setjmp.S 166 stp d10, d11, [x0, #(_JB_D10_D11 * 8)]
249 ldp d10, d11, [x0, #(_JB_D10_D11 * 8)]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 168 vaddl.u8 q9, d0, d10
235 vaddl.u8 q11, d4, d10
330 vaddl.u8 q6, d0, d10
344 vaddl.u8 q9, d4, d10
370 vaddl.u8 q8, d8, d10
421 vaddl.u8 q6, d0, d10 @ temp = src[0_0] + src[5_0]
436 vaddl.u8 q9, d4, d10
461 vaddl.u8 q8, d8, d10
ih264_weighted_bi_pred_a9q.s 178 vld1.32 d10[0], [r1], r4 @load row 3 in source 2
179 vld1.32 d10[1], [r1], r4 @load row 4 in source 2
182 vmovl.u8 q5, d10 @converting rows 3,4 in source 2 to 16-bit
213 vld1.8 d10, [r1], r4 @load row 2 in source 2
222 vmovl.u8 q5, d10 @converting row 2 in source 2 to 16-bit
282 vmovl.u8 q13, d10 @converting row 2L in source 2 to 16-bit
335 vqmovun.s16 d10, q12 @saturating row 2L to unsigned 8-bit
494 vld1.32 d10[0], [r1], r4 @load row 1 in source 2
495 vld1.32 d10[1], [r1], r4 @load row 2 in source 2
498 vmovl.u8 q5, d10 @converting rows 1,2 in source 2 to 16-bi
    [all...]
ih264_inter_pred_filters_luma_vert_a9q.s 129 vaddl.u8 q7, d0, d10 @ temp = src[0_0] + src[5_0]
140 vaddl.u8 q9, d4, d10
152 vaddl.u8 q6, d8, d10
167 vaddl.u8 q6, d10, d0
184 vaddl.u8 q8, d10, d4 @ temp2 = src[1_0] + src[4_0]
ih264_resi_trans_quant_a9.s 145 vsub.s16 d10, d2, d4 @x2 = x5-x6
148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
312 vld2.u8 {d10, d11}, [r0], r3 @load first 8 pix src row 1
323 vsubl.u8 q0, d10, d11 @find residue row 1
340 vsub.s16 d10, d2, d4 @x2 = x5-x6
343 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
348 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
536 vmlal.u16 q7, d10, d30
664 vqmovn.u32 d10, q1
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s 320 vaddl.s16 q9, d10, d8
350 vmlsl.s16 q9, d10, d24
549 vaddl.s16 q9, d10, d8
580 vmlsl.s16 q9, d10, d24
782 vaddl.s16 q9, d10, d8
812 vmlsl.s16 q9, d10, d24
866 vmla.u16 d8, d10, d22
870 vmls.u16 d8, d10, d23
880 vmla.u16 d10, d12, d22
884 vmls.u16 d10, d12, d2
    [all...]
ih264_iquant_itrans_recon_a9.s 189 vtrn.16 d10, d11
191 vtrn.32 d10, d12
193 vadd.s16 d14, d10, d12 @x0 = q0 + q1;
195 vsub.s16 d15, d10, d12 @x1 = q0 - q1;
364 vtrn.16 d10, d11
366 vtrn.32 d10, d12
368 vadd.s16 d14, d10, d12 @x0 = q0 + q1;
370 vsub.s16 d15, d10, d12 @x1 = q0 - q1;
569 vqrshrn.s32 d10, q6, #0x6 @ D10 = c[i] = ((q[i] + 32) >> 6) where i = 40..4
    [all...]
ih264_weighted_pred_a9q.s 172 vld1.8 d10, [r0], r2 @load row 4 in source
177 vmovl.u8 q5, d10 @converting row 4 to 16-bit
194 vqmovun.s16 d10, q5 @saturating row 4 to unsigned 8-bit
200 vst1.8 d10, [r1], r3 @store row 4 in destination
223 vmovl.u8 q12, d10 @converting row 4L to 16-bit
255 vqmovun.s16 d10, q12 @saturating row 4L to unsigned 8-bit
429 vmovl.u8 q11, d10 @converting row 3L to 16-bit
459 vqmovun.s16 d10, q11 @saturating row 3L to unsigned 8-bit
  /external/libhevc/common/arm/
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 301 vrshrn.i16 d10,q5,#5 @(i row)shift_res = vrshrn_n_u16(add_res, 5)
315 vst1.8 {d10},[r2]! @(i row)
367 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
379 vst1.8 {d10},[r0],r3 @(v)
445 vrshrn.i16 d10,q5,#5 @(i)shift_res = vrshrn_n_u16(add_res, 5)
469 vst1.8 {d10},[r2]! @(i)
520 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
532 vst1.8 {d10},[r0],r3 @(v)
ihevc_inter_pred_chroma_horz.s 207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
344 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
423 vqrshrun.s16 d10,q5,#6 @right shift and saturating narrow result 2
425 vst1.8 {d10},[r6]! @store the result pu1_dst
518 vqrshrun.s16 d10,q5,#6 @(2)right shift and saturating narrow result 2
535 vst1.8 {d10},[r4],r3 @(2)store the result pu1_dst
591 vqrshrun.s16 d10,q5,#6 @(2)right shift and saturating narrow result 2
600 vst1.8 {d10},[r4],r3 @(2)store the result pu1_dst
  /external/libmpeg2/common/arm/
impeg2_idct.s 392 @// Row 4 First Half - D10 - y4
452 vld1.16 d10, [r0]!
463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
477 @// VLD1.16 D10,[r0]!
529 vqrshrn.s32 d10, q15, #idct_stg1_shift @// r4 = (a3 - b3 + rnd) >> 7(IDCT_STG1_SHIFT)
601 vqrshrn.s32 d10, q15, #idct_stg1_shift @// r4 = (a3 - b3 + rnd) >> 7(IDCT_STG1_SHIFT)
695 vtrn.32 d10, d11 @//r4,r5,r6,r7 third qudrant transposing continued.....
774 vmull.s16 q10, d10, d0[0] @// y0 * cos4(part of c0 and c1)
817 vqrshrn.s32 d10, q0, #idct_stg2_shift
877 vtrn.32 d10, d11 @//r4,r5,r6,r7 third qudrant transposing continued....
    [all...]
impeg2_inter_pred.s 281 @// Registers Used : r12, r14, d0-d10, d12-d14, d16-d18, d20-d22
327 vld1.8 {d9, d10}, [r1], r2 @load row3
336 vext.8 d1, d9, d10, #1 @Extract pixels (1-8) of row3
448 vld1.8 {d10, d11}, [r14], r2 @load row7
462 vext.8 d11, d10, d11, #1 @Extract pixels (1-8) of row7
487 vaddl.u8 q5, d10, d11 @operate row7
690 vld1.8 {d10, d11}, [r5]! @row2 src2
749 vld1.8 {d10, d11}, [r5]! @row3 & 4 src2
  /external/libavc/encoder/arm/
ih264e_half_pel.s 268 vld1.8 {d8, d9, d10}, [r0], r3
311 vmlal.u8 q12, d10, d1 @// a0 + a5 + 20a2 (column3,row0)
417 vmlsl.u8 q12, d10, d31 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
518 vaddl.u8 q12, d10, d7 @// a0 + a5 (column3,row0)
540 vqrshrun.s16 d10, q12, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
552 vst1.8 {d9, d10}, [r11], r12 @// store row1 - 1,1/2 grid
    [all...]
  /external/valgrind/none/tests/arm/
vfp.stdout.exp 69 vmov.8 d10[1], r5 :: Dd 0x55555555 0x55550055 Dm 0x7fc00000
79 vmov.32 r4, d10[0] :: Rd 0xff800000 Qm (i32)0xff800000
90 vmov.u16 r0, d10[1] :: Rd 0x00001122 Qm (i32)0x11223344
106 vmov.s16 r0, d10[1] :: Rd 0x00001122 Qm (i32)0x11223344
121 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000
122 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000
129 vmla.f64 d10, d11, d2 :: Qd 0x41895139 0x98100000 Qm 0x40e7ce60 00000000 Qn 0x40910400 00000000
135 vmla.f64 d10, d11, d2 :: Qd 0x40e9f35f 0xb4bc6b7d Qm 0x407e7964 5a1cac08 Qn 0x405b4000 00000000
141 vmla.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000
170 vnmla.f64 d10, d13, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 0000000
    [all...]
  /external/llvm/test/tools/llvm-readobj/ARM/
unwind.s 223 @ CHECK: 0xC9 0x84 ; pop {d8, d9, d10, d11, d12}
267 @ CHECK: 0xD7 ; pop {d8, d9, d10, d11, d12, d13, d14, d15}
273 @ CHECK: 0xBA ; pop {d8, d9, d10}
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
vfp1_t2.d 142 0+210 <[^>]*> eeb5 ab40 (vcmp\.f64 d10, #0.0|fcmpzd d10)
157 0+248 <[^>]*> eeb1 8bca (vsqrteq\.f64|fsqrtdeq) d8, d10
164 0+260 <[^>]*> ee2a 7b09 (vmuleq\.f64|fmuldeq) d7, d10, d9
165 0+264 <[^>]*> ee09 8b4a (vmlseq\.f64|fnmacdeq) d8, d9, d10
186 0+2b0 <[^>]*> ed2c ab02 vstmdbeq ip!, {d10}
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/score/
branch_32-lt.d 217 0d10 0d360c36 0090160c 0090120c 07360090 .*
473 1d10 00000000 00000000 00000000 00000000 .*
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_16_neon.asm 52 vld1.u8 {d10}, [r8@64], r1 ; q2
176 vld1.8 {d10}, [r0@64], r1
206 vtrn.8 d10, d11
362 ; d10 q2
376 vabd.u8 d23, d10, d9 ; abs(q2 - q1)
377 vabd.u8 d24, d11, d10 ; abs(q3 - q2)
397 vabd.u8 d26, d8, d10 ; abs(q0 - q2)
520 vaddl.u8 q14, d7, d10
537 vaddl.u8 q14, d10, d11
553 vbif d23, d10, d16 ; t_oq2 |= q2 & ~(flat & mask
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
omxVCM4P10_InterpolateLuma_s.S 65 VLD1.8 {d10},[r0]
70 VST1.32 {d10[0]},[r2]
117 VRHADD.U8 d2,d2,d10
250 VRHADD.U8 d0,d0,d10
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
PrePostMDCT_v7.s 43 VLD2.I32 {d8, d9, d10, d11}, [r0] @ tr1 = *(buf0 + 0)@ ti2 = *(buf0 + 1)@
105 VLD2.I32 {d8, d9, d10, d11}, [r0] @ tr1 = *(zbuf1 + 0)@ ti1 = *(zbuf1 + 1)@

Completed in 3179 milliseconds

1 2 3 45 6 7 8 910