HomeSort by relevance Sort by last modified time
    Searched refs:d10 (Results 76 - 100 of 245) sorted by null

1 2 34 5 6 7 8 910

  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
vfp1.s 200 fcmpzd d10
222 fsqrtdeq d8, d10
230 fmuldeq d7, d10, d9
231 fnmacdeq d8, d9, d10
255 fstmfddeq r12!, {d10}
vfp1_t2.s 203 fcmpzd d10
227 fsqrtdeq d8, d10
237 fmuldeq d7, d10, d9
238 fnmacdeq d8, d9, d10
266 fstmfddeq r12!, {d10}
vfp1.d 142 0+210 <[^>]*> eeb5ab40 (vcmp\.f64 d10, #0.0|fcmpzd d10)
155 0+244 <[^>]*> 0eb18bca (vsqrteq\.f64|fsqrtdeq) d8, d10
160 0+258 <[^>]*> 0e2a7b09 (vmuleq\.f64|fmuldeq) d7, d10, d9
161 0+25c <[^>]*> 0e098b4a (vmlseq\.f64|fnmacdeq) d8, d9, d10
178 0+2a0 <[^>]*> 0d2cab02 vstmdbeq ip!, {d10}
neon-psyn.s 52 el4 .dn d10.16[1]
  /external/valgrind/none/tests/arm/
vfp.c 1025 "vmov d10, r0, r1\n\t"
1028 "vstmia r1, {d10}\n\t"
1036 "vmov d10, r0, r1\n\t"
1039 "vstmdb r1!, {d10}\n\t"
1048 "d10", "d30", "d31"
1078 TESTINSN_core_to_scalar("vmov.8 d10[1], r5", d10, r5, f2u(NAN));
1089 TESTINSN_scalar_to_core("vmov.32 r4, d10[0]", r4, d10, i32, f2u(-INFINITY));
1100 TESTINSN_scalar_to_core("vmov.u16 r0, d10[1]", r0, d10, i32, 0x11223344)
    [all...]
vfpv4_fma.stdout.exp 5 vfma.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000
6 vfma.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000
13 vfma.f64 d10, d11, d2 :: Qd 0x41895139 0x98100000 Qm 0x40e7ce60 00000000 Qn 0x40910400 00000000
19 vfma.f64 d10, d11, d2 :: Qd 0x40e9f35f 0xb4bc6b7d Qm 0x407e7964 5a1cac08 Qn 0x405b4000 00000000
25 vfma.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 00000000
54 vfms.f64 d10, d13, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000
55 vfms.f64 d10, d13, d15 :: Qd 0xfff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000
62 vfms.f64 d10, d11, d2 :: Qd 0xc1895139 0x97f00000 Qm 0x40e7ce60 00000000 Qn 0x40910400 00000000
68 vfms.f64 d10, d11, d2 :: Qd 0xc0e9f35f 0x34bc6981 Qm 0x407e7964 5a1cac08 Qn 0x405b4000 00000000
74 vfms.f64 d10, d23, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x00000000 0000000
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_mb_neon.asm 50 vld1.u8 {d10}, [r8@64], r1 ; q2
145 vld1.8 {d10}, [r0@64], r1
175 vtrn.8 d10, d11
302 ; d10 q2
316 vabd.u8 d23, d10, d9 ; abs(q2 - q1)
317 vabd.u8 d24, d11, d10 ; abs(q3 - q2)
337 vabd.u8 d26, d8, d10 ; abs(q0 - q2)
460 vaddl.u8 q14, d7, d10
477 vaddl.u8 q14, d10, d11
493 vbif d23, d10, d16 ; t_oq2 |= q2 & ~(flat & mask
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 50 vld1.u8 {d10}, [r8@64], r1 ; q2
145 vld1.8 {d10}, [r0@64], r1
175 vtrn.8 d10, d11
302 ; d10 q2
316 vabd.u8 d23, d10, d9 ; abs(q2 - q1)
317 vabd.u8 d24, d11, d10 ; abs(q3 - q2)
337 vabd.u8 d26, d8, d10 ; abs(q0 - q2)
460 vaddl.u8 q14, d7, d10
477 vaddl.u8 q14, d10, d11
493 vbif d23, d10, d16 ; t_oq2 |= q2 & ~(flat & mask
    [all...]
  /external/libhevc/common/arm/
ihevc_intra_pred_chroma_mode_27_to_33.s 193 vrshrn.i16 d10,q5,#5 @(i row)shift_res = vrshrn_n_u16(add_res, 5)
207 vst1.8 {d10},[r2]! @(i row)
259 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
271 vst1.8 {d10},[r0],r3 @(v)
335 vrshrn.i16 d10,q5,#5 @(i)shift_res = vrshrn_n_u16(add_res, 5)
355 vst1.8 {d10},[r2]! @(i)
407 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
417 vst1.8 {d10},[r0],r3 @(v)
505 vrshrn.i16 d10,q5,#5 @shift_res = vrshrn_n_u16(add_res, 5)
525 vst1.8 {d10},[r2],r
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 304 vrshrn.i16 d10,q5,#5 @(i row)shift_res = vrshrn_n_u16(add_res, 5)
317 vst1.8 {d10},[r2]! @(i row)
366 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
378 vst1.8 {d10},[r0],r3 @(v)
442 vrshrn.i16 d10,q5,#5 @(i)shift_res = vrshrn_n_u16(add_res, 5)
465 vst1.8 {d10},[r2]! @(i)
514 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
526 vst1.8 {d10},[r0],r3 @(v)
613 vrshrn.i16 d10,q5,#5 @shift_res = vrshrn_n_u16(add_res, 5)
633 vst1.32 {d10[0]},[r2],r
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 196 vrshrn.i16 d10,q5,#5 @(i row)shift_res = vrshrn_n_u16(add_res, 5)
209 vst1.8 {d10},[r2]! @(i row)
261 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
273 vst1.8 {d10},[r0],r3 @(v)
336 vrshrn.i16 d10,q5,#5 @(i)shift_res = vrshrn_n_u16(add_res, 5)
356 vst1.8 {d10},[r2]! @(i)
407 vrshrn.i16 d10,q5,#5 @(v)shift_res = vrshrn_n_u16(add_res, 5)
417 vst1.8 {d10},[r0],r3 @(v)
504 vrshrn.i16 d10,q5,#5 @shift_res = vrshrn_n_u16(add_res, 5)
524 vst1.32 {d10[0]},[r2],r
    [all...]
ihevc_intra_pred_filters_chroma_mode_11_to_17.s 341 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 3)
353 vmull.u8 q9, d10, d7 @mul (row 3)
387 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 7)
392 vmull.u8 q9, d10, d7 @mul (row 7)
421 vmovn.s16 d10, q6
443 vmov d26,d10
447 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 7)
478 vmull.u8 q9, d10, d7 @mul (row 7)
518 vtbl.8 d10, {d0,d1,d2,d3}, d4 @load from ref_main_idx (row 3)
537 vmull.u8 q9, d10, d7 @mul (row 3
    [all...]
ihevc_intra_pred_filters_luma_mode_11_to_17.s 340 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 3)
352 vmull.u8 q9, d10, d7 @mul (row 3)
384 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 7)
389 vmull.u8 q9, d10, d7 @mul (row 7)
419 vmovn.s16 d10, q6
434 vmov d26,d10
438 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 7)
463 vmull.u8 q9, d10, d7 @mul (row 7)
500 vtbl.8 d10, {d0,d1}, d4 @load from ref_main_idx (row 3)
519 vmull.u8 q9, d10, d7 @mul (row 3
    [all...]
ihevc_intra_pred_chroma_horz.s 166 vdup.16 q1,d10[3]
170 vdup.16 q2,d10[2]
174 vdup.16 q3,d10[1]
179 vdup.16 q4,d10[0]
ihevc_weighted_pred_bi.s 223 vqmovun.s32 d10,q5 @vqmovun_s32(sto_res_tmp1) ii iteration
227 vmov.s32 d11,d10 @vcombine_u16(sto_res_tmp2, sto_res_tmp2) ii iteration
235 vqmovn.u16 d10,q5 @vqmovn_u16(sto_res_tmp3) ii iteration
237 vst1.s32 {d10[0]},[r10],r5 @store pu1_dst ii iteration
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 95 vrshrn.u16 d10, q1, #8
104 vaddw.u8 q1, d10
141 vrshrn.u16 d10, q1, #8
150 vaddw.u8 q9, d10
185 vrshrn.u16 d10, q1, #8
194 vaddw.u8 q1, d10
224 vrshrn.u16 d10, q1, #8
233 vaddw.u8 q1, d10
372 vrshrn.u16 d10, q1, #8
381 vaddw.u8 q1, d10
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
subtract_neon.asm 87 vsubl.u8 q12, d8, d10
133 vld1.8 {d10}, [r1], r3
145 vsubl.u8 q13, d10, d11
169 vld1.8 {d10}, [r2], r3
181 vsubl.u8 q13, d10, d11
  /external/libvpx/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 78 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10
84 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10
91 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 78 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10
84 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10
91 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10
  /external/llvm/test/MC/AArch64/
arm64-memory.s 287 ldp d10, d1, [x2]
295 ; CHECK: ldp d10, d1, [x2] ; encoding: [0x4a,0x04,0x40,0x6d]
301 stp d10, d1, [x2]
307 ; CHECK: stp d10, d1, [x2] ; encoding: [0x4a,0x04,0x00,0x6d]
319 ldp d10, d1, [x2, #16]!
326 ; CHECK: ldp d10, d1, [x2, #16]! ; encoding: [0x4a,0x04,0xc1,0x6d]
331 stp d10, d1, [x2, #16]!
336 ; CHECK: stp d10, d1, [x2, #16]! ; encoding: [0x4a,0x04,0x81,0x6d]
347 ldp d10, d1, [x2], #16
354 ; CHECK: ldp d10, d1, [x2], #16 ; encoding: [0x4a,0x04,0xc1,0x6c
    [all...]
  /external/llvm/test/MC/ARM/
neon-shift-encoding.s 111 vsra.s32 d11, d10, #31
129 @ CHECK: vsra.s32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf2]
147 vsra.u32 d11, d10, #31
165 @ CHECK: vsra.u32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf3]
183 vsri.32 d11, d10, #31
201 @ CHECK: vsri.32 d11, d10, #31 @ encoding: [0x1a,0xb4,0xa1,0xf3]
219 vsli.32 d11, d10, #31
237 @ CHECK: vsli.32 d11, d10, #31 @ encoding: [0x1a,0xb5,0xbf,0xf3]
439 vrshl.u32 d17, d10
456 @ CHECK: vrshl.u32 d17, d17, d10 @ encoding: [0x21,0x15,0x6a,0xf3
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S 43 VMLA.I16 d10,d2,d31
54 VSUB.I16 d10,d10,d8
142 VADDL.S16 q5,d10,d20
omxVCM4P10_PredictIntraChroma_8x8_s.S 171 VLD1.16 {d10},[r2]!
174 VMUL.I16 d11,d9,d10
175 VMUL.I16 d3,d16,d10
180 VLD1.16 {d10,d11},[r2]
  /system/core/debuggerd/arm64/
crashglue.S 45 fmov d10, 10.0
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 138 vld1.u32 {d8, d9, d10}, [r0], r2 @ Vector load from src[2_0]
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
216 vaddl.u8 q10, d10, d19 @ temp = src[1_0] + src[4_0]
272 vld1.u32 {d10, d11}, [r0], r2 @ Vector load from src[4_0]
277 vaddl.u8 q11, d4, d10 @ temp2 = src[1_0] + src4_0]
310 vaddl.u8 q10, d8, d10 @ temp1 = src[2_0] + src[3_0]
356 vld1.u32 {d10, d11}, [r0], r2 @ Vector load from src[4_0]
361 vaddl.u8 q11, d4, d10 @ temp2 = src[1_0] + src4_0]
396 vaddl.u8 q10, d8, d10 @ temp1 = src[2_0] + src[3_0]

Completed in 424 milliseconds

1 2 34 5 6 7 8 910