HomeSort by relevance Sort by last modified time
    Searched refs:d10 (Results 76 - 100 of 255) sorted by null

1 2 34 5 6 7 8 91011

  /external/libvpx/libvpx/vp8/encoder/x86/
fwalsh_sse2.asm 80 pmaddwd xmm0, [GLOBAL(c1)] ; d11 a11 d10 a10
86 pshufd xmm4, xmm0, 0xd8 ; d11 d10 a11 a10
93 punpckhqdq xmm4, xmm5 ; c11 c10 d11 d10
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm 152 vqrshrun.s16 d10, q5, #6 ;sto_res = vqmovun_s16(sto_res_tmp);
160 vrhadd.u8 d10, d10, d20
171 vst1.8 {d10}, [r14], r6 ;vst1_u8(pu1_dst_tmp,sto_res);
255 vqrshrun.s16 d10, q5, #6 ;sto_res = vqmovun_s16(sto_res_tmp);
260 vrhadd.u8 d10, d10, d20
276 vst1.8 {d10}, [r14], r6 ;vst1_u8(pu1_dst_tmp,sto_res);
341 vqrshrun.s16 d10, q5, #6 ;sto_res = vqmovun_s16(sto_res_tmp);
345 vrhadd.u8 d10, d10, d2
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm 153 vqrshrun.s16 d10, q5, #6 ;sto_res = vqmovun_s16(sto_res_tmp);
161 vrhadd.u8 d10, d10, d20
172 vst1.8 {d10}, [r14], r6 ;vst1_u8(pu1_dst_tmp,sto_res);
256 vqrshrun.s16 d10, q5, #6 ;sto_res = vqmovun_s16(sto_res_tmp);
260 vrhadd.u8 d10, d10, d20
276 vst1.8 {d10}, [r14], r6 ;vst1_u8(pu1_dst_tmp,sto_res);
341 vqrshrun.s16 d10, q5, #6 ;sto_res = vqmovun_s16(sto_res_tmp);
345 vrhadd.u8 d10, d10, d2
    [all...]
vpx_convolve8_avg_horiz_filter_type1_neon.asm 290 vqrshrun.s16 d10, q5, #6 ;right shift and saturating narrow
315 vrhadd.u8 d10, d10, d0
345 vrhadd.u8 d10, d10, d20
414 vld1.u32 {d10[0]}, [r1]
415 vld1.u32 {d10[1]}, [r6]
416 vrhadd.u8 d8, d8, d10
vpx_convolve8_avg_horiz_filter_type2_neon.asm 291 vqrshrun.s16 d10, q5, #6 ;right shift and saturating narrow
316 vrhadd.u8 d10, d10, d0
346 vrhadd.u8 d10, d10, d20
415 vld1.u32 {d10[0]}, [r1]
416 vld1.u32 {d10[1]}, [r6]
417 vrhadd.u8 d8, d8, d10
  /external/capstone/suite/MC/ARM/
neon-vst-encoding.s.cs 27 0xbd,0x83,0x00,0xf4 = vst2.32 {d8, d9, d10, d11}, [r0:256]!
33 0x8f,0x65,0x05,0xf4 = vst3.32 {d6, d8, d10}, [r5]
41 0x4d,0x94,0x07,0xf4 = vst3.16 {d9, d10, d11}, [r7]!
82 0xcf,0x6a,0x85,0xf4 = vst3.32 {d6[1], d8[1], d10[1]}, [r5]
89 0x4d,0x96,0x87,0xf4 = vst3.16 {d9[1], d10[1], d11[1]}, [r7]!
115 0x0f,0x89,0x04,0xf4 = vst2.8 {d8, d10}, [r4]
neont2-pairwise-encoding.s.cs 6 0xb0,0xff,0x0a,0x72 = vpaddl.s8 d7, d10
30 0x4d,0xef,0x9a,0x0a = vpmin.s8 d16, d29, d10
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm.S 159 vqrshrun.s16 d10, q5, #6 @sto_res = vqmovun_s16(sto_res_tmp);
167 vrhadd.u8 d10, d10, d20
178 vst1.8 {d10}, [r14], r6 @vst1_u8(pu1_dst_tmp,sto_res);
262 vqrshrun.s16 d10, q5, #6 @sto_res = vqmovun_s16(sto_res_tmp);
267 vrhadd.u8 d10, d10, d20
283 vst1.8 {d10}, [r14], r6 @vst1_u8(pu1_dst_tmp,sto_res);
348 vqrshrun.s16 d10, q5, #6 @sto_res = vqmovun_s16(sto_res_tmp);
352 vrhadd.u8 d10, d10, d2
    [all...]
vpx_convolve8_avg_vert_filter_type2_neon.asm.S 160 vqrshrun.s16 d10, q5, #6 @sto_res = vqmovun_s16(sto_res_tmp);
168 vrhadd.u8 d10, d10, d20
179 vst1.8 {d10}, [r14], r6 @vst1_u8(pu1_dst_tmp,sto_res);
263 vqrshrun.s16 d10, q5, #6 @sto_res = vqmovun_s16(sto_res_tmp);
267 vrhadd.u8 d10, d10, d20
283 vst1.8 {d10}, [r14], r6 @vst1_u8(pu1_dst_tmp,sto_res);
348 vqrshrun.s16 d10, q5, #6 @sto_res = vqmovun_s16(sto_res_tmp);
352 vrhadd.u8 d10, d10, d2
    [all...]
  /external/v8/src/compiler/
c-linkage.cc 57 (1 << d8.code()) | (1 << d9.code()) | (1 << d10.code()) | \
75 (1 << d8.code()) | (1 << d9.code()) | (1 << d10.code()) | \
124 d8.bit() | d9.bit() | d10.bit() | d11.bit() | d12.bit() | d13.bit() | \
  /device/linaro/bootloader/edk2/MdePkg/Library/BaseLib/AArch64/
SetJumpLongJump.S 30 REG_PAIR (d10, d11, 128); \
  /external/libhevc/common/arm/
ihevc_intra_pred_chroma_horz.s 169 vdup.16 q1,d10[3]
173 vdup.16 q2,d10[2]
177 vdup.16 q3,d10[1]
182 vdup.16 q4,d10[0]
ihevc_weighted_pred_bi.s 236 vqmovun.s32 d10,q5 @vqmovun_s32(sto_res_tmp1) ii iteration
240 vmov.s32 d11,d10 @vcombine_u16(sto_res_tmp2, sto_res_tmp2) ii iteration
248 vqmovn.u16 d10,q5 @vqmovn_u16(sto_res_tmp3) ii iteration
250 vst1.s32 {d10[0]},[r10],r5 @store pu1_dst ii iteration
ihevc_inter_pred_filters_luma_vert_w16inp.s 196 vqshrn.s32 d10, q5, #6
215 vqrshrun.s16 d10,q5,#6 @sto_res = vqmovun_s16(sto_res_tmp)@
235 vst1.32 {d10[0]},[r14],r6 @vst1_u8(pu1_dst_tmp,sto_res)@
280 vqshrn.s32 d10, q5, #6
303 vqrshrun.s16 d10,q5,#6 @sto_res = vqmovun_s16(sto_res_tmp)@
318 vst1.32 {d10[0]},[r14],r6
347 vqshrn.s32 d10, q5, #6
360 vqrshrun.s16 d10,q5,#6 @sto_res = vqmovun_s16(sto_res_tmp)@
366 vst1.32 {d10[0]},[r14],r6 @vst1_u8(pu1_dst_tmp,sto_res)@
ihevc_inter_pred_luma_vert_w16inp_w16out.s 226 vshrn.s32 d10, q5, #6
227 @vqrshrun.s16 d10,q5,#6 @sto_res = vqmovun_s16(sto_res_tmp)@
248 vst1.32 {d10},[r14],r6 @vst1_u8(pu1_dst_tmp,sto_res)@
317 vshrn.s32 d10, q5, #6
320 @vqrshrun.s16 d10,q5,#6 @sto_res = vqmovun_s16(sto_res_tmp)@
335 vst1.32 {d10},[r14],r6
380 vshrn.s32 d10, q5, #6
381 @vqrshrun.s16 d10,q5,#6 @sto_res = vqmovun_s16(sto_res_tmp)@
387 vst1.32 {d10},[r14],r6 @vst1_u8(pu1_dst_tmp,sto_res)@
  /external/llvm/test/MC/AArch64/
arm64-memory.s 287 ldp d10, d1, [x2]
295 ; CHECK: ldp d10, d1, [x2] ; encoding: [0x4a,0x04,0x40,0x6d]
301 stp d10, d1, [x2]
307 ; CHECK: stp d10, d1, [x2] ; encoding: [0x4a,0x04,0x00,0x6d]
319 ldp d10, d1, [x2, #16]!
326 ; CHECK: ldp d10, d1, [x2, #16]! ; encoding: [0x4a,0x04,0xc1,0x6d]
331 stp d10, d1, [x2, #16]!
336 ; CHECK: stp d10, d1, [x2, #16]! ; encoding: [0x4a,0x04,0x81,0x6d]
347 ldp d10, d1, [x2], #16
354 ; CHECK: ldp d10, d1, [x2], #16 ; encoding: [0x4a,0x04,0xc1,0x6c
    [all...]
  /external/llvm/test/MC/ARM/
neon-shift-encoding.s 111 vsra.s32 d11, d10, #31
129 @ CHECK: vsra.s32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf2]
147 vsra.u32 d11, d10, #31
165 @ CHECK: vsra.u32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf3]
183 vsri.32 d11, d10, #31
201 @ CHECK: vsri.32 d11, d10, #31 @ encoding: [0x1a,0xb4,0xa1,0xf3]
219 vsli.32 d11, d10, #31
237 @ CHECK: vsli.32 d11, d10, #31 @ encoding: [0x1a,0xb5,0xbf,0xf3]
439 vrshl.u32 d17, d10
456 @ CHECK: vrshl.u32 d17, d17, d10 @ encoding: [0x21,0x15,0x6a,0xf3
    [all...]
neon-vst-encoding.s 58 @ CHECK: vst2.32 {d8, d9, d10, d11}, [r0:256]! @ encoding: [0xbd,0x83,0x00,0xf4]
66 vst3.i32 {d6, d8, d10}, [r5]
76 vst3.16 {d9, d10, d11}, [r7]!
87 @ CHECK: vst3.32 {d6, d8, d10}, [r5] @ encoding: [0x8f,0x65,0x05,0xf4]
95 @ CHECK: vst3.16 {d9, d10, d11}, [r7]! @ encoding: [0x4d,0x94,0x07,0xf4]
182 vst3.i32 {d6[1], d8[1], d10[1]}, [r5]
191 vst3.16 {d9[1], d10[1], d11[1]}, [r7]!
200 @ CHECK: vst3.32 {d6[1], d8[1], d10[1]}, [r5] @ encoding: [0xcf,0x6a,0x85,0xf4]
207 @ CHECK: vst3.16 {d9[1], d10[1], d11[1]}, [r7]! @ encoding: [0x4d,0x96,0x87,0xf4]
269 vst2.8 {d8, d10}, [r4
    [all...]
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/AArch64/
arm64-memory.s 287 ldp d10, d1, [x2]
295 ; CHECK: ldp d10, d1, [x2] ; encoding: [0x4a,0x04,0x40,0x6d]
301 stp d10, d1, [x2]
307 ; CHECK: stp d10, d1, [x2] ; encoding: [0x4a,0x04,0x00,0x6d]
319 ldp d10, d1, [x2, #16]!
326 ; CHECK: ldp d10, d1, [x2, #16]! ; encoding: [0x4a,0x04,0xc1,0x6d]
331 stp d10, d1, [x2, #16]!
336 ; CHECK: stp d10, d1, [x2, #16]! ; encoding: [0x4a,0x04,0x81,0x6d]
347 ldp d10, d1, [x2], #16
354 ; CHECK: ldp d10, d1, [x2], #16 ; encoding: [0x4a,0x04,0xc1,0x6c
    [all...]
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neon-shift-encoding.s 111 vsra.s32 d11, d10, #31
129 @ CHECK: vsra.s32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf2]
147 vsra.u32 d11, d10, #31
165 @ CHECK: vsra.u32 d11, d10, #31 @ encoding: [0x1a,0xb1,0xa1,0xf3]
183 vsri.32 d11, d10, #31
201 @ CHECK: vsri.32 d11, d10, #31 @ encoding: [0x1a,0xb4,0xa1,0xf3]
219 vsli.32 d11, d10, #31
237 @ CHECK: vsli.32 d11, d10, #31 @ encoding: [0x1a,0xb5,0xbf,0xf3]
439 vrshl.u32 d17, d10
456 @ CHECK: vrshl.u32 d17, d17, d10 @ encoding: [0x21,0x15,0x6a,0xf3
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 138 vld1.u32 {d8, d9, d10}, [r0], r2 @ Vector load from src[2_0]
155 vaddl.u8 q11, d10, d13 @ temp3 = src[2_0] + src[3_0]
216 vaddl.u8 q10, d10, d19 @ temp = src[1_0] + src[4_0]
272 vld1.u32 {d10, d11}, [r0], r2 @ Vector load from src[4_0]
277 vaddl.u8 q11, d4, d10 @ temp2 = src[1_0] + src4_0]
310 vaddl.u8 q10, d8, d10 @ temp1 = src[2_0] + src[3_0]
356 vld1.u32 {d10, d11}, [r0], r2 @ Vector load from src[4_0]
361 vaddl.u8 q11, d4, d10 @ temp2 = src[1_0] + src4_0]
396 vaddl.u8 q10, d8, d10 @ temp1 = src[2_0] + src[3_0]
  /external/libvpx/libvpx/vp8/common/arm/neon/
mbloopfilter_neon.c 207 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
225 d10 = vld1_u8(u);
250 q5 = vcombine_u8(d10, d11);
294 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
314 d10 = vld1_u8(s1);
339 q5 = vcombine_u8(d10, d11);
458 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
478 d10 = vld1_u8(us);
503 q5 = vcombine_u8(d10, d11);
vp8_loopfilter_neon.c 174 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
192 d10 = vld1_u8(u);
217 q5 = vcombine_u8(d10, d11);
322 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
338 d10 = vld1_u8(s);
368 q5 = vcombine_u8(d10, d11);
410 q4ResultL.val[0] = vget_low_u8(q5); // d10
434 uint8x8_t d6, d7, d8, d9, d10, d11, d12, d13, d14; local
450 d10 = vld1_u8(us);
481 q5 = vcombine_u8(d10, d11)
    [all...]
  /external/libxaac/decoder/armv7/
ixheaacd_imdct_using_fft.s 110 VLD2.32 {d8[0], d10[0]}, [r5] , r1
121 VLD2.32 {d8[1], d10[1]}, [r6] , r1
500 VLD2.32 {d8[0], d10[0]}, [r5] , r1
511 VLD2.32 {d8[1], d10[1]}, [r6] , r1
673 VSHR.U16 d10, d10, #1
677 VMULL.S16 q11, d10, d0
680 VMULL.S16 q12, d10, d1
766 VMOV.32 d10[0], r3
ixheaacd_sbr_imdct_using_fft.s 114 VLD2.32 {d8[0], d10[0]}, [r5] , r1
125 VLD2.32 {d8[1], d10[1]}, [r6] , r1
509 VLD2.32 {d8[0], d10[0]}, [r5] , r1
520 VLD2.32 {d8[1], d10[1]}, [r6] , r1
702 VSHR.U16 d10, d10, #1
706 VMULL.S16 q11, d10, d0
709 VMULL.S16 q12, d10, d1
795 VMOV.S32 d10[0], r3

Completed in 666 milliseconds

1 2 34 5 6 7 8 91011