HomeSort by relevance Sort by last modified time
    Searched refs:d17 (Results 201 - 225 of 311) sorted by null

1 2 3 4 5 6 7 891011>>

  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 165 vld1.u32 d17, [r0], r2 @ Vector load from src[5_0]
177 vaddl.u8 q11, d12, d17
256 vaddl.u8 q13, d14, d17
359 vmlal.s16 q11, d17, d26
388 vmlal.s16 q11, d17, d26
395 vqrshrun.s32 d17, q11, #10
451 vmlal.s16 q11, d17, d26
478 vmlal.s16 q11, d17, d26
485 vqrshrun.s32 d17, q11, #10
ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s 254 vext.8 d17, d12, d13, #5
261 vaddl.u8 q5, d12, d17
273 vext.8 d17, d12, d13, #5
279 vaddl.u8 q5, d12, d17
308 vext.8 d17, d12, d13, #5
315 vaddl.u8 q5, d12, d17
327 vext.8 d17, d12, d13, #5
333 vaddl.u8 q5, d12, d17
  /external/libhevc/common/arm/
ihevc_inter_pred_filters_luma_vert_w16inp.s 174 vld1.16 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
194 vmlal.s16 q6,d17,d29
208 vmlal.s16 q7,d17,d28
250 vld1.16 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
277 vmlal.s16 q6,d17,d29
295 vmlal.s16 q7,d17,d28
337 vld1.16 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
345 vmlal.s16 q6,d17,d29
357 vmlal.s16 q7,d17,d28
ihevc_inter_pred_luma_vert_w16inp_w16out.s 184 vld1.16 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
204 vmlal.s16 q6,d17,d29
219 vmlal.s16 q7,d17,d28
264 vld1.16 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
292 vmlal.s16 q6,d17,d29
311 vmlal.s16 q7,d17,d28
356 vld1.16 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
364 vmlal.s16 q6,d17,d29
377 vmlal.s16 q7,d17,d28
ihevc_inter_pred_filters_luma_horz.s 216 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5]
239 vld1.u32 {d17},[r4],r11
244 vmlsl.u8 q5,d17,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@
335 vmlal.u8 q10,d17,d30
388 vmlal.u8 q11,d17,d30
491 vld1.u32 {d17},[r4],r11
494 vzip.32 d5,d17
501 @ vext.u8 d17,d12,d13,#5 @vector extract of src[0_5]
ihevc_intra_pred_chroma_mode_27_to_33.s 196 vld1.8 {d17},[r10] @(iii)ref_main_idx_1
208 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
255 vld1.8 {d17},[r10] @(vii)ref_main_idx_1
272 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
338 vld1.8 {d17},[r10] @(iii)ref_main_idx_1
352 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
406 vld1.8 {d17},[r10] @(vii)ref_main_idx_1
422 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
ihevc_intra_pred_chroma_mode_3_to_9.s 214 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 1)
222 vmlal.u8 q11, d17, d6 @mul (row 1)
257 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 5)
268 vmlal.u8 q11, d17, d6 @mul (row 5)
384 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 1)
396 vmlal.u8 q11, d17, d6 @mul (row 1)
435 vtbl.8 d17, {d0,d1,d2,d3}, d5 @load from ref_main_idx + 1 (row 5)
454 vmlal.u8 q11, d17, d6 @mul (row 5)
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 304 vld1.8 {d17},[r10] @(iii)ref_main_idx_1
316 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
360 vld1.8 {d17},[r10] @(vii)ref_main_idx_1
380 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
448 vld1.8 {d17},[r10] @(iii)ref_main_idx_1
462 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
520 vld1.8 {d17},[r10] @(vii)ref_main_idx_1
537 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
ihevc_intra_pred_luma_mode_27_to_33.s 198 vld1.8 {d17},[r10] @(iii)ref_main_idx_1
210 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
256 vld1.8 {d17},[r10] @(vii)ref_main_idx_1
273 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
338 vld1.8 {d17},[r10] @(iii)ref_main_idx_1
352 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract)
405 vld1.8 {d17},[r10] @(vii)ref_main_idx_1
421 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract)
ihevc_inter_pred_filters_luma_vert.s 177 vld1.u8 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
216 vmlsl.u8 q6,d17,d29
232 vmlal.u8 q7,d17,d28
258 vld1.u8 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
319 vmlsl.u8 q6,d17,d29
339 vmlal.u8 q7,d17,d28
378 vld1.u8 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)@
386 vmlsl.u8 q6,d17,d29
398 vmlal.u8 q7,d17,d28
631 vld1.u8 {d17},[r3],r2 @src_tmp2 = vld1_u8(pu1_src_tmp)
    [all...]
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
loopfilter_8_neon.asm.S 60 vld1.u8 {d17}, [r3,:64] @ q2
141 vld1.u8 {d17}, [r2], r1
147 vtrn.32 d5, d17
152 vtrn.16 d7, d17
158 vtrn.8 d17, d18
237 @ d17 q2
254 vabd.u8 d23, d17, d16 @ m5 = abs(q2 - q1)
255 vabd.u8 d24, d18, d17 @ m6 = abs(q3 - q2)
265 vabd.u8 d26, d7, d17 @ m8 = abs(q0 - q2)
405 vaddw.u8 q14, d17 @ r_op0 += q
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
mbloopfilter_neon.c 208 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
239 d17 = vld1_u8(v);
253 q8 = vcombine_u8(d16, d17);
295 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
328 d17 = vld1_u8(s2);
342 q8 = vcombine_u8(d16, d17);
459 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
492 d17 = vld1_u8(vs);
506 q8 = vcombine_u8(d16, d17);
vp8_loopfilter_neon.c 175 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
206 d17 = vld1_u8(v);
220 q8 = vcombine_u8(d16, d17);
323 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
360 d17 = vld1_u8(s);
371 q8 = vcombine_u8(d16, d17);
417 q4ResultH.val[3] = vget_high_u8(q8); // d17
435 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
473 d17 = vld1_u8(vs);
484 q8 = vcombine_u8(d16, d17);
    [all...]
  /external/llvm/test/MC/ARM/
arm_instructions.s 18 @ CHECK: vqdmull.s32 q8, d17, d16
20 vqdmull.s32 q8, d17, d16
pr22395.s 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
arm_instructions.s 18 @ CHECK: vqdmull.s32 q8, d17, d16
20 vqdmull.s32 q8, d17, d16
pr22395.s 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/vixl/examples/aarch64/
custom-disassembler.cc 128 __ Fadd(d30, d16, d17);
  /external/libmpeg2/common/arm/
impeg2_idct.s 408 @// Row 7 Second Half - D17 - y7
472 vld1.16 d17, [r9], r10
490 @// VLD1.16 D17,[r2],r3
648 vmlal.s16 q12, d17, d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of e0,e7)
649 vmlsl.s16 q13, d17, d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of e1,e6)
650 vmlal.s16 q14, d17, d0[3] @// b2 = y1 * sin3 - y3 * cos1 + y5 * sin1 + y7 * cos3(part of e2,e5)
651 vmlsl.s16 q15, d17, d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of e3,e4)
671 vqrshrn.s32 d17, q4, #idct_stg1_shift @// r7 = (a0 - b0 + rnd) >> 7(IDCT_STG1_SHIFT)
824 vqrshrn.s32 d17, q12, #idct_stg2_shift
886 vtrn.32 d16, d17 @//r4,r5,r6,r7 fourth qudrant transposing continued....
    [all...]
  /external/capstone/suite/MC/ARM/
arm_instructions.s.cs 3 0xa0,0x0d,0xe1,0xf2 = vqdmull.s32 q8, d17, d16
  /external/libhevc/decoder/arm/
ihevcd_itrans_recon_dc_chroma.s 100 vld2.8 {d16,d17},[r7]
135 vst2.8 {d16,d17},[r11]
  /external/boringssl/src/crypto/curve25519/asm/
x25519-asm-arm.S 297 vst1.8 {d16-d17},[r2,: 128]!
349 vmlal.s32 q10,d17,d22
354 vmlal.s32 q13,d17,d23
359 vmlal.s32 q1,d17,d0
364 vmlal.s32 q14,d17,d1
373 vmlal.s32 q15,d11,d17
387 vmlal.s32 q0,d13,d17
445 vtrn.32 d17,d3
450 vst1.8 d17,[r4,: 64]!
465 vtrn.32 d17,d
    [all...]
  /external/boringssl/src/crypto/poly1305/
poly1305_arm_asm.S 231 # asm 2: vld1.8 {>x01=d16->x01=d17},[<input_0=r0,: 128]!
232 vld1.8 {d16-d17},[r0,: 128]!
489 # asm 2: vmlal.u32 <r4=q15,<x01=d17,<z34=d10
490 vmlal.u32 q15,d17,d10
539 # asm 2: vmlal.u32 <r3=q4,<x01=d17,<z12=d5
540 vmlal.u32 q4,d17,d5
599 # asm 2: vmlal.u32 <r2=q13,<x01=d17,<z12=d4
600 vmlal.u32 q13,d17,d4
634 # asm 2: vmlal.u32 <r1=q14,<x01=d17,<z0=d6
635 vmlal.u32 q14,d17,d
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_vert_filter_type1_neon.asm 102 vld1.u8 {d17}, [r3], r2 ;src_tmp2 = vld1_u8(pu1_src_tmp);
150 vmlsl.u8 q6, d17, d29
167 vmlsl.u8 q7, d17, d28
194 vld1.u8 {d17}, [r3], r2 ;src_tmp2 = vld1_u8(pu1_src_tmp);
253 vmlsl.u8 q6, d17, d29
271 vmlsl.u8 q7, d17, d28
326 vld1.u8 {d17}, [r3], r2 ;src_tmp2 = vld1_u8(pu1_src_tmp);
339 vmlsl.u8 q6, d17, d29
351 vmlsl.u8 q7, d17, d28
vpx_convolve8_avg_vert_filter_type2_neon.asm 103 vld1.u8 {d17}, [r3], r2 ;src_tmp2 = vld1_u8(pu1_src_tmp);
151 vmlsl.u8 q6, d17, d29
168 vmlal.u8 q7, d17, d28
195 vld1.u8 {d17}, [r3], r2 ;src_tmp2 = vld1_u8(pu1_src_tmp);
254 vmlsl.u8 q6, d17, d29
271 vmlal.u8 q7, d17, d28
326 vld1.u8 {d17}, [r3], r2 ;src_tmp2 = vld1_u8(pu1_src_tmp);
339 vmlsl.u8 q6, d17, d29
351 vmlal.u8 q7, d17, d28

Completed in 981 milliseconds

1 2 3 4 5 6 7 891011>>