HomeSort by relevance Sort by last modified time
    Searched refs:d26 (Results 51 - 75 of 145) sorted by null

1 23 4 5 6

  /external/libhevc/common/arm/
ihevc_deblk_luma_horz.s 126 vdup.32 d26,r12 @ 0 value
200 vqadd.u8 d30,d26,d1
202 vqsub.u8 d31,d26,d1
205 vaddl.u8 q3,d25,d26
279 vaddw.u8 q4,q3,d26
426 @ vdup.32 d26,r11 @ 0 value
438 vsubl.u8 q5,d26,d25
479 vmovl.u8 q3,d26
530 vaddl.u8 q7,d26,d28
546 vbsl d19,d26,d1
    [all...]
ihevc_inter_pred_chroma_vert.s 277 vqrshrun.s16 d26,q13,#6
292 vst1.8 {d26},[r7],r3 @stores the loaded value
343 vqrshrun.s16 d26,q13,#6
353 vst1.8 {d26},[r7],r3 @stores the loaded value
376 vqrshrun.s16 d26,q13,#6
380 vst1.8 {d26},[r7],r3 @stores the loaded value
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 230 vqshrn.s32 d26,q13,#6 @right shift
250 vst1.32 {d26},[r9],r3 @stores the loaded value
279 vqshrn.s32 d26,q13,#6 @right shift
298 vst1.32 {d26},[r9],r3 @stores the loaded value
321 vqshrn.s32 d26,q13,#6 @right shift
326 vst1.32 {d26},[r9],r3 @stores the loaded value
ihevc_deblk_luma_vert.s 256 vmin.u8 d26,d20,d21
259 vmax.u8 d20,d26,d25
285 vrshrn.i16 d26,q13,#3
291 vmin.u8 d16,d26,d30
295 vmax.u8 d26,d16,d31
407 vst1.8 {d26[0]},[r3]
410 vst1.8 {d26[1]},[r7],r1
413 vst1.8 {d26[2]},[r7],r1
415 vst1.8 {d26[3]},[r7]
ihevc_inter_pred_filters_luma_horz.s 147 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
227 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
240 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
309 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
329 vmlsl.u8 q10,d5,d26
359 vmlsl.u8 q5,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
384 vmlsl.u8 q11,d5,d26
409 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
517 vmlsl.u8 q4,d2,d26
ihevc_intra_pred_chroma_mode_27_to_33.s 200 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
205 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
266 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
269 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
345 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
348 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
414 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
418 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 308 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
313 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
374 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
377 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
455 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
458 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
527 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
534 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_intra_pred_luma_mode_27_to_33.s 202 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
207 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
267 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
270 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
345 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
348 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
413 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
417 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
ihevc_inter_pred_luma_horz_w16out.s 144 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)
260 vmlsl.u8 q4,d2,d26
318 vmlsl.u8 q4,d2,d26
391 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
404 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
472 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
492 vmlsl.u8 q10,d5,d26
517 vmlsl.u8 q5,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
541 vmlsl.u8 q11,d5,d26
567 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
loopfilter_8_neon.asm 251 vabd.u8 d26, d7, d17 ; m8 = abs(q0 - q2)
268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8)
269 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11)
273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5)
316 veor d26, d16, d22 ; qs1
322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1)
350 vqsub.s8 d26, d26, d29 ; oq1 = clamp(qs1 - filter)
361 veor d26, d26, d22 ; *f_oq1 = u^0x8
    [all...]
  /external/capstone/suite/MC/ARM/
neont2-pairwise-encoding.s.cs 33 0x4a,0xff,0x9d,0x3a = vpmin.u8 d19, d26, d13 package
43 0x0a,0xff,0x8b,0x9f = vpmax.f32 d9, d26, d11 package
  /external/libavc/common/arm/
ih264_inter_pred_filters_luma_horz_a9q.s 197 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0)
201 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
230 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0)
234 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
ih264_inter_pred_luma_horz_qpel_a9q.s 209 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0)
213 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
246 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0)
250 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
ih264_resi_trans_quant_a9.s 125 vld1.u8 d26, [r0], r3 @load first 8 pix src row 3
135 vsubl.u8 q2, d26, d27 @find residue row 3
175 vsub.s16 d26, d18, d19 @x7 = x0 - x1;
234 vsub.u8 d26, d25, d24 @I invert current nnz
236 vst1.u8 d26[0], [r9] @I Write nnz
320 vld2.u8 {d25, d26}, [r0], r3 @load first 8 pix src row 3
322 vld2.u8 {d26, d27}, [r1], r4 @load first 8 pix pred row 3
330 vsubl.u8 q2, d25, d26 @find residue row 3
370 vsub.s16 d26, d18, d19 @x7 = x0 - x1;
428 vsub.u8 d26, d25, d24 @I invert current nn
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 357 vmlal.s16 q15, d16, d26
359 vmlal.s16 q11, d17, d26
386 vmlal.s16 q15, d16, d26
388 vmlal.s16 q11, d17, d26
449 vmlal.s16 q15, d16, d26
451 vmlal.s16 q11, d17, d26
476 vmlal.s16 q15, d16, d26
478 vmlal.s16 q11, d17, d26
  /external/libmpeg2/common/arm/
icv_variance_a9.s 97 vaddl.u16 q13, d26, d27
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S 58 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
210 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
232 vmlal.u8 q10, d5, d26
258 vmlal.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2],
281 vmlal.u8 q11, d5, d26
319 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
411 vmlal.u8 q4, d2, d26
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S 58 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
124 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
143 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
211 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
233 vmlsl.u8 q10, d5, d26
259 vmlsl.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2],
282 vmlsl.u8 q11, d5, d26
320 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
412 vmlsl.u8 q4, d2, d26
vpx_convolve8_horiz_filter_type1_neon.asm.S 57 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
206 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
228 vmlal.u8 q10, d5, d26
252 vmlal.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2],
273 vmlal.u8 q11, d5, d26
307 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
391 vmlal.u8 q4, d2, d26
vpx_convolve8_horiz_filter_type2_neon.asm.S 58 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs,
123 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2],
142 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2],
206 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
228 vmlsl.u8 q10, d5, d26
252 vmlsl.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2],
273 vmlsl.u8 q11, d5, d26
307 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2],
391 vmlsl.u8 q4, d2, d26
loopfilter_8_neon.asm.S 265 vabd.u8 d26, d7, d17 @ m8 = abs(q0 - q2)
282 vmax.u8 d25, d25, d26 @ m4 = max(m7, m8)
283 vmax.u8 d26, d27, d28 @ m5 = max(m10, m11)
287 vmax.u8 d25, d25, d26 @ m4 = max(m4, m5)
330 veor d26, d16, d22 @ qs1
336 vqsub.s8 d29, d25, d26 @ filter = clamp(ps1-qs1)
364 vqsub.s8 d26, d26, d29 @ oq1 = clamp(qs1 - filter)
375 veor d26, d26, d22 @ *f_oq1 = u^0x8
    [all...]
  /external/boringssl/src/crypto/curve25519/asm/
x25519-asm-arm.S 108 vld1.8 {d26},[r2]
265 vld1.8 {d26-d27},[r6,: 128]!
519 vld1.8 {d26-d27},[r2,: 128]!
547 vmlal.s32 q8,d26,d4
568 vmlal.s32 q7,d26,d3
585 vmlal.s32 q4,d26,d2
591 vmlal.s32 q8,d26,d1
606 vmlal.s32 q7,d26,d0
613 vld1.8 {d26-d27},[r2,: 128]
616 vmlal.s32 q8,d25,d26
    [all...]
  /external/libjpeg-turbo/simd/arm/
jsimd_neon.S 225 ROW5L .req d26
241 * 5 | d26 | d27 ( q13 )
252 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]!
730 * 5 | d26 | d27 ( q13 )
741 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]!
804 vswp d26, d19
    [all...]
  /external/llvm/test/MC/ARM/
pr22395.s 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
pr22395.s 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}

Completed in 721 milliseconds

1 23 4 5 6