/external/libhevc/common/arm/ |
ihevc_deblk_luma_horz.s | 126 vdup.32 d26,r12 @ 0 value 200 vqadd.u8 d30,d26,d1 202 vqsub.u8 d31,d26,d1 205 vaddl.u8 q3,d25,d26 279 vaddw.u8 q4,q3,d26 426 @ vdup.32 d26,r11 @ 0 value 438 vsubl.u8 q5,d26,d25 479 vmovl.u8 q3,d26 530 vaddl.u8 q7,d26,d28 546 vbsl d19,d26,d1 [all...] |
ihevc_inter_pred_chroma_vert.s | 277 vqrshrun.s16 d26,q13,#6 292 vst1.8 {d26},[r7],r3 @stores the loaded value 343 vqrshrun.s16 d26,q13,#6 353 vst1.8 {d26},[r7],r3 @stores the loaded value 376 vqrshrun.s16 d26,q13,#6 380 vst1.8 {d26},[r7],r3 @stores the loaded value
|
ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 230 vqshrn.s32 d26,q13,#6 @right shift 250 vst1.32 {d26},[r9],r3 @stores the loaded value 279 vqshrn.s32 d26,q13,#6 @right shift 298 vst1.32 {d26},[r9],r3 @stores the loaded value 321 vqshrn.s32 d26,q13,#6 @right shift 326 vst1.32 {d26},[r9],r3 @stores the loaded value
|
ihevc_deblk_luma_vert.s | 256 vmin.u8 d26,d20,d21 259 vmax.u8 d20,d26,d25 285 vrshrn.i16 d26,q13,#3 291 vmin.u8 d16,d26,d30 295 vmax.u8 d26,d16,d31 407 vst1.8 {d26[0]},[r3] 410 vst1.8 {d26[1]},[r7],r1 413 vst1.8 {d26[2]},[r7],r1 415 vst1.8 {d26[3]},[r7]
|
ihevc_inter_pred_filters_luma_horz.s | 147 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 227 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 240 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 309 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 329 vmlsl.u8 q10,d5,d26 359 vmlsl.u8 q5,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 384 vmlsl.u8 q11,d5,d26 409 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 517 vmlsl.u8 q4,d2,d26
|
ihevc_intra_pred_chroma_mode_27_to_33.s | 200 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 205 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 266 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 269 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 345 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 348 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 414 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 418 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 308 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 313 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 374 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 377 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 455 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 458 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 527 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 534 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_luma_mode_27_to_33.s | 202 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 207 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 267 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 270 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 345 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 348 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 413 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 417 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_inter_pred_luma_horz_w16out.s | 144 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 260 vmlsl.u8 q4,d2,d26 318 vmlsl.u8 q4,d2,d26 391 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 404 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 472 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 492 vmlsl.u8 q10,d5,d26 517 vmlsl.u8 q5,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 541 vmlsl.u8 q11,d5,d26 567 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2) [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_8_neon.asm | 251 vabd.u8 d26, d7, d17 ; m8 = abs(q0 - q2) 268 vmax.u8 d25, d25, d26 ; m4 = max(m7, m8) 269 vmax.u8 d26, d27, d28 ; m5 = max(m10, m11) 273 vmax.u8 d25, d25, d26 ; m4 = max(m4, m5) 316 veor d26, d16, d22 ; qs1 322 vqsub.s8 d29, d25, d26 ; filter = clamp(ps1-qs1) 350 vqsub.s8 d26, d26, d29 ; oq1 = clamp(qs1 - filter) 361 veor d26, d26, d22 ; *f_oq1 = u^0x8 [all...] |
/external/capstone/suite/MC/ARM/ |
neont2-pairwise-encoding.s.cs | 33 0x4a,0xff,0x9d,0x3a = vpmin.u8 d19, d26, d13 package 43 0x0a,0xff,0x8b,0x9f = vpmax.f32 d9, d26, d11 package
|
/external/libavc/common/arm/ |
ih264_inter_pred_filters_luma_horz_a9q.s | 197 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0) 201 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 230 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0) 234 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
|
ih264_inter_pred_luma_horz_qpel_a9q.s | 209 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0) 213 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0) 246 vext.8 d26, d2, d3, #4 @//extract a[4] (column1,row0) 250 vmlsl.u8 q4, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
|
ih264_resi_trans_quant_a9.s | 125 vld1.u8 d26, [r0], r3 @load first 8 pix src row 3 135 vsubl.u8 q2, d26, d27 @find residue row 3 175 vsub.s16 d26, d18, d19 @x7 = x0 - x1; 234 vsub.u8 d26, d25, d24 @I invert current nnz 236 vst1.u8 d26[0], [r9] @I Write nnz 320 vld2.u8 {d25, d26}, [r0], r3 @load first 8 pix src row 3 322 vld2.u8 {d26, d27}, [r1], r4 @load first 8 pix pred row 3 330 vsubl.u8 q2, d25, d26 @find residue row 3 370 vsub.s16 d26, d18, d19 @x7 = x0 - x1; 428 vsub.u8 d26, d25, d24 @I invert current nn [all...] |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 357 vmlal.s16 q15, d16, d26 359 vmlal.s16 q11, d17, d26 386 vmlal.s16 q15, d16, d26 388 vmlal.s16 q11, d17, d26 449 vmlal.s16 q15, d16, d26 451 vmlal.s16 q11, d17, d26 476 vmlal.s16 q15, d16, d26 478 vmlal.s16 q11, d17, d26
|
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 97 vaddl.u16 q13, d26, d27
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S | 58 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], 210 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 232 vmlal.u8 q10, d5, d26 258 vmlal.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2], 281 vmlal.u8 q11, d5, d26 319 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 411 vmlal.u8 q4, d2, d26
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S | 58 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 124 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 143 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], 211 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 233 vmlsl.u8 q10, d5, d26 259 vmlsl.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2], 282 vmlsl.u8 q11, d5, d26 320 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 412 vmlsl.u8 q4, d2, d26
|
vpx_convolve8_horiz_filter_type1_neon.asm.S | 57 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 123 vmlal.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 142 vmlal.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], 206 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 228 vmlal.u8 q10, d5, d26 252 vmlal.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2], 273 vmlal.u8 q11, d5, d26 307 vmlal.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 391 vmlal.u8 q4, d2, d26
|
vpx_convolve8_horiz_filter_type2_neon.asm.S | 58 vdup.8 d26, d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 123 vmlsl.u8 q4, d2, d26 @mul_res = vmlsl_u8(src[0_2], 142 vmlsl.u8 q5, d14, d26 @mul_res = vmlsl_u8(src[0_2], 206 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 228 vmlsl.u8 q10, d5, d26 252 vmlsl.u8 q5, d4, d26 @mul_res = vmlsl_u8(src[0_2], 273 vmlsl.u8 q11, d5, d26 307 vmlsl.u8 q4, d4, d26 @mul_res = vmlsl_u8(src[0_2], 391 vmlsl.u8 q4, d2, d26
|
loopfilter_8_neon.asm.S | 265 vabd.u8 d26, d7, d17 @ m8 = abs(q0 - q2) 282 vmax.u8 d25, d25, d26 @ m4 = max(m7, m8) 283 vmax.u8 d26, d27, d28 @ m5 = max(m10, m11) 287 vmax.u8 d25, d25, d26 @ m4 = max(m4, m5) 330 veor d26, d16, d22 @ qs1 336 vqsub.s8 d29, d25, d26 @ filter = clamp(ps1-qs1) 364 vqsub.s8 d26, d26, d29 @ oq1 = clamp(qs1 - filter) 375 veor d26, d26, d22 @ *f_oq1 = u^0x8 [all...] |
/external/boringssl/src/crypto/curve25519/asm/ |
x25519-asm-arm.S | 108 vld1.8 {d26},[r2] 265 vld1.8 {d26-d27},[r6,: 128]! 519 vld1.8 {d26-d27},[r2,: 128]! 547 vmlal.s32 q8,d26,d4 568 vmlal.s32 q7,d26,d3 585 vmlal.s32 q4,d26,d2 591 vmlal.s32 q8,d26,d1 606 vmlal.s32 q7,d26,d0 613 vld1.8 {d26-d27},[r2,: 128] 616 vmlal.s32 q8,d25,d26 [all...] |
/external/libjpeg-turbo/simd/arm/ |
jsimd_neon.S | 225 ROW5L .req d26 241 * 5 | d26 | d27 ( q13 ) 252 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]! 730 * 5 | d26 | d27 ( q13 ) 741 vld1.16 {d24, d25, d26, d27}, [COEF_BLOCK, :128]! 804 vswp d26, d19 [all...] |
/external/llvm/test/MC/ARM/ |
pr22395.s | 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
pr22395.s | 11 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|