/external/libhevc/common/arm/ |
ihevc_intra_pred_chroma_mode_3_to_9.s | 173 vdup.8 d26, r9 @most idx added to final idx values 198 vsub.s8 d8, d26, d8 @ref_main_idx (row 0) 322 vdup.8 d26, r9 329 vsub.s8 d8, d26, d11 @ref_main_idx 330 vmov d26,d10 367 vand d6, d29, d26 @fract values in d1/ idx values in d0 442 vdup.8 d26, r9
|
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 291 vdup.8 d26, r9 @least idx added to final idx values 313 vsub.s8 d8, d8, d26 @ref_main_idx (row 0) 429 vdup.8 d26, r9 436 vsub.s8 d8, d8, d26 @ref_main_idx 437 vmov d26,d10 471 vand d6, d29, d26 @fract values in d1/ idx values in d0 555 vdup.8 d26, r9 617 vdup.8 d26, r9 @least idx added to final idx values 639 vsub.s8 d8, d8, d26 @ref_main_idx
|
ihevc_intra_pred_luma_mode_3_to_9.s | 181 vdup.8 d26, r9 @least idx added to final idx values 202 vsub.s8 d8, d26, d8 @ref_main_idx (row 0) 318 vdup.8 d26, r9 325 vsub.s8 d8, d26, d11 @ref_main_idx 326 vmov d26,d10 362 vand d6, d29, d26 @fract values in d1/ idx values in d0 445 vdup.8 d26, r9 500 vdup.8 d26, r9 @least idx added to final idx values 521 vsub.s8 d8, d26, d8 @ref_main_idx
|
ihevc_inter_pred_luma_copy_w16out.s | 123 vld1.8 {d26},[r5],r2 @vld1_u8(pu1_src_tmp) 125 vmovl.u8 q13,d26 @vmovl_u8(vld1_u8(pu1_src_tmp) 127 vst1.64 {d26},[r10],r6 @vst1q_lane_s64(pi2_dst_tmp, temp, 0)
|
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 311 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 316 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 373 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 376 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 452 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 455 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 521 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 528 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
|
ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 284 vdup.8 d26, r9 @least idx added to final idx values 312 vsub.s8 d8, d8, d26 @ref_main_idx (row 0) 437 vdup.8 d26, r9 446 vsub.s8 d8, d8, d26 @ref_main_idx 447 vmov d26,d10 487 vand d6, d29, d26 @fract values in d1/ idx values in d0 576 vdup.8 d26, r9
|
ihevc_inter_pred_chroma_copy_w16out.s | 155 vld1.8 {d26},[r5],r2 @vld1_u8(pu1_src_tmp) 157 vmovl.u8 q13,d26 @vmovl_u8(vld1_u8(pu1_src_tmp) 159 vst1.64 {d26},[r10],r6 @vst1q_lane_s64(pi2_dst_tmp, temp, 0)
|
ihevc_intra_pred_luma_planar.s | 351 vmovn.i16 d26, q13 @(7) 363 vst1.s8 d26, [r2], r3 @(7)str 8 values 513 vmovn.i16 d26, q13 @(7) 514 vst1.s8 d26, [r2], r3 @(7)str 8 values
|
/external/libavc/common/arm/ |
ih264_inter_pred_filters_luma_vert_a9q.s | 225 vqrshrun.s16 d26, q4, #5 @ dst[0_0] = CLIP_U8( (temp + 16) >> 5) 232 vst1.u32 d26, [r1], r3 @ Vector store to dst[0_0] 275 vqrshrun.s16 d26, q4, #5 @ dst[0_0] = CLIP_U8( (temp + 16) >> 5) 282 vst1.u32 d26[0], [r1], r3 @ Vector store to dst[0_0]
|
ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s | 158 vqrshrun.s16 d26, q12, #5 199 vqrshrun.s16 d26, q8, #5 259 vqrshrun.s16 d26, q5, #5 286 vst1.32 d26, [r1], r3 313 vqrshrun.s16 d26, q5, #5 340 vst1.32 d26[0], [r1], r3
|
ih264_ihadamard_scaling_a9.s | 211 vld1.u16 d26[0], [r2] 213 vmull.u16 q15, d26, d27 @pu2_iscal_mat[0] * pu2_weigh_mat[0]
|
ih264_inter_pred_luma_vert_qpel_a9q.s | 240 vqrshrun.s16 d26, q4, #5 @ dst[0_0] = CLIP_U8( (temp + 16) >> 5) 250 vst1.u32 d26, [r1], r3 @ Vector store to dst[0_0] 295 vqrshrun.s16 d26, q4, #5 @ dst[0_0] = CLIP_U8( (temp + 16) >> 5) 305 vst1.u32 d26[0], [r1], r3 @ Vector store to dst[0_0]
|
/external/libmpeg2/common/arm/ |
ideint_cac_a9.s | 108 vld1.u8 d26, [r0], r2 187 vrhadd.u8 d3, d26, d27
|
impeg2_inter_pred.s | 329 vld1.8 {d25, d26}, [r1], r2 @load row3 338 vext.8 d1, d25, d26, #1 @Extract pixels (1-8) of row3 514 vrshrn.u16 d26, q13, #2 @row5 526 vst1.8 d26, [r14], r3 @store row5
|
/external/libavc/encoder/arm/ |
ime_distortion_metrics_a9q.s | 652 vadd.i16 d5, d26, d27 @ xy left 822 vld1.8 {d26, d27}, [r1], r3 @ load src Row 2 831 vabal.u8 q5, d26, d2 835 vabal.u8 q7, d26, d4 839 vabal.u8 q9, d26, d6 844 vabal.u8 q11, d26, d8 862 vld1.8 {d26, d27}, [r1], r3 @ load src Row 2 871 vabal.u8 q5, d26, d2 875 vabal.u8 q7, d26, d4 879 vabal.u8 q9, d26, d [all...] |
/external/libxaac/decoder/armv7/ |
ixheaacd_imdct_using_fft.s | 183 VLD2.32 {d24[0], d26[0]}, [r5] , r1 193 VLD2.32 {d24[1], d26[1]}, [r6] , r1 272 VUZP.16 d26, d27 314 VMULL.u16 q4, d26, d20 747 VMOV.32 d26[0], r3
|
ixheaacd_sbr_imdct_using_fft.s | 187 VLD2.32 {d24[0], d26[0]}, [r5] , r1 197 VLD2.32 {d24[1], d26[1]}, [r6] , r1 276 VUZP.16 d26, d27 318 VMULL.u16 q4, d26, d20 776 VMOV.S32 d26[0], r3
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
intrapred_neon_asm.asm | 519 vld1.8 {d26}, [r3]! 527 vmovl.u8 q3, d26 552 vqmovun.s16 d26, q14 574 vqmovun.s16 d26, q14 596 vqmovun.s16 d26, q14 619 vqmovun.s16 d26, q14
|
/external/boringssl/src/crypto/poly1305/ |
poly1305_arm_asm.S | 433 # asm 2: vst1.8 {<5z12=d26-<5z12=d27},[<ptr=r1,: 128] 434 vst1.8 {d26-d27},[r1,: 128] [all...] |
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
intrapred_neon_asm.asm.S | 548 vld1.8 {d26}, [r3]! 556 vmovl.u8 q3, d26 581 vqmovun.s16 d26, q14 603 vqmovun.s16 d26, q14 625 vqmovun.s16 d26, q14 648 vqmovun.s16 d26, q14
|
/external/capstone/suite/MC/ARM/ |
neon-shuffle-encoding.s.cs | 13 0x2a,0x16,0xb1,0xf2 = vext.16 d1, d1, d26, #3
|
/external/llvm/test/MC/ARM/ |
neon-shift-encoding.s | 110 vsra.s16 d26, d18, #15 128 @ CHECK: vsra.s16 d26, d18, #15 @ encoding: [0x32,0xa1,0xd1,0xf2] 146 vsra.u16 d26, d18, #15 164 @ CHECK: vsra.u16 d26, d18, #15 @ encoding: [0x32,0xa1,0xd1,0xf3] 182 vsri.16 d26, d18, #15 200 @ CHECK: vsri.16 d26, d18, #15 @ encoding: [0x32,0xa4,0xd1,0xf3] 218 vsli.16 d26, d18, #15 236 @ CHECK: vsli.16 d26, d18, #15 @ encoding: [0x32,0xa5,0xdf,0xf3]
|
neon-shuffle-encoding.s | 15 vext.16 d1, d26, #3 32 @ CHECK: vext.16 d1, d1, d26, #3 @ encoding: [0x2a,0x16,0xb1,0xf2]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
neon-shift-encoding.s | 110 vsra.s16 d26, d18, #15 128 @ CHECK: vsra.s16 d26, d18, #15 @ encoding: [0x32,0xa1,0xd1,0xf2] 146 vsra.u16 d26, d18, #15 164 @ CHECK: vsra.u16 d26, d18, #15 @ encoding: [0x32,0xa1,0xd1,0xf3] 182 vsri.16 d26, d18, #15 200 @ CHECK: vsri.16 d26, d18, #15 @ encoding: [0x32,0xa4,0xd1,0xf3] 218 vsli.16 d26, d18, #15 236 @ CHECK: vsli.16 d26, d18, #15 @ encoding: [0x32,0xa5,0xdf,0xf3]
|
/external/llvm/test/MC/AArch64/ |
arm64-elf-relocs.s | 201 ldr d26, [x25, #:lo12:sym] 203 // CHECK: ldr d26, [x25, :lo12:sym]
|