/external/libxaac/decoder/armv7/ |
ixheaacd_calcmaxspectralline.s | 31 VMOV.S32 D6, #0x00000000 32 VMOV.S32 D7, #0x00000000 51 VMOV.32 R4, D6[0] 52 VMOV.32 R1, D6[1] 53 VMOV.32 R2, D7[0] 55 VMOV.32 R3, D7[1]
|
ixheaacd_post_twiddle_overlap.s | 45 VMOV.S16 D18, #50 47 VMOV.S32 Q10, #0x00008000 242 VMOV Q13, Q15 243 VMOV Q12, Q14 292 VMOV Q0, Q11 293 VMOV Q7, Q12 333 VMOV Q13, Q14 341 VMOV.S32 D1, #0 350 VMOV.S32 D1, #0 369 VMOV.S32 D1, # [all...] |
ixheaacd_post_twiddle.s | 138 VMOV Q13, Q15 141 VMOV Q12, Q14 172 VMOV Q9, Q11 175 VMOV Q8, Q10 246 VMOV Q13, Q15 249 VMOV Q12, Q14 280 VMOV Q9, Q11 283 VMOV Q8, Q10 354 VMOV Q13, Q15 357 VMOV Q12, Q1 [all...] |
ixheaacd_esbr_cos_sin_mod_loop1.s | 59 VMOV.32 D3, D0 85 VMOV.32 D3, D0 111 VMOV.32 D3, D0 137 VMOV.32 D3, D0
|
ixheaacd_tns_ar_filter_fixed.s | 152 @VMOV R11,D6[0] 160 VMOV.32 D15[1], R2 @state[0] 192 @VMOV R11,D6[0] 200 VMOV.32 D15[1], R2 @state[0] 237 @VMOV R11,D6[0] 246 VMOV.32 D15[1], R2 @state[0] 284 @VMOV R11,D6[0] 293 VMOV.32 D15[1], R2 @state[0] 334 @VMOV R11,D6[0] 343 VMOV.32 D15[1], R2 @state[0 [all...] |
ixheaacd_esbr_qmfsyn64_winadd.s | 48 VMOV Q13, Q15 49 VMOV Q14, Q15 141 VMOV Q13, Q15 142 VMOV Q14, Q15 225 VMOV Q13, Q15 227 VMOV Q14, Q15 321 VMOV Q13, Q15 323 VMOV Q14, Q15
|
ixheaacd_sbr_qmfsyn64_winadd.s | 62 VMOV Q13, Q10 138 VMOV Q13, Q10 225 VMOV Q13, Q10 305 VMOV Q13, Q10
|
ixheaacd_imdct_using_fft.s | 444 VMOV q5, q11 743 VMOV.32 d22[0], r3 747 VMOV.32 d26[0], r3 751 VMOV.32 d30[0], r3 758 VMOV.32 d24[0], r3 762 VMOV.32 d28[0], r3 766 VMOV.32 d10[0], r3
|
ixheaacd_sbr_imdct_using_fft.s | 449 VMOV q5, q11 772 VMOV.S32 d22[0], r3 776 VMOV.S32 d26[0], r3 780 VMOV.S32 d30[0], r3 787 VMOV.S32 d24[0], r3 791 VMOV.S32 d28[0], r3 795 VMOV.S32 d10[0], r3
|
/frameworks/av/media/libstagefright/codecs/amrwbenc/src/asm/ARMV7/ |
convolve_neon.s | 46 VMOV.S32 Q10, #0 63 VMOV.S32 r5, D20[0] 84 VMOV.S32 Q10, #0 99 VMOV.S32 r5, D20[0] 122 VMOV.S32 Q10, #0 138 VMOV.S32 r5, D20[0] 148 VMOV.S32 Q10, #0 163 VMOV.S32 r5, D20[0]
|
Filt_6k_7k_neon.s | 93 VMOV.S16 D7[3], r5 @set fir_6k_7K = 0 98 VMOV.S16 Q15, #0 189 VMOV.S16 D8,D9 191 VMOV.S16 D9,D10 193 VMOV.S16 D10,D11 194 VMOV.S16 D11,D12 196 VMOV.S16 D12,D13 198 VMOV.S16 D13,D14 199 VMOV.S16 D14,D15 201 VMOV.S16 D15,D1 [all...] |
syn_filt_neon.s | 51 VMOV.S16 D8[0], r5 86 VMOV.S16 r9, D20[0]
|
Norm_Corr_neon.s | 96 VMOV.S32 r9, D20[0] 97 VMOV.S32 r10, D20[1] 164 VMOV.S32 r6, D20[0] 165 VMOV.S32 r5, D22[0]
|
Syn_filt_32_neon.s | 112 VMOV.S16 r10, D20[0] 116 VMOV.S32 r11, D24[0] @r11 --- L_tmp >>= 4
|
pred_lt4_1_neon.s | 84 VMOV.S32 r12, D30[0]
|
/external/libhevc/decoder/arm/ |
ihevcd_fmt_conv_420sp_to_rgba8888.s | 118 VMOV.16 D0[0],R10 @//C1 121 VMOV.16 D0[1],R10 @//C2 124 VMOV.16 D0[2],R10 @//C3 127 VMOV.16 D0[3],R10 @//C4 176 @VMOV.I8 Q1,#128 230 VMOV.I8 D17,#0 240 VMOV.I8 D23,#0 281 VMOV.I8 D17,#0 291 VMOV.I8 D23,#0 313 @VMOV.I8 Q1,#12 [all...] |
/external/libhevc/common/arm/ |
ihevc_sao_edge_offset_class0_chroma.s | 93 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2) 97 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0) 101 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1) 143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14) 150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 164 VMOV.16 D15[3],r11 @vsetq_lane_u16(pu1_src_left[ht - row], pu1_cur_row_tmp, 14,15 [all...] |
ihevc_sao_edge_offset_class3_chroma.s | 285 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 286 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 287 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 330 VMOV.I8 Q9,#0 361 VMOV.I8 Q9,#0 @ [all...] |
ihevc_sao_edge_offset_class2_chroma.s | 273 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 277 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 281 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 374 VMOV.I8 Q9,#0 378 VMOV.16 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd + 16], (…) [all...] |
ihevc_sao_edge_offset_class0.s | 88 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2) 92 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0) 96 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 102 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 132 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0) 137 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 143 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 157 VMOV.8 D15[7],r11 @vsetq_lane_u8(pu1_src_left[ht - row], pu1_cur_row_tmp, 15) 171 VMOV.8 D29[7],r11 @II Iteration vsetq_lane_u8(pu1_src_left[ht - row], pu1_cur_row_tmp, 15) 183 VMOV.8 D14[0],r11 @pu1_cur_row_tmp = vsetq_lane_u8(pu1_src_cpy[16], pu1_cur_row_t (…) [all...] |
ihevc_sao_edge_offset_class2.s | 190 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 194 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 198 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 212 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 230 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0) 234 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 274 VMOV.I8 Q9,#0 284 VMOV.8 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd + 16], pu1_next_row_tmp, 0) 299 VMOV.8 D14[0],r4 @I sign_up = sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[0] - pu1_src_left_cpy[ht_tmp - 1 - row]), sign_up, 0) 326 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_ro [all...] |
ihevc_sao_edge_offset_class3.s | 202 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 206 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 210 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 220 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1) 239 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0) 244 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15) 281 VMOV.I8 Q9,#0 298 VMOV.8 D19[7],r8 @I vsetq_lane_u8 314 VMOV.8 D15[7],r8 @I sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[15] - pu1_src_cpy[16 - src_strd]), sign_up, 15) 341 VMOV Q6,Q [all...] |
ihevc_sao_edge_offset_class1.s | 115 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 116 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 117 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 199 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row 264 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row 339 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
|
ihevc_sao_edge_offset_class1_chroma.s | 118 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2) 119 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0) 120 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1) 206 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row 281 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row 369 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
|
ihevc_resi_trans.s | 123 VMOV.32 r0, d28[0] @ SAD stored in r0 for return 127 VMOV.I16 d2, #64 @ generate immediate constant in d2 for even row multiplication 130 VMOV.I16 d0, #83 @ generate immediate constant in d0 for odd row multiplication 133 VMOV.I16 d1, #36 @ generate immediate constant in d1 for odd row multiplication 147 VMOV.I32 d2, #64 @ generate immediate constant in d2 for even row multiplication 148 VMOV.I32 d0, #83 @ generate immediate constant in d0 for odd row multiplication 152 VMOV.I32 d1, #36 @ generate immediate constant in d1 for odd row multiplication 275 VMOV.I32 d6,#55 @ Constant used for multiplication 278 VMOV.I32 d7,#84 @ Constant used for multiplication 280 VMOV.I32 d4,#74 @ Constant used for multiplicatio [all...] |