HomeSort by relevance Sort by last modified time
    Searched refs:VMOV (Results 1 - 25 of 41) sorted by null

1 2

  /external/libxaac/decoder/armv7/
ixheaacd_calcmaxspectralline.s 31 VMOV.S32 D6, #0x00000000
32 VMOV.S32 D7, #0x00000000
51 VMOV.32 R4, D6[0]
52 VMOV.32 R1, D6[1]
53 VMOV.32 R2, D7[0]
55 VMOV.32 R3, D7[1]
ixheaacd_post_twiddle_overlap.s 45 VMOV.S16 D18, #50
47 VMOV.S32 Q10, #0x00008000
242 VMOV Q13, Q15
243 VMOV Q12, Q14
292 VMOV Q0, Q11
293 VMOV Q7, Q12
333 VMOV Q13, Q14
341 VMOV.S32 D1, #0
350 VMOV.S32 D1, #0
369 VMOV.S32 D1, #
    [all...]
ixheaacd_post_twiddle.s 138 VMOV Q13, Q15
141 VMOV Q12, Q14
172 VMOV Q9, Q11
175 VMOV Q8, Q10
246 VMOV Q13, Q15
249 VMOV Q12, Q14
280 VMOV Q9, Q11
283 VMOV Q8, Q10
354 VMOV Q13, Q15
357 VMOV Q12, Q1
    [all...]
ixheaacd_esbr_cos_sin_mod_loop1.s 59 VMOV.32 D3, D0
85 VMOV.32 D3, D0
111 VMOV.32 D3, D0
137 VMOV.32 D3, D0
ixheaacd_tns_ar_filter_fixed.s 152 @VMOV R11,D6[0]
160 VMOV.32 D15[1], R2 @state[0]
192 @VMOV R11,D6[0]
200 VMOV.32 D15[1], R2 @state[0]
237 @VMOV R11,D6[0]
246 VMOV.32 D15[1], R2 @state[0]
284 @VMOV R11,D6[0]
293 VMOV.32 D15[1], R2 @state[0]
334 @VMOV R11,D6[0]
343 VMOV.32 D15[1], R2 @state[0
    [all...]
ixheaacd_esbr_qmfsyn64_winadd.s 48 VMOV Q13, Q15
49 VMOV Q14, Q15
141 VMOV Q13, Q15
142 VMOV Q14, Q15
225 VMOV Q13, Q15
227 VMOV Q14, Q15
321 VMOV Q13, Q15
323 VMOV Q14, Q15
ixheaacd_sbr_qmfsyn64_winadd.s 62 VMOV Q13, Q10
138 VMOV Q13, Q10
225 VMOV Q13, Q10
305 VMOV Q13, Q10
ixheaacd_imdct_using_fft.s 444 VMOV q5, q11
743 VMOV.32 d22[0], r3
747 VMOV.32 d26[0], r3
751 VMOV.32 d30[0], r3
758 VMOV.32 d24[0], r3
762 VMOV.32 d28[0], r3
766 VMOV.32 d10[0], r3
ixheaacd_sbr_imdct_using_fft.s 449 VMOV q5, q11
772 VMOV.S32 d22[0], r3
776 VMOV.S32 d26[0], r3
780 VMOV.S32 d30[0], r3
787 VMOV.S32 d24[0], r3
791 VMOV.S32 d28[0], r3
795 VMOV.S32 d10[0], r3
  /frameworks/av/media/libstagefright/codecs/amrwbenc/src/asm/ARMV7/
convolve_neon.s 46 VMOV.S32 Q10, #0
63 VMOV.S32 r5, D20[0]
84 VMOV.S32 Q10, #0
99 VMOV.S32 r5, D20[0]
122 VMOV.S32 Q10, #0
138 VMOV.S32 r5, D20[0]
148 VMOV.S32 Q10, #0
163 VMOV.S32 r5, D20[0]
Filt_6k_7k_neon.s 93 VMOV.S16 D7[3], r5 @set fir_6k_7K = 0
98 VMOV.S16 Q15, #0
189 VMOV.S16 D8,D9
191 VMOV.S16 D9,D10
193 VMOV.S16 D10,D11
194 VMOV.S16 D11,D12
196 VMOV.S16 D12,D13
198 VMOV.S16 D13,D14
199 VMOV.S16 D14,D15
201 VMOV.S16 D15,D1
    [all...]
syn_filt_neon.s 51 VMOV.S16 D8[0], r5
86 VMOV.S16 r9, D20[0]
Norm_Corr_neon.s 96 VMOV.S32 r9, D20[0]
97 VMOV.S32 r10, D20[1]
164 VMOV.S32 r6, D20[0]
165 VMOV.S32 r5, D22[0]
Syn_filt_32_neon.s 112 VMOV.S16 r10, D20[0]
116 VMOV.S32 r11, D24[0] @r11 --- L_tmp >>= 4
pred_lt4_1_neon.s 84 VMOV.S32 r12, D30[0]
  /external/libhevc/decoder/arm/
ihevcd_fmt_conv_420sp_to_rgba8888.s 118 VMOV.16 D0[0],R10 @//C1
121 VMOV.16 D0[1],R10 @//C2
124 VMOV.16 D0[2],R10 @//C3
127 VMOV.16 D0[3],R10 @//C4
176 @VMOV.I8 Q1,#128
230 VMOV.I8 D17,#0
240 VMOV.I8 D23,#0
281 VMOV.I8 D17,#0
291 VMOV.I8 D23,#0
313 @VMOV.I8 Q1,#12
    [all...]
  /external/libhevc/common/arm/
ihevc_sao_edge_offset_class0_chroma.s 93 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2)
97 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0)
101 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
107 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
137 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
138 VMOV.8 D8[1],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 1)
143 VMOV.16 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
149 VMOV.8 D9[6],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 14)
150 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
164 VMOV.16 D15[3],r11 @vsetq_lane_u16(pu1_src_left[ht - row], pu1_cur_row_tmp, 14,15
    [all...]
ihevc_sao_edge_offset_class3_chroma.s 285 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
286 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
287 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
295 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
311 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
315 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
319 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
320 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
330 VMOV.I8 Q9,#0
361 VMOV.I8 Q9,#0 @
    [all...]
ihevc_sao_edge_offset_class2_chroma.s 273 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
277 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
281 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
303 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
317 VMOV.8 D8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
320 VMOV.8 D8[1],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
324 VMOV.8 D9[6],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
325 VMOV.8 D9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
374 VMOV.I8 Q9,#0
378 VMOV.16 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd + 16], (…)
    [all...]
ihevc_sao_edge_offset_class0.s 88 VMOV.I8 Q1,#2 @const_2 = vdupq_n_s8(2)
92 VMOV.I16 Q2,#0 @const_min_clip = vdupq_n_s16(0)
96 VMOV.I16 Q3,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
102 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
132 VMOV.8 D8[0],r12 @vsetq_lane_s8(pu1_avail[0], au1_mask, 0)
137 VMOV.8 D8[0],r12 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
143 VMOV.8 D9[7],r12 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
157 VMOV.8 D15[7],r11 @vsetq_lane_u8(pu1_src_left[ht - row], pu1_cur_row_tmp, 15)
171 VMOV.8 D29[7],r11 @II Iteration vsetq_lane_u8(pu1_src_left[ht - row], pu1_cur_row_tmp, 15)
183 VMOV.8 D14[0],r11 @pu1_cur_row_tmp = vsetq_lane_u8(pu1_src_cpy[16], pu1_cur_row_t (…)
    [all...]
ihevc_sao_edge_offset_class2.s 190 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
194 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
198 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
212 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
230 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8((-1||pu1_avail[0]), au1_mask, 0)
234 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
274 VMOV.I8 Q9,#0
284 VMOV.8 D18[0],r5 @I pu1_next_row_tmp = vsetq_lane_u8(pu1_src_cpy[src_strd + 16], pu1_next_row_tmp, 0)
299 VMOV.8 D14[0],r4 @I sign_up = sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[0] - pu1_src_left_cpy[ht_tmp - 1 - row]), sign_up, 0)
326 VMOV Q6,Q8 @I pu1_cur_row = pu1_next_ro
    [all...]
ihevc_sao_edge_offset_class3.s 202 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
206 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
210 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
220 VMOV.S8 Q4,#0xFF @au1_mask = vdupq_n_s8(-1)
239 VMOV.8 d8[0],r8 @au1_mask = vsetq_lane_s8(-1, au1_mask, 0)
244 VMOV.8 d9[7],r8 @au1_mask = vsetq_lane_s8(pu1_avail[1], au1_mask, 15)
281 VMOV.I8 Q9,#0
298 VMOV.8 D19[7],r8 @I vsetq_lane_u8
314 VMOV.8 D15[7],r8 @I sign_up = vsetq_lane_s8(SIGN(pu1_src_cpy[15] - pu1_src_cpy[16 - src_strd]), sign_up, 15)
341 VMOV Q6,Q
    [all...]
ihevc_sao_edge_offset_class1.s 115 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
116 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
117 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
199 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
264 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row
339 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
ihevc_sao_edge_offset_class1_chroma.s 118 VMOV.I8 Q0,#2 @const_2 = vdupq_n_s8(2)
119 VMOV.I16 Q1,#0 @const_min_clip = vdupq_n_s16(0)
120 VMOV.I16 Q2,#255 @const_max_clip = vdupq_n_u16((1 << bit_depth) - 1)
206 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
281 VMOV Q5,Q9 @pu1_cur_row = pu1_next_row
369 VMOV Q5,Q15 @II pu1_cur_row = pu1_next_row
ihevc_resi_trans.s 123 VMOV.32 r0, d28[0] @ SAD stored in r0 for return
127 VMOV.I16 d2, #64 @ generate immediate constant in d2 for even row multiplication
130 VMOV.I16 d0, #83 @ generate immediate constant in d0 for odd row multiplication
133 VMOV.I16 d1, #36 @ generate immediate constant in d1 for odd row multiplication
147 VMOV.I32 d2, #64 @ generate immediate constant in d2 for even row multiplication
148 VMOV.I32 d0, #83 @ generate immediate constant in d0 for odd row multiplication
152 VMOV.I32 d1, #36 @ generate immediate constant in d1 for odd row multiplication
275 VMOV.I32 d6,#55 @ Constant used for multiplication
278 VMOV.I32 d7,#84 @ Constant used for multiplication
280 VMOV.I32 d4,#74 @ Constant used for multiplicatio
    [all...]

Completed in 486 milliseconds

1 2