HomeSort by relevance Sort by last modified time
    Searched refs:VADD (Results 1 - 25 of 44) sorted by null

1 2

  /prebuilts/go/darwin-x86/src/crypto/sha256/
sha256block_arm64.s 38 VADD V16.S4, V4.S4, V9.S4 // V18(W0+K0...W3+K3)
42 VADD V17.S4, V5.S4, V9.S4 // V18(W4+K4...W7+K7)
47 VADD V18.S4, V6.S4, V9.S4 // V18(W8+K8...W11+K11)
52 VADD V19.S4, V7.S4, V9.S4 // V18(W12+K12...W15+K15)
57 VADD V20.S4, V4.S4, V9.S4 // V18(W16+K16...W19+K19)
62 VADD V21.S4, V5.S4, V9.S4 // V18(W20+K20...W23+K23)
67 VADD V22.S4, V6.S4, V9.S4 // V18(W24+K24...W27+K27)
72 VADD V23.S4, V7.S4, V9.S4 // V18(W28+K28...W31+K31)
77 VADD V24.S4, V4.S4, V9.S4 // V18(W32+K32...W35+K35)
82 VADD V25.S4, V5.S4, V9.S4 // V18(W36+K36...W39+K39
    [all...]
  /prebuilts/go/linux-x86/src/crypto/sha256/
sha256block_arm64.s 38 VADD V16.S4, V4.S4, V9.S4 // V18(W0+K0...W3+K3)
42 VADD V17.S4, V5.S4, V9.S4 // V18(W4+K4...W7+K7)
47 VADD V18.S4, V6.S4, V9.S4 // V18(W8+K8...W11+K11)
52 VADD V19.S4, V7.S4, V9.S4 // V18(W12+K12...W15+K15)
57 VADD V20.S4, V4.S4, V9.S4 // V18(W16+K16...W19+K19)
62 VADD V21.S4, V5.S4, V9.S4 // V18(W20+K20...W23+K23)
67 VADD V22.S4, V6.S4, V9.S4 // V18(W24+K24...W27+K27)
72 VADD V23.S4, V7.S4, V9.S4 // V18(W28+K28...W31+K31)
77 VADD V24.S4, V4.S4, V9.S4 // V18(W32+K32...W35+K35)
82 VADD V25.S4, V5.S4, V9.S4 // V18(W36+K36...W39+K39
    [all...]
  /prebuilts/go/darwin-x86/src/crypto/sha1/
sha1block_arm64.s 50 VADD V17.S4, V4.S4, V16.S4
55 VADD V17.S4, V5.S4, V16.S4
59 VADD V17.S4, V6.S4, V16.S4
64 VADD V17.S4, V7.S4, V16.S4
69 VADD V17.S4, V4.S4, V16.S4
75 VADD V18.S4, V5.S4, V16.S4
80 VADD V18.S4, V6.S4, V16.S4
85 VADD V18.S4, V7.S4, V16.S4
90 VADD V18.S4, V4.S4, V16.S4
95 VADD V18.S4, V5.S4, V16.S
    [all...]
  /prebuilts/go/linux-x86/src/crypto/sha1/
sha1block_arm64.s 50 VADD V17.S4, V4.S4, V16.S4
55 VADD V17.S4, V5.S4, V16.S4
59 VADD V17.S4, V6.S4, V16.S4
64 VADD V17.S4, V7.S4, V16.S4
69 VADD V17.S4, V4.S4, V16.S4
75 VADD V18.S4, V5.S4, V16.S4
80 VADD V18.S4, V6.S4, V16.S4
85 VADD V18.S4, V7.S4, V16.S4
90 VADD V18.S4, V4.S4, V16.S4
95 VADD V18.S4, V5.S4, V16.S
    [all...]
  /external/libxaac/decoder/armv7/
ia_xheaacd_mps_reoder_mulshift_acc.s 89 VADD.I64 Q12, Q12, Q13
90 VADD.I64 Q10, Q10, Q11
91 VADD.I64 Q12, Q12, Q10
92 VADD.I64 D24, D24, D25
93 VADD.I64 D28, D28, D24
133 VADD.I64 Q12, Q12, Q13
134 VADD.I64 Q10, Q10, Q11
135 VADD.I64 Q12, Q12, Q10
136 VADD.I64 D24, D24, D25
137 VADD.I64 D29, D29, D2
    [all...]
ixheaacd_imdct_using_fft.s 145 VADD.I32 q8, q0, q4
156 VADD.I32 q0, q1, q5
174 VADD.I32 q1, q2, q6
182 VADD.I32 q2, q3, q7
189 VADD.S32 q3, q9, q6
198 VADD.S32 q9, q4, q5
201 VADD.S32 q4, q8, q1
207 VADD.S32 q8, q0, q2
226 VADD.I32 q7, q14, q12
234 VADD.I32 q14, q15, q1
    [all...]
ixheaacd_sbr_imdct_using_fft.s 149 VADD.I32 q8, q0, q4
160 VADD.I32 q0, q1, q5
178 VADD.I32 q1, q2, q6
186 VADD.I32 q2, q3, q7
193 VADD.S32 q3, q9, q6
202 VADD.S32 q9, q4, q5
205 VADD.S32 q4, q8, q1
211 VADD.S32 q8, q0, q2
230 VADD.I32 q7, q14, q12
238 VADD.I32 q14, q15, q1
    [all...]
ixheaacd_dct3_32.s 65 VADD.I32 Q2, Q1, Q0
103 VADD.I32 Q2, Q1, Q0
158 VADD.I32 Q2, Q1, Q0
203 VADD.I32 Q2, Q1, Q0
287 VADD.I32 D14, D11, D28
295 VADD.I32 D10, D10, D30
298 VADD.I32 D10, D10, D14
303 VADD.I32 D11, D11, D12
315 VADD.I32 Q7, Q0, Q2
320 VADD.I32 Q8, Q1, Q
    [all...]
ixheaacd_dec_DCT2_64_asm.s 98 VADD.I32 Q10, Q3, Q1
102 VADD.I32 Q8, Q0, Q2
126 VADD.I32 Q13, Q8, Q15
128 VADD.I32 Q12, Q11, Q14
145 VADD.I32 Q10, Q3, Q1
149 VADD.I32 Q8, Q0, Q2
181 VADD.I32 Q13, Q8, Q15
182 VADD.I32 Q12, Q11, Q14
190 VADD.I32 Q10, Q3, Q1
194 VADD.I32 Q8, Q0, Q
    [all...]
ixheaacd_esbr_fwd_modulation.s 54 VADD.S32 Q6, Q0, Q2
55 VADD.S32 Q7, Q1, Q3
90 VADD.I64 Q0, Q2, Q5
ixheaacd_post_twiddle.s 131 VADD.I32 Q14, Q14, Q13
163 VADD.I32 Q11, Q11, Q8
188 VADD.I32 Q7, Q15, Q1
189 VADD.I32 Q13, Q14, Q0
202 VADD.I32 Q12, Q10, Q2
210 VADD.I32 Q8, Q11, Q8
238 VADD.I32 Q14, Q14, Q13
271 VADD.I32 Q11, Q11, Q8
296 VADD.I32 Q7, Q15, Q1
297 VADD.I32 Q13, Q14, Q
    [all...]
ixheaacd_fft32x32_ld.s 153 VADD.I32 q8, q0, q4 @b_data0_r=vhaddq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@
164 VADD.I32 q0, q1, q5 @b_data0_i=vhaddq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@
182 VADD.I32 q1, q2, q6 @b_data2_r=vhaddq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@
190 VADD.I32 q2, q3, q7 @b_data2_i=vhaddq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@
197 VADD.S32 q3, q9, q6 @c_data4_r=vaddq_s32(b_data4_r,b_data6_i)@
206 VADD.S32 q9, q4, q5 @c_data6_i=vaddq_s32(b_data4_i,b_data6_r)@
209 VADD.S32 q4, q8, q1 @c_data0_r=vaddq_s32(b_data0_r,b_data2_r)@
215 VADD.S32 q8, q0, q2 @c_data0_i=vaddq_s32(b_data0_i,b_data2_i)@
234 VADD.I32 q7, q14, q12 @b_data1_r=vhaddq_s32(a_data1_r,a_data5_r)@
242 VADD.I32 q14, q15, q13 @b_data1_i=vhaddq_s32(a_data1_i,a_data5_i)
    [all...]
ixheaacd_calc_post_twid.s 62 VADD.I32 D1, D10, D12
64 VADD.I32 D3, D11, D13
ixheaacd_post_twiddle_overlap.s 234 VADD.I32 Q15, Q15, Q14
265 VADD.I32 Q14, Q14, Q0
266 VADD.I32 Q15, Q15, Q1
279 VADD.I32 Q11, Q11, Q0
323 VADD.I32 Q7, Q7, Q13
324 VADD.I32 Q0, Q0, Q4
486 VADD.I32 Q15, Q15, Q14
521 VADD.I32 Q14, Q14, Q0
522 VADD.I32 Q15, Q15, Q1
534 VADD.I32 Q11, Q11, Q
    [all...]
ixheaacd_pre_twiddle_compute.s 139 VADD.I32 Q14, Q13, Q14
165 VADD.I32 Q10, Q10, Q9
208 VADD.I32 Q14, Q13, Q14
234 VADD.I32 Q10, Q10, Q9
272 VADD.I32 Q14, Q13, Q14
291 VADD.I32 Q10, Q10, Q9
352 VADD.I32 Q14, Q13, Q14
371 VADD.I32 Q10, Q10, Q9
ixheaacd_esbr_cos_sin_mod_loop1.s 54 vadd.I64 q0, q4, q3
80 VADD.I64 Q0, Q5, Q2
106 vadd.I64 q0, q4, q3
132 VADD.I64 Q0, Q5, Q2
ixheaacd_tns_ar_filter_fixed.s 149 VADD.I64 D6, D2, D3
189 VADD.I64 D6, D2, D3
233 VADD.I64 D6, D2, D3
280 VADD.I64 D6, D2, D3
330 VADD.I64 D6, D2, D3
436 VADD.I64 D6, D2, D3
478 VADD.I64 D6, D2, D3
525 VADD.I64 D6, D2, D3
  /external/libhevc/common/arm/
ihevc_sao_band_offset_luma.s 125 VADD.I8 D5,D1,D31 @band_table.val[0] = vadd_u8(band_table.val[0], band_pos)
128 VADD.I8 D6,D2,D31 @band_table.val[1] = vadd_u8(band_table.val[1], band_pos)
131 VADD.I8 D7,D3,D31 @band_table.val[2] = vadd_u8(band_table.val[2], band_pos)
134 VADD.I8 D8,D4,D31 @band_table.val[3] = vadd_u8(band_table.val[3], band_pos)
137 VADD.I8 D1,D5,D29 @band_table.val[0] = vadd_u8(band_table.val[0], vdup_n_u8(pi1_sao_offset[1]))
140 VADD.I8 D2,D6,D28 @band_table.val[1] = vadd_u8(band_table.val[1], vdup_n_u8(pi1_sao_offset[2]))
143 VADD.I8 D3,D7,D27 @band_table.val[2] = vadd_u8(band_table.val[2], vdup_n_u8(pi1_sao_offset[3]))
145 VADD.I8 D4,D8,D26 @band_table.val[3] = vadd_u8(band_table.val[3], vdup_n_u8(pi1_sao_offset[4]))
ihevc_sao_band_offset_chroma.s 133 VADD.I8 D5,D1,D31 @band_table_u.val[0] = vadd_u8(band_table_u.val[0], sao_band_pos_u)
136 VADD.I8 D6,D2,D31 @band_table_u.val[1] = vadd_u8(band_table_u.val[1], sao_band_pos_u)
139 VADD.I8 D7,D3,D31 @band_table_u.val[2] = vadd_u8(band_table_u.val[2], sao_band_pos_u)
142 VADD.I8 D8,D4,D31 @band_table_u.val[3] = vadd_u8(band_table_u.val[3], sao_band_pos_u)
151 VADD.I8 D1,D5,D29 @band_table_u.val[0] = vadd_u8(band_table_u.val[0], vdup_n_u8(pi1_sao_offset_u[1]))
154 VADD.I8 D2,D6,D28 @band_table_u.val[1] = vadd_u8(band_table_u.val[1], vdup_n_u8(pi1_sao_offset_u[2]))
157 VADD.I8 D3,D7,D27 @band_table_u.val[2] = vadd_u8(band_table_u.val[2], vdup_n_u8(pi1_sao_offset_u[3]))
160 VADD.I8 D4,D8,D26 @band_table_u.val[3] = vadd_u8(band_table_u.val[3], vdup_n_u8(pi1_sao_offset_u[4]))
213 VADD.I8 D13,D9,D30 @band_table_v.val[0] = vadd_u8(band_table_v.val[0], band_pos_v)
216 VADD.I8 D14,D10,D30 @band_table_v.val[1] = vadd_u8(band_table_v.val[1], band_pos_v
    [all...]
ihevc_sao_edge_offset_class1.s 168 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
171 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
180 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
185 VADD.I8 Q11,Q11,Q4 @II edge_idx = vaddq_s8(edge_idx, sign_down)
241 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
242 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
310 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
313 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
320 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
324 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down
    [all...]
ihevc_sao_edge_offset_class1_chroma.s 172 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
175 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
184 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
190 VADD.I8 Q11,Q11,Q14 @II edge_idx = vaddq_s8(edge_idx, sign_down)
253 VADD.I8 Q11,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
254 VADD.I8 Q11,Q11,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
327 VADD.I8 Q6,Q0,Q8 @edge_idx = vaddq_s8(const_2, sign_up)
330 VADD.I8 Q6,Q6,Q10 @edge_idx = vaddq_s8(edge_idx, sign_down)
339 VADD.I8 Q11,Q0,Q8 @II edge_idx = vaddq_s8(const_2, sign_up)
348 VADD.I8 Q11,Q11,Q10 @II edge_idx = vaddq_s8(edge_idx, sign_down
    [all...]
ihevc_sao_edge_offset_class0_chroma.s 211 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
213 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
226 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
230 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
373 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left)
376 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right)
389 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left)
391 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
  /frameworks/av/media/libstagefright/codecs/amrwbenc/src/asm/ARMV7/
convolve_neon.s 61 VADD.S32 D20, D20, D21
97 VADD.S32 D20, D20, D21
136 VADD.S32 D20, D20, D21
161 VADD.S32 D20, D20, D21
  /prebuilts/go/darwin-x86/src/bytes/
bytes_arm64.s 60 VADD V7, V8
  /prebuilts/go/linux-x86/src/bytes/
bytes_arm64.s 60 VADD V7, V8

Completed in 1793 milliseconds

1 2