HomeSort by relevance Sort by last modified time
    Searched refs:vmlsl (Results 1 - 25 of 42) sorted by null

1 2

  /external/arm-neon-tests/
ref_vmlsl.c 26 #define INSN_NAME vmlsl
27 #define TEST_MSG "VMLSL"
  /external/libhevc/common/arm/
ihevc_itrans_recon_32x32.s 260 vmlsl.s16 q15,d14,d7[1]
265 vmlsl.s16 q14,d15,d7[1]
266 vmlsl.s16 q15,d15,d3[3]
276 vmlsl.s16 q9,d13,d5[2]
289 vmlsl.s16 q14,d8,d4[3] @// y1 * sin3(part of b2)
290 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3)
293 vmlsl.s16 q13,d9,d7[3] @// y1 * cos3 - y3 * sin1(part of b1)
294 vmlsl.s16 q14,d9,d2[1] @// y1 * sin3 - y3 * cos1(part of b2)
295 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
308 vmlsl.s16 q8,d10,d6[0
    [all...]
ihevc_itrans_recon_16x16.s 251 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3)
272 vmlsl.s16 q14,d8,d1[3]
273 vmlsl.s16 q15,d8,d0[3]
277 vmlsl.s16 q13,d9,d2[3]
278 vmlsl.s16 q14,d9,d0[3]
288 vmlsl.s16 q7,d5,d3[2]
289 vmlsl.s16 q8,d4,d3[0]
290 vmlsl.s16 q8,d5,d0[2]
291 vmlsl.s16 q9,d4,d1[0]
292 vmlsl.s16 q9,d5,d2[2
    [all...]
ihevc_inter_pred_chroma_vert.s 151 vmlsl.u8 q3,d5,d0 @vmlsl_u8(mul_res1, vreinterpret_u8_u32(src_tmp1), coeffabs_0)
155 vmlsl.u8 q3,d8,d3
156 vmlsl.u8 q2,d9,d0
160 vmlsl.u8 q2,d10,d3
197 vmlsl.u8 q2,d6,d0
202 vmlsl.u8 q2,d7,d3
240 vmlsl.u8 q15,d4,d0
243 vmlsl.u8 q15,d7,d3
248 vmlsl.u8 q14,d5,d0
252 vmlsl.u8 q14,d8,d
    [all...]
ihevc_inter_pred_chroma_vert_w16out.s 152 vmlsl.u8 q3,d5,d0 @vmlsl_u8(mul_res1, vreinterpret_u8_u32(src_tmp1), coeffabs_0)
157 vmlsl.u8 q3,d8,d3
158 vmlsl.u8 q2,d9,d0
160 vmlsl.u8 q2,d10,d3
196 vmlsl.u8 q2,d6,d0
201 vmlsl.u8 q2,d7,d3
239 vmlsl.u8 q15,d4,d0
242 vmlsl.u8 q15,d7,d3
247 vmlsl.u8 q14,d5,d0
251 vmlsl.u8 q14,d8,d
    [all...]
ihevc_inter_pred_filters_luma_vert.s 166 vmlsl.u8 q4,d0,d22 @mul_res1 = vmlsl_u8(mul_res1, src_tmp1, coeffabs_0)@
168 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
174 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@
178 vmlsl.u8 q4,d7,d29 @mul_res1 = vmlsl_u8(mul_res1, src_tmp4, coeffabs_7)@
185 vmlsl.u8 q5,d1,d22 @mul_res2 = vmlsl_u8(mul_res2, src_tmp2, coeffabs_0)@
188 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@
201 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@
209 vmlsl.u8 q6,d2,d22
211 vmlsl.u8 q6,d4,d2
    [all...]
ihevc_itrans_recon_8x8.s 208 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
210 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
212 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3)
241 vmlsl.s16 q13,d14,d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
245 vmlsl.s16 q9,d11,d0[2] @// d1 = y2 * sin2 - y6 * cos2(part of a0 and a1)
252 vmlsl.s16 q13,d15,d1[1] @// b1 = y1 * cos3 - y3 * sin1 - y5 * cos1 - y7 * sin3(part of r1,r6)
254 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4)
314 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
315 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
316 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3
    [all...]
ihevc_inter_pred_chroma_horz.s 177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
185 vmlsl.u8 q14,d1,d24
190 vmlsl.u8 q14,d7,d27
217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
246 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
253 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
264 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)
    [all...]
ihevc_inter_pred_filters_luma_horz.s 225 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
227 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
231 vmlsl.u8 q4,d5,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@
235 vmlsl.u8 q4,d7,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@
240 vmlsl.u8 q5,d14,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
244 vmlsl.u8 q5,d17,d29 @mul_res = vmlsl_u8(src[0_5], coeffabs_5)@
247 vmlsl.u8 q5,d19,d31 @mul_res = vmlsl_u8(src[0_7], coeffabs_7)@
249 vmlsl.u8 q5,d12,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
307 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
309 vmlsl.u8 q4,d4,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)
    [all...]
ihevc_itrans_recon_4x4_ttype1.s 157 vmlsl.s16 q4,d2,d4[0] @74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2]
158 vmlsl.s16 q4,d3,d4[3] @pi2_out[1] = 74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2] - 84 * pi2_src[3])
161 vmlsl.s16 q5,d2,d4[2] @ 74 * pi2_src[0] - 74 * pi2_src[2]
165 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1]
166 vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
196 vmlsl.s16 q4,d16,d4[0] @74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2]
197 vmlsl.s16 q4,d17,d4[3] @pi2_out[1] = 74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2] - 84 * pi2_src[3])
200 vmlsl.s16 q5,d16,d4[2] @ 74 * pi2_src[0] - 74 * pi2_src[2]
205 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
206 vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3
    [all...]
ihevc_inter_pred_chroma_horz_w16out.s 196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
205 vmlsl.u8 q14,d1,d24
210 vmlsl.u8 q14,d7,d27
236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
262 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@
269 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
275 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)
    [all...]
ihevc_inter_pred_luma_horz_w16out.s 259 vmlsl.u8 q4,d0,d24
260 vmlsl.u8 q4,d2,d26
263 vmlsl.u8 q4,d5,d29
265 vmlsl.u8 q4,d7,d31
316 vmlsl.u8 q4,d0,d24
318 vmlsl.u8 q4,d2,d26
324 vmlsl.u8 q4,d5,d29
327 vmlsl.u8 q4,d7,d31 @store the i iteration result which is in upper part of the register
389 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
391 vmlsl.u8 q4,d2,d26 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)
    [all...]
  /external/libavc/encoder/arm/
ih264e_half_pel.s 145 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
147 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
149 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row0)
151 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1)
158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
162 vmlsl.u8 q6, d29, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row0)
164 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1
    [all...]
  /external/llvm/test/MC/ARM/
neon-mul-accum-encoding.s 75 vmlsl.s8 q8, d19, d18
76 vmlsl.s16 q8, d19, d18
77 vmlsl.s32 q8, d19, d18
78 vmlsl.u8 q8, d19, d18
79 vmlsl.u16 q8, d19, d18
80 vmlsl.u32 q8, d19, d18
82 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2]
83 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2]
84 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2]
85 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3
    [all...]
neont2-mul-accum-encoding.s 79 vmlsl.s8 q8, d19, d18
80 vmlsl.s16 q8, d19, d18
81 vmlsl.s32 q8, d19, d18
82 vmlsl.u8 q8, d19, d18
83 vmlsl.u16 q8, d19, d18
84 vmlsl.u32 q8, d19, d18
85 vmlsl.u16 q11, d25, d1[3]
87 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xc3,0xef,0xa2,0x0a]
88 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xd3,0xef,0xa2,0x0a]
89 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xe3,0xef,0xa2,0x0a
    [all...]
  /external/swiftshader/third_party/LLVM/test/MC/ARM/
neon-mul-accum-encoding.s 51 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2]
52 vmlsl.s8 q8, d19, d18
53 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2]
54 vmlsl.s16 q8, d19, d18
55 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2]
56 vmlsl.s32 q8, d19, d18
57 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3]
58 vmlsl.u8 q8, d19, d18
59 @ CHECK: vmlsl.u16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf3]
60 vmlsl.u16 q8, d19, d1
    [all...]
neon-mul-encoding.s 63 vmlsl.s8 q8, d19, d18
64 vmlsl.s16 q8, d19, d18
65 vmlsl.s32 q8, d19, d18
66 vmlsl.u8 q8, d19, d18
67 vmlsl.u16 q8, d19, d18
68 vmlsl.u32 q8, d19, d18
70 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf2]
71 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xa2,0x0a,0xd3,0xf2]
72 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xa2,0x0a,0xe3,0xf2]
73 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xa2,0x0a,0xc3,0xf3
    [all...]
neont2-mul-accum-encoding.s 65 vmlsl.s8 q8, d19, d18
66 vmlsl.s16 q8, d19, d18
67 vmlsl.s32 q8, d19, d18
68 vmlsl.u8 q8, d19, d18
69 vmlsl.u16 q8, d19, d18
70 vmlsl.u32 q8, d19, d18
72 @ CHECK: vmlsl.s8 q8, d19, d18 @ encoding: [0xc3,0xef,0xa2,0x0a]
73 @ CHECK: vmlsl.s16 q8, d19, d18 @ encoding: [0xd3,0xef,0xa2,0x0a]
74 @ CHECK: vmlsl.s32 q8, d19, d18 @ encoding: [0xe3,0xef,0xa2,0x0a]
75 @ CHECK: vmlsl.u8 q8, d19, d18 @ encoding: [0xc3,0xff,0xa2,0x0a
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_filters_luma_horz_a9q.s 151 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
153 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
155 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
159 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
161 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
163 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
192 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
193 vmlsl.u8 q7, d22, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1
    [all...]
ih264_inter_pred_luma_horz_qpel_a9q.s 158 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row0)
160 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row0)
162 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1)
166 vmlsl.u8 q4, d31, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row0)
168 vmlsl.u8 q5, d30, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row0)
170 vmlsl.u8 q7, d28, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1)
171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1)
204 vmlsl.u8 q7, d23, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1,row1)
205 vmlsl.u8 q7, d22, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1,row1
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
171 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
177 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1)
192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2)
193 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2)
194 vmlsl.s16 q1, d20, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2)
195 vmlsl.s16 q15, d21, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2)
229 vmlsl.s16 q3, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1)
230 vmlsl.s16 q15, d23, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_qpel_a9q.s 151 vmlsl.u8 q12, d2, d31
152 vmlsl.u8 q12, d8, d31
162 vmlsl.u8 q14, d19, d31
163 vmlsl.u8 q14, d22, d31
168 vmlsl.u8 q12, d3, d31
169 vmlsl.u8 q12, d9, d31
182 vmlsl.u8 q12, d19, d31
183 vmlsl.u8 q12, d22, d31
188 vmlsl.u8 q8, d4, d31
189 vmlsl.u8 q8, d10, d3
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Resize.S 65 vmlsl.u16 q12, d16, d6[0]
66 vmlsl.u16 q13, d17, d6[0]
69 vmlsl.u16 q12, d22, d6[3]
70 vmlsl.u16 q13, d23, d6[3]
92 vmlsl.u16 q12, d16, d6[0]
94 vmlsl.u16 q12, d22, d6[3]
464 vmlsl.s16 q11, d20, d10
465 vmlsl.s16 q12, d21, d10
555 vmlsl.s16 q8, d26, d2
556 vmlsl.s16 q9, d27, d
    [all...]
rsCpuIntrinsics_neon_3DLUT.S 41 vmlsl.u8 q12, d16, d6
42 vmlsl.u8 q13, d17, d7
58 vmlsl.u8 q14, d16, d6
59 vmlsl.u8 q15, d17, d7
66 vmlsl.u16 q8, d24, \zr0
67 vmlsl.u16 q9, d25, \zr0
76 vmlsl.u16 q8, d26, \zr1
77 vmlsl.u16 q9, d27, \zr1
86 vmlsl.u16 q8, d20, \xr0
87 vmlsl.u16 q9, d22, \xr
    [all...]
  /external/capstone/suite/MC/ARM/
neont2-mul-accum-encoding.s.cs 33 0xc3,0xef,0xa2,0x0a = vmlsl.s8 q8, d19, d18
34 0xd3,0xef,0xa2,0x0a = vmlsl.s16 q8, d19, d18
35 0xe3,0xef,0xa2,0x0a = vmlsl.s32 q8, d19, d18
36 0xc3,0xff,0xa2,0x0a = vmlsl.u8 q8, d19, d18
37 0xd3,0xff,0xa2,0x0a = vmlsl.u16 q8, d19, d18
38 0xe3,0xff,0xa2,0x0a = vmlsl.u32 q8, d19, d18
39 0xd9,0xff,0xe9,0x66 = vmlsl.u16 q11, d25, d1[3]

Completed in 515 milliseconds

1 2