HomeSort by relevance Sort by last modified time
    Searched refs:vmull (Results 1 - 25 of 74) sorted by null

1 2 3

  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 84 vmull.u8 q12, d15, d1
85 vmull.u8 q0, d14, d0
86 vmull.u8 q13, d15, d3
87 vmull.u8 q1, d14, d2
88 vmull.u8 q14, d15, d5
89 vmull.u8 q2, d14, d4
90 vmull.u8 q15, d15, d7
91 vmull.u8 q3, d14, d6
130 vmull.u8 q12, d15, d17
131 vmull.u8 q8, d14, d1
    [all...]
  /external/swiftshader/third_party/LLVM/test/MC/ARM/
neont2-mul-encoding.s 41 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xc0,0xef,0xa1,0x0c]
42 vmull.s8 q8, d16, d17
43 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xd0,0xef,0xa1,0x0c]
44 vmull.s16 q8, d16, d17
45 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xe0,0xef,0xa1,0x0c]
46 vmull.s32 q8, d16, d17
47 @ CHECK: vmull.u8 q8, d16, d17 @ encoding: [0xc0,0xff,0xa1,0x0c]
48 vmull.u8 q8, d16, d17
49 @ CHECK: vmull.u16 q8, d16, d17 @ encoding: [0xd0,0xff,0xa1,0x0c]
50 vmull.u16 q8, d16, d1
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
189 vmull.s16 q9,d3,d1[2] @// y2 * sin2 (q3 is freed by this time)(part of d1)
192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
208 vmull.s16 q11,d10,d0[0] @// y4 * cos4(part of c0 and c1)
210 vmull.s16 q3,d3,d0[2] @// y2 * cos2(part of d0)
302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
303 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 158 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
210 vmull.u8 q12, d12, d7 @mul (row 0)
220 vmull.u8 q11, d16, d7 @mul (row 1)
231 vmull.u8 q10, d14, d7 @mul (row 2)
242 vmull.u8 q9, d10, d7 @mul (row 3)
253 vmull.u8 q12, d12, d7 @mul (row 4)
264 vmull.u8 q11, d16, d7 @mul (row 5)
275 vmull.u8 q10, d14, d7 @mul (row 6)
279 vmull.u8 q9, d10, d7 @mul (row 7)
308 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col
    [all...]
ihevc_itrans_recon_4x4_ttype1.s 143 vmull.s16 q3,d1,d4[2] @74 * pi2_src[1]
148 vmull.s16 q4,d1,d4[2] @74 * pi2_src[1]
153 vmull.s16 q5,d0,d4[2] @ 74 * pi2_src[0]
157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2]
182 vmull.s16 q3,d15,d4[2] @74 * pi2_src[1]
187 vmull.s16 q4,d15,d4[2] @74 * pi2_src[1]
192 vmull.s16 q5,d14,d4[2] @ 74 * pi2_src[0]
197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2]
ihevc_inter_pred_chroma_vert.s 143 vmull.u8 q3,d9,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
148 vmull.u8 q2,d4,d1
188 vmull.u8 q2,d7,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
232 vmull.u8 q15,d5,d1 @mul with coeff 1
240 vmull.u8 q14,d6,d1 @mul_res 2
250 vmull.u8 q13,d7,d1
260 vmull.u8 q12,d8,d1
279 vmull.u8 q15,d5,d1 @mul with coeff 1
291 vmull.u8 q14,d6,d1 @mul_res 2
304 vmull.u8 q13,d7,d
    [all...]
ihevc_inter_pred_chroma_vert_w16out.s 145 vmull.u8 q3,d9,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
150 vmull.u8 q2,d4,d1
188 vmull.u8 q2,d7,d1 @vmull_u8(vreinterpret_u8_u32(src_tmp2), coeffabs_1)
232 vmull.u8 q15,d5,d1 @mul with coeff 1
240 vmull.u8 q14,d6,d1 @mul_res 2
249 vmull.u8 q13,d7,d1
258 vmull.u8 q12,d8,d1
275 vmull.u8 q15,d5,d1 @mul with coeff 1
286 vmull.u8 q14,d6,d1 @mul_res 2
297 vmull.u8 q13,d7,d
    [all...]
ihevc_intra_pred_chroma_mode_27_to_33.s 146 vmull.u8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
175 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
186 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
201 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
218 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
236 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
252 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
265 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
277 vmull.u8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
297 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 261 vmull.s8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
287 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
297 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
312 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
327 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
344 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
359 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
372 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
384 vmull.s8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
404 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 150 vmull.u8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
178 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
189 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
204 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
220 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
238 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
254 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
267 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
279 vmull.u8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
298 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
195 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
206 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
244 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
256 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
194 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
205 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
215 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
240 vmull.s16 q14,d1,d12 @vmull_s16(src_tmp2, coeff_0)
251 vmull.s16 q13,d2,d12 @vmull_s16(src_tmp2, coeff_0)
263 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0
    [all...]
ihevc_intra_pred_chroma_mode_3_to_9.s 151 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
207 vmull.u8 q12, d12, d7 @mul (row 0)
217 vmull.u8 q11, d16, d7 @mul (row 1)
228 vmull.u8 q10, d14, d7 @mul (row 2)
239 vmull.u8 q9, d10, d7 @mul (row 3)
250 vmull.u8 q12, d12, d7 @mul (row 4)
263 vmull.u8 q11, d16, d7 @mul (row 5)
274 vmull.u8 q10, d14, d7 @mul (row 6)
278 vmull.u8 q9, d10, d7 @mul (row 7)
306 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col
    [all...]
ihevc_intra_pred_filters_luma_mode_11_to_17.s 266 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col)
320 vmull.u8 q12, d12, d7 @mul (row 0)
330 vmull.u8 q11, d16, d7 @mul (row 1)
341 vmull.u8 q10, d14, d7 @mul (row 2)
352 vmull.u8 q9, d10, d7 @mul (row 3)
363 vmull.u8 q12, d12, d7 @mul (row 4)
374 vmull.u8 q11, d16, d7 @mul (row 5)
385 vmull.u8 q10, d14, d7 @mul (row 6)
389 vmull.u8 q9, d10, d7 @mul (row 7)
418 vmull.s8 q6, d30, d31 @(col+1)*intra_pred_angle [0:7](col
    [all...]
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 256 vmull.s8 q1,d3,d0 @pos = ((row + 1) * intra_pred_ang)
284 vmull.u8 q5,d8,d30 @(i row)vmull_u8(ref_main_idx, dup_const_32_fract)
294 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
309 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
325 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
342 vmull.u8 q5,d8,d30 @(v)vmull_u8(ref_main_idx, dup_const_32_fract)
357 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
373 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
385 vmull.s8 q1,d5,d0 @pos = ((row + 1) * intra_pred_ang)
407 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract
    [all...]
ihevc_itrans_recon_16x16.s 242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
257 vmull.s16 q6,d10,d0[0]
259 vmull.s16 q7,d10,d0[0]
261 vmull.s16 q8,d10,d0[0]
263 vmull.s16 q9,d10,d0[0]
419 vmull.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
420 vmull.s16 q13,d6,d2[3] @// y1 * cos3(part of b1
    [all...]
ihevc_weighted_pred_bi.s 191 vmull.s16 q2,d0,d7[0] @vmull_n_s16(pi2_src1_val1, (int16_t) wgt0)
193 vmull.s16 q4,d1,d7[1] @vmull_n_s16(pi2_src2_val1, (int16_t) wgt1)
198 vmull.s16 q5,d2,d7[0] @vmull_n_s16(pi2_src1_val2, (int16_t) wgt0) ii iteration
202 vmull.s16 q7,d0,d7[0] @vmull_n_s16(pi2_src1_val1, (int16_t) wgt0) iii iteration
205 vmull.s16 q6,d3,d7[1] @vmull_n_s16(pi2_src2_val2, (int16_t) wgt1) ii iteration
212 vmull.s16 q8,d1,d7[1] @vmull_n_s16(pi2_src2_val1, (int16_t) wgt1) iii iteration
219 vmull.s16 q9,d2,d7[0] @vmull_n_s16(pi2_src1_val2, (int16_t) wgt0) iv iteration
224 vmull.s16 q10,d3,d7[1] @vmull_n_s16(pi2_src2_val2, (int16_t) wgt1) iv iteration
ihevc_inter_pred_chroma_horz.s 170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
178 vmull.u8 q14,d3,d25
207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
245 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
262 vmull.u8 q14,d3,d25
292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
306 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
314 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@
325 vmull.u8 q14,d3,d2
    [all...]
  /external/llvm/test/MC/ARM/
neont2-mul-encoding.s 54 vmull.s8 q8, d16, d17
55 vmull.s16 q8, d16, d17
56 vmull.s32 q8, d16, d17
57 vmull.u8 q8, d16, d17
58 vmull.u16 q8, d16, d17
59 vmull.u32 q8, d16, d17
60 vmull.p8 q8, d16, d17
62 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xc0,0xef,0xa1,0x0c]
63 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xd0,0xef,0xa1,0x0c]
64 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xe0,0xef,0xa1,0x0c
    [all...]
neon-mul-encoding.s 82 vmull.s8 q8, d16, d17
83 vmull.s16 q8, d16, d17
84 vmull.s32 q8, d16, d17
85 vmull.u8 q8, d16, d17
86 vmull.u16 q8, d16, d17
87 vmull.u32 q8, d16, d17
88 vmull.p8 q8, d16, d17
90 @ CHECK: vmull.s8 q8, d16, d17 @ encoding: [0xa1,0x0c,0xc0,0xf2]
91 @ CHECK: vmull.s16 q8, d16, d17 @ encoding: [0xa1,0x0c,0xd0,0xf2]
92 @ CHECK: vmull.s32 q8, d16, d17 @ encoding: [0xa1,0x0c,0xe0,0xf2
    [all...]
  /external/libmpeg2/common/arm/
icv_variance_a9.s 89 vmull.u8 q10, d0, d0
90 vmull.u8 q11, d1, d1
91 vmull.u8 q12, d2, d2
92 vmull.u8 q13, d3, d3
impeg2_idct.s 442 vmull.s16 q10, d2, d0[0] @// y0 * cos4(part of c0 and c1)
444 vmull.s16 q9, d3, d1[2] @// y2 * sin2 (Q3 is freed by this time)(part of d1)
447 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
449 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1)
451 vmull.s16 q14, d6, d1[1] @// y1 * sin3(part of b2)
453 vmull.s16 q15, d6, d1[3] @// y1 * sin1(part of b3)
463 vmull.s16 q11, d10, d0[0] @// y4 * cos4(part of c0 and c1)
465 vmull.s16 q3, d3, d0[2] @// y2 * cos2(part of d0)
561 vmull.s16 q12, d6, d0[1] @// y1 * cos1(part of b0)
562 vmull.s16 q13, d6, d0[3] @// y1 * cos3(part of b1
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_chroma_a9q.s 148 vmull.u8 q5, d0, d28
156 vmull.u8 q6, d6, d30
175 vmull.u8 q5, d0, d28
181 vmull.u8 q6, d6, d30
200 vmull.u8 q2, d2, d30
216 vmull.u8 q2, d0, d28
232 vmull.u8 q2, d0, d28
240 vmull.u8 q4, d2, d28
  /external/boringssl/linux-arm/crypto/modes/
ghash-armv4.S 389 vmull.p8 q8, d16, d6 @ F = A1*B
391 vmull.p8 q0, d26, d0 @ E = A*B1
393 vmull.p8 q9, d18, d6 @ H = A2*B
395 vmull.p8 q11, d26, d22 @ G = A*B2
398 vmull.p8 q10, d20, d6 @ J = A3*B
401 vmull.p8 q0, d26, d0 @ I = A*B3
407 vmull.p8 q11, d26, d22 @ K = A*B4
418 vmull.p8 q0, d26, d6 @ D = A*B
427 vmull.p8 q8, d16, d6 @ F = A1*B
429 vmull.p8 q1, d28, d2 @ E = A*B
    [all...]
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/
armv8-a+crypto.s 6 vmull.p64 q0, d0, d0
7 vmull.p64 q15, d31, d31
66 vmull.p64 q0, d0, d0
67 vmull.p64 q15, d31, d31

Completed in 482 milliseconds

1 2 3