HomeSort by relevance Sort by last modified time
    Searched full:vmla (Results 1 - 25 of 71) sorted by null

1 2 3

  /external/llvm/test/CodeGen/ARM/
a15-mla.ll 9 ; CHECK: vmla
15 ; This tests checks that VMLA FP patterns can be matched in instruction selection when targeting
19 ; CHECK: vmla.f32
25 ; This tests checks that FP VMLA instructions are not expanded into separate multiply/addition
29 ; CHECK: vmla.f32
32 ; CHECK: vmla.f32
fmacs.ll 10 ; VFP2: vmla.f32
13 ; NEON: vmla.f32
26 ; VFP2: vmla.f64
29 ; NEON: vmla.f64
42 ; VFP2: vmla.f32
45 ; NEON: vmla.f32
55 ; It's possible to make use of fp vmla / vmls on Cortex-A9.
65 ; Two vmla with now RAW hazard
67 ; A9: vmla.f32
68 ; A9: vmla.f3
    [all...]
vmla.ll 5 ;CHECK: vmla.i8
16 ;CHECK: vmla.i16
27 ;CHECK: vmla.i32
38 ;CHECK: vmla.f32
49 ;CHECK: vmla.i8
60 ;CHECK: vmla.i16
71 ;CHECK: vmla.i32
82 ;CHECK: vmla.f32
  /external/llvm/test/MC/ARM/
neon-mul-accum-encoding.s 3 vmla.i8 d16, d18, d17
4 vmla.i16 d16, d18, d17
5 vmla.i32 d16, d18, d17
6 vmla.f32 d16, d18, d17
7 vmla.i8 q9, q8, q10
8 vmla.i16 q9, q8, q10
9 vmla.i32 q9, q8, q10
10 vmla.f32 q9, q8, q10
11 vmla.i32 q12, q8, d3[0]
13 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0xa1,0x09,0x42,0xf2
    [all...]
neont2-mul-accum-encoding.s 5 vmla.i8 d16, d18, d17
6 vmla.i16 d16, d18, d17
7 vmla.i32 d16, d18, d17
8 vmla.f32 d16, d18, d17
9 vmla.i8 q9, q8, q10
10 vmla.i16 q9, q8, q10
11 vmla.i32 q9, q8, q10
12 vmla.f32 q9, q8, q10
13 vmla.i32 q12, q8, d3[0]
15 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0x42,0xef,0xa1,0x09
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S 44 VMLA.I16 d10,d2,d31
56 VMLA.I16 d12,d2,d31
68 VMLA.I16 d14,d2,d31
80 VMLA.I16 d16,d2,d31
92 VMLA.I16 d18,d2,d31
104 VMLA.I16 d20,d2,d31
116 VMLA.I16 d22,d2,d31
128 VMLA.I16 d24,d2,d31
139 VMLA.I16 d26,d2,d31
147 VMLA.I32 q5,q1,q1
    [all...]
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 42 VMLA.I16 d22,d8,d31
54 VMLA.I16 d24,d8,d31
66 VMLA.I16 d26,d8,d31
77 VMLA.I16 d28,d8,d31
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 64 VMLA.I16 d6,d18,d31
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.s 125 VMLA dRes0, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
142 VMLA dRes1, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
159 VMLA dRes2, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
176 VMLA dRes3, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
193 VMLA dRes4, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
210 VMLA dRes5, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
227 VMLA dRes6, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
244 VMLA dRes7, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
260 VMLA dRes8, dSrcC, dCoeff20 ;// Acc += 20*(c+d)
274 VMLA qAcc01, qSumCD, qCoeff20 ;// Acc += 20*(c+d
    [all...]
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.s 117 VMLA dRes0, dTemp0, dCoeff20 ;// Acc += 20*(c+d)
136 VMLA dRes2, dTemp0, dCoeff20 ;// Acc += 20*(c+d)
154 VMLA dRes4, dTemp0, dCoeff20 ;// Acc += 20*(c+d)
170 VMLA dRes6, dTemp0, dCoeff20 ;// Acc += 20*(c+d)
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.s 105 ; VMLA dRes0, dSumCD0, dCoeff20 ;// Acc += 20*(c+d)
113 ; VMLA dRes1, dSumCD0, dCoeff20 ;// Acc += 20*(c+d)
121 ; VMLA dRes2, dSumCD0, dCoeff20 ;// Acc += 20*(c+d)
132 VMLA dRes3, dSumCD0, dCoeff20 ;// Acc += 20*(c+d)
  /external/libavc/common/arm/
ih264_inter_pred_filters_luma_vert_a9q.s 131 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
134 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
141 vmla.u16 q8, q6, q11
148 vmla.u16 q7, q6, q11
155 vmla.u16 q9, q6, q11
162 vmla.u16 q8, q6, q11
170 vmla.u16 q7, q6, q11
176 vmla.u16 q9, q6, q11
190 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
213 vmla.u16 q4, q3, q11 @ temp += temp1 * 2
    [all...]
ih264_inter_pred_luma_vert_qpel_a9q.s 138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
141 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20
148 vmla.u16 q8, q6, q11
155 vmla.u16 q7, q6, q11
164 vmla.u16 q9, q6, q11
171 vmla.u16 q8, q6, q11
181 vmla.u16 q7, q6, q11
187 vmla.u16 q9, q6, q11
203 vmla.u16 q7, q6, q11 @ temp += temp1 * 20
228 vmla.u16 q4, q3, q11 @ temp += temp1 * 2
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s 159 vmla.u16 q3, q4, q11
173 vmla.u16 q4, q5, q11
187 vmla.u16 q5, q6, q11
201 vmla.u16 q6, q7, q11
215 vmla.u16 q7, q8, q11
231 vmla.u16 q8, q9, q11
259 vmla.u16 q10, q1, q11
299 vmla.u16 q4, q1, q11
334 vmla.u16 q14, q1, q11
387 vmla.u16 q3, q4, q1
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 170 vmla.u16 q9, q10, q14
174 vmla.u16 q10, q12, q14
180 vmla.u16 q11, q12, q14
247 vmla.u16 q9, q10, q14
251 vmla.u16 q10, q12, q14
257 vmla.u16 q11, q12, q14
332 vmla.u16 q6, q7, q13
336 vmla.u16 q7, q9, q13
345 vmla.u16 q14, q8, q13
363 vmla.u16 q7, q10, q1
    [all...]
ih264_weighted_bi_pred_a9q.s 185 vmla.s16 q2, q3, d2[2] @weight 2 mult. for rows 1,2
187 vmla.s16 q4, q5, d2[2] @weight 2 mult. for rows 3,4
225 vmla.s16 q2, q3, d2[2] @weight 2 mult. for row 1
229 vmla.s16 q4, q5, d2[2] @weight 2 mult. for row 2
234 vmla.s16 q6, q7, d2[2] @weight 2 mult. for row 3
236 vmla.s16 q8, q9, d2[2] @weight 2 mult. for row 4
280 vmla.s16 q10, q11, d2[2] @weight 2 mult. for row 1L
285 vmla.s16 q2, q3, d2[2] @weight 2 mult. for row 1H
290 vmla.s16 q12, q13, d2[2] @weight 2 mult. for row 2L
295 vmla.s16 q4, q5, d2[2] @weight 2 mult. for row 2
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s 148 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
153 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
157 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
207 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
212 vmla.u16 q13, q11, d0[0] @ temp4 += temp3 * 20
215 vmla.u16 q14, q11, d0[0] @ temp4 += temp3 * 20
281 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
284 vmla.u16 q13, q14, d0[0] @ temp += temp1 * 20
313 vmla.u16 q12, q10, d0[0] @ temp += temp1 * 20
316 vmla.u16 q13, q14, d0[0] @ temp += temp1 * 2
    [all...]
  /external/llvm/test/CodeGen/Thumb2/
float-intrinsics-float.ll 2 ; RUN: llc < %s -mtriple=thumbv7-none-eabihf -mcpu=cortex-m4 | FileCheck %s -check-prefix=CHECK -check-prefix=HARD -check-prefix=SP -check-prefix=VMLA
3 ; RUN: llc < %s -mtriple=thumbv7-none-eabihf -mcpu=cortex-m7 | FileCheck %s -check-prefix=CHECK -check-prefix=HARD -check-prefix=DP -check-prefix=VFP -check-prefix=FP-ARMv8 -check-prefix=VMLA
4 ; RUN: llc < %s -mtriple=thumbv7-none-eabihf -mcpu=cortex-m7 -mattr=+fp-only-sp | FileCheck %s -check-prefix=CHECK -check-prefix=HARD -check-prefix=SP -check-prefix=FP-ARMv8 -check-prefix=VMLA
5 ; RUN: llc < %s -mtriple=thumbv7-none-eabihf -mcpu=cortex-a7 | FileCheck %s -check-prefix=CHECK -check-prefix=HARD -check-prefix=DP -check-prefix=NEON -check-prefix=VFP4 -check-prefix=NO-VMLA
6 ; RUN: llc < %s -mtriple=thumbv7-none-eabihf -mcpu=cortex-a57 | FileCheck %s -check-prefix=CHECK -check-prefix=HARD -check-prefix=DP -check-prefix=NEON -check-prefix=FP-ARMv8 -check-prefix=VMLA
191 ; FIXME: why does cortex-m4 use vmla, while cortex-a7 uses vmul+vadd?
198 ; VMLA: vmla.f32
199 ; NO-VMLA: vmul.f32
200 ; NO-VMLA: vadd.f3
    [all...]
  /external/speex/libspeex/
resample_neon.h 159 " vmla.f32 q0, q4, q8\n"
160 " vmla.f32 q1, q5, q9\n"
161 " vmla.f32 q2, q6, q10\n"
162 " vmla.f32 q3, q7, q11\n"
174 " vmla.f32 q0, q6, q10\n"
  /external/llvm/lib/Target/ARM/
ARMHazardRecognizer.cpp 41 // Look for special VMLA / VMLS hazards. A VMUL / VADD / VSUB following
42 // a VMLA / VMLS will cause 4 cycle stall.
MLxExpansionPass.cpp 222 // r0 = vmla
223 // r3 = vmla r0, r1, r2
226 // r0 = vmla
243 // If a VMLA.F is followed by an VADD.F or VMUL.F with no RAW hazard, the
247 // then the scheduler can't *fix* this, we'd better break up the VMLA.
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_3DLUT.S 181 vmla.s32 q6, q8, d9[0]
182 vmla.s32 q7, q9, d9[0]
183 vmla.s32 q6, q10, d9[1]
184 vmla.s32 q7, q11, d9[1]
  /external/valgrind/none/tests/arm/
vfp.stdout.exp 117 ---- VMLA (fp) ----
118 vmla.f64 d0, d11, d12 :: Qd 0x7ff80000 0x00000000 Qm 0xfff00000 00000000 Qn 0x7ff80000 00000000
119 vmla.f64 d7, d1, d6 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff00000 00000000 Qn 0x7ff80000 00000000
120 vmla.f64 d0, d5, d2 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0xbff00000 00000000
121 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x00000000 00000000
122 vmla.f64 d10, d13, d15 :: Qd 0x7ff80000 0x00000000 Qm 0x7ff80000 00000000 Qn 0x7ff80000 00000000
123 vmla.f64 d20, d25, d22 :: Qd 0xc0906794 0x842f8549 Qm 0x40370a3d 70a3d70a Qn 0xc046c8cb 295e9e1b
124 vmla.f64 d23, d24, d25 :: Qd 0xc1bbe864 0x1f579999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000
125 vmla.f64 d20, d31, d12 :: Qd 0xc1e0a1cf 0xd2abe8f6 Qm 0x40e7ce60 00000000 Qn 0xc0e65b4f 3b645a1d
126 vmla.f64 d19, d25, d27 :: Qd 0x41d860c7 0xf71a1999 Qm 0x40f767bc 28f5c28f Qn 0x40d0aa40 0000000
    [all...]
vfp.c     [all...]
neon128.c     [all...]

Completed in 856 milliseconds

1 2 3