/external/llvm/test/Transforms/SLPVectorizer/X86/ |
ordering.ll | 11 %mul4 = fmul double %0, %mul2 16 %add = fadd double %mul4, %mul8
|
barriercall.ll | 19 %mul4 = shl i32 %n, 3 20 %add5 = add nsw i32 %mul4, 9
|
cse.ll | 66 %mul4 = fmul double %1, 7.700000e+00 67 %mul6 = fmul double %conv, %mul4 158 %mul4 = fmul double %1, 7.900000e+00 159 %mul6 = fmul double %conv, %mul4 198 %mul4 = fmul double %conv, %1 199 store double %mul4, double* %arrayidx2, align 8
|
reduction.ll | 32 %mul4 = fmul double %1, 7.000000e+00 33 %add5 = fadd double %mul1, %mul4
|
crash_smallpt.ll | 77 %mul4.i767 = fmul double undef, undef 78 %sub.i768 = fsub double %mul.i764, %mul4.i767
|
/external/chromium_org/third_party/tlslite/tlslite/utils/ |
rijndael.py | 147 def mul4(a, bs): function 172 T1.append(mul4(s, G[0])) 173 T2.append(mul4(s, G[1])) 174 T3.append(mul4(s, G[2])) 175 T4.append(mul4(s, G[3])) 178 T5.append(mul4(s, iG[0])) 179 T6.append(mul4(s, iG[1])) 180 T7.append(mul4(s, iG[2])) 181 T8.append(mul4(s, iG[3])) 183 U1.append(mul4(t, iG[0]) [all...] |
/external/llvm/test/Analysis/DependenceAnalysis/ |
Banerjee.ll | 36 %mul4 = mul nsw i64 %i.03, 10 37 %add5 = add nsw i64 %mul4, %j.02 96 %mul4 = mul nsw i64 %i.05, 10 97 %add5 = add nsw i64 %mul4, %j.03 153 %mul4 = mul nsw i64 %i.03, 10 154 %add5 = add nsw i64 %mul4, %j.02 203 %mul4 = mul nsw i64 %i.03, 10 204 %add5 = add nsw i64 %mul4, %j.02 253 %mul4 = mul nsw i64 %i.03, 10 254 %add5 = add nsw i64 %mul4, %j.0 [all...] |
GCD.ll | 34 %mul4 = shl nsw i64 %j.02, 2 35 %sub = sub nsw i64 %mul, %mul4 86 %mul4 = shl nsw i64 %j.02, 2 87 %sub = sub nsw i64 %mul, %mul4 139 %mul4 = shl nsw i64 %j.02, 2 140 %sub = sub nsw i64 %mul, %mul4 195 %mul4 = shl nsw i64 %j.02, 1 196 %add5 = add nsw i64 %i.03, %mul4 243 %mul4 = mul nsw i64 %j.02, 10 244 %mul5 = mul nsw i64 %mul4, % [all...] |
SymbolicSIV.ll | 358 %mul4 = mul i64 %M, 3 359 %add5 = add i64 %mul3, %mul4
|
Propagating.ll | 302 %mul4 = mul nsw i64 %i.03, 3 303 %sub5 = add nsw i64 %mul4, -18
|
/external/llvm/test/CodeGen/SystemZ/ |
fp-mul-01.ll | 110 %mul4 = fmul float %mul3, %val4 111 %mul5 = fmul float %mul4, %val5
|
fp-mul-03.ll | 110 %mul4 = fmul double %mul3, %val4 111 %mul5 = fmul double %mul4, %val5
|
int-mul-04.ll | 131 %mul4 = mul i64 %mul3, %val4 132 %mul5 = mul i64 %mul4, %val5
|
int-mul-02.ll | 166 %mul4 = mul i32 %mul3, %val4 167 %mul5 = mul i32 %mul4, %val5
|
int-mul-03.ll | 172 %mul4 = mul i64 %mul3, %ext4 173 %mul5 = mul i64 %mul4, %ext5
|
fp-move-02.ll | 292 %mul4 = fmul double %conv4, %factor 293 store volatile double %mul4, double *@dptr 333 %double4 = phi double [ 1.0, %entry ], [ %mul4, %loop ] 345 %mul4 = fmul double %double4, %factor 370 %conv4 = bitcast double %mul4 to i64
|
fp-mul-02.ll | 168 %mul4 = fmul double %accext4, %ext4 169 %extra4 = fmul double %mul4, 1.41
|
fp-mul-04.ll | 192 %mul4 = fmul fp128 %accext4, %ext4 194 %extra4 = fmul fp128 %mul4, %const4
|