Home | History | Annotate | Download | only in ARM

Lines Matching full:tmp1

7 	%tmp1 = load <8 x i8>, <8 x i8>* %A
9 %tmp3 = icmp sgt <8 x i8> %tmp1, %tmp2
17 %tmp1 = load <4 x i16>, <4 x i16>* %A
19 %tmp3 = icmp sgt <4 x i16> %tmp1, %tmp2
27 %tmp1 = load <2 x i32>, <2 x i32>* %A
29 %tmp3 = icmp sgt <2 x i32> %tmp1, %tmp2
37 %tmp1 = load <8 x i8>, <8 x i8>* %A
39 %tmp3 = icmp ugt <8 x i8> %tmp1, %tmp2
47 %tmp1 = load <4 x i16>, <4 x i16>* %A
49 %tmp3 = icmp ugt <4 x i16> %tmp1, %tmp2
57 %tmp1 = load <2 x i32>, <2 x i32>* %A
59 %tmp3 = icmp ugt <2 x i32> %tmp1, %tmp2
67 %tmp1 = load <2 x float>, <2 x float>* %A
69 %tmp3 = fcmp ogt <2 x float> %tmp1, %tmp2
77 %tmp1 = load <16 x i8>, <16 x i8>* %A
79 %tmp3 = icmp sgt <16 x i8> %tmp1, %tmp2
87 %tmp1 = load <8 x i16>, <8 x i16>* %A
89 %tmp3 = icmp sgt <8 x i16> %tmp1, %tmp2
97 %tmp1 = load <4 x i32>, <4 x i32>* %A
99 %tmp3 = icmp sgt <4 x i32> %tmp1, %tmp2
107 %tmp1 = load <16 x i8>, <16 x i8>* %A
109 %tmp3 = icmp ugt <16 x i8> %tmp1, %tmp2
117 %tmp1 = load <8 x i16>, <8 x i16>* %A
119 %tmp3 = icmp ugt <8 x i16> %tmp1, %tmp2
127 %tmp1 = load <4 x i32>, <4 x i32>* %A
129 %tmp3 = icmp ugt <4 x i32> %tmp1, %tmp2
137 %tmp1 = load <4 x float>, <4 x float>* %A
139 %tmp3 = fcmp ogt <4 x float> %tmp1, %tmp2
147 %tmp1 = load <2 x float>, <2 x float>* %A
149 %tmp3 = call <2 x i32> @llvm.arm.neon.vacgt.v2i32.v2f32(<2 x float> %tmp1, <2 x float> %tmp2)
156 %tmp1 = load <4 x float>, <4 x float>* %A
158 %tmp3 = call <4 x i32> @llvm.arm.neon.vacgt.v4i32.v4f32(<4 x float> %tmp1, <4 x float> %tmp2)
168 %tmp1 = load <4 x float>, <4 x float>* %A
170 %tmp3 = fcmp ogt <4 x float> %tmp1, %tmp2
183 %tmp1 = load <8 x i8>, <8 x i8>* %A
184 %tmp3 = icmp sgt <8 x i8> %tmp1, <i8 0, i8 0, i8 0, i8 0, i8 0, i8 0, i8 0, i8 0>
194 %tmp1 = load <8 x i8>, <8 x i8>* %A
195 %tmp3 = icmp slt <8 x i8> %tmp1, <i8 0, i8 0, i8 0, i8 0, i8 0, i8 0, i8 0, i8 0>