Home | History | Annotate | Download | only in ARM

Lines Matching full:tmp1

7 	%tmp1 = load <8 x i8>, <8 x i8>* %B
8 %tmp2 = extractelement <8 x i8> %tmp1, i32 3
18 %tmp1 = load <8 x i8>, <8 x i8>* %B
19 %tmp2 = extractelement <8 x i8> %tmp1, i32 3
30 %tmp1 = load <4 x i16>, <4 x i16>* %B
31 %tmp2 = extractelement <4 x i16> %tmp1, i32 2
40 %tmp1 = load <2 x i32>, <2 x i32>* %B
41 %tmp2 = extractelement <2 x i32> %tmp1, i32 1
49 %tmp1 = load <2 x float>, <2 x float>* %B
50 %tmp2 = extractelement <2 x float> %tmp1, i32 1
59 %tmp1 = load <16 x i8>, <16 x i8>* %B
60 %tmp2 = extractelement <16 x i8> %tmp1, i32 9
68 %tmp1 = load <8 x i16>, <8 x i16>* %B
69 %tmp2 = extractelement <8 x i16> %tmp1, i32 5
78 %tmp1 = load <4 x i32>, <4 x i32>* %B
79 %tmp2 = extractelement <4 x i32> %tmp1, i32 3
90 %tmp1 = load <4 x i32>, <4 x i32>* %B
91 %tmp2 = extractelement <4 x i32> %tmp1, i32 3
102 %tmp1 = load <4 x float>, <4 x float>* %B
103 %tmp2 = extractelement <4 x float> %tmp1, i32 3
112 %tmp1 = load <8 x i8>, <8 x i8>* %B
113 call void @llvm.arm.neon.vst2lane.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 1, i32 4)
122 %tmp1 = load <4 x i16>, <4 x i16>* %B
123 call void @llvm.arm.neon.vst2lane.p0i8.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1, i32 8)
133 %tmp1 = load <4 x i16>, <4 x i16>* %B
134 call void @llvm.arm.neon.vst2lane.p0i8.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1, i32 2)
144 %tmp1 = load <2 x i32>, <2 x i32>* %B
145 call void @llvm.arm.neon.vst2lane.p0i8.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, i32 1, i32 1)
153 %tmp1 = load <2 x float>, <2 x float>* %B
154 call void @llvm.arm.neon.vst2lane.p0i8.v2f32(i8* %tmp0, <2 x float> %tmp1, <2 x float> %tmp1, i32 1, i32 1)
163 %tmp1 = load <8 x i16>, <8 x i16>* %B
164 call void @llvm.arm.neon.vst2lane.p0i8.v8i16(i8* %tmp0, <8 x i16> %tmp1, <8 x i16> %tmp1, i32 5, i32 1)
173 %tmp1 = load <4 x i32>, <4 x i32>* %B
174 call void @llvm.arm.neon.vst2lane.p0i8.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, i32 2, i32 16)
182 %tmp1 = load <4 x float>, <4 x float>* %B
183 call void @llvm.arm.neon.vst2lane.p0i8.v4f32(i8* %tmp0, <4 x float> %tmp1, <4 x float> %tmp1, i32 3, i32 1)
199 %tmp1 = load <8 x i8>, <8 x i8>* %B
200 call void @llvm.arm.neon.vst3lane.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 1, i32 1)
209 %tmp1 = load <4 x i16>, <4 x i16>* %B
210 call void @llvm.arm.neon.vst3lane.p0i8.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1, i32 8)
218 %tmp1 = load <2 x i32>, <2 x i32>* %B
219 call void @llvm.arm.neon.vst3lane.p0i8.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32> %tmp1, i32 1, i32 1)
227 %tmp1 = load <2 x float>, <2 x float>* %B
228 call void @llvm.arm.neon.vst3lane.p0i8.v2f32(i8* %tmp0, <2 x float> %tmp1, <2 x float> %tmp1, <2 x float> %tmp1, i32 1, i32 1)
237 %tmp1 = load <8 x i16>, <8 x i16>* %B
238 call void @llvm.arm.neon.vst3lane.p0i8.v8i16(i8* %tmp0, <8 x i16> %tmp1, <8 x i16> %tmp1, <8 x i16> %tmp1, i32 6, i32 8)
246 %tmp1 = load <4 x i32>, <4 x i32>* %B
247 call void @llvm.arm.neon.vst3lane.p0i8.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32> %tmp1, i32 0, i32 1)
257 %tmp1 = load <4 x i32>, <4 x i32>* %B
258 call void @llvm.arm.neon.vst3lane.p0i8.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32> %tmp1, i32 0, i32 1)
268 %tmp1 = load <4 x float>, <4 x float>* %B
269 call void @llvm.arm.neon.vst3lane.p0i8.v4f32(i8* %tmp0, <4 x float> %tmp1, <4 x float> %tmp1, <4 x float> %tmp1, i32 1, i32 1)
287 %tmp1 = load <8 x i8>, <8 x i8>* %B
288 call void @llvm.arm.neon.vst4lane.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 1, i32 8)
297 %tmp1 = load <8 x i8>, <8 x i8>* %B
298 call void @llvm.arm.neon.vst4lane.p0i8.v8i8(i8* %A, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, <8 x i8> %tmp1, i32 1, i32 8)
308 %tmp1 = load <4 x i16>, <4 x i16>* %B
309 call void @llvm.arm.neon.vst4lane.p0i8.v4i16(i8* %tmp0, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16> %tmp1, <4 x i16> %tmp1, i32 1, i32 1)
318 %tmp1 = load <2 x i32>, <2 x i32>* %B
319 call void @llvm.arm.neon.vst4lane.p0i8.v2i32(i8* %tmp0, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32> %tmp1, <2 x i32> %tmp1, i32 1, i32 16)
327 %tmp1 = load <2 x float>, <2 x float>* %B
328 call void @llvm.arm.neon.vst4lane.p0i8.v2f32(i8* %tmp0, <2 x float> %tmp1, <2 x float> %tmp1, <2 x float> %tmp1, <2 x float> %tmp1, i32 1, i32 1)
337 %tmp1 = load <8 x i16>, <8 x i16>* %B
338 call void @llvm.arm.neon.vst4lane.p0i8.v8i16(i8* %tmp0, <8 x i16> %tmp1, <8 x i16> %tmp1, <8 x i16> %tmp1, <8 x i16> %tmp1, i32 7, i32 16)
347 %tmp1 = load <4 x i32>, <4 x i32>* %B
348 call void @llvm.arm.neon.vst4lane.p0i8.v4i32(i8* %tmp0, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32> %tmp1, <4 x i32> %tmp1, i32 2, i32 1)
356 %tmp1 = load <4 x float>, <4 x float>* %B
357 call void @llvm.arm.neon.vst4lane.p0i8.v4f32(i8* %tmp0, <4 x float> %tmp1, <4 x float> %tmp1, <4 x float> %tmp1, <4 x float> %tmp1, i32 1, i32 1)