Home | History | Annotate | Download | only in CodeGen

Lines Matching refs:a3

6 float32x2_t test_vfma_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
8 return vfma_f32(a1, a2, a3);
9 // CHECK: llvm.fma.v2f32({{.*a2, .*a3, .*a1}})
13 float32x4_t test_vfmaq_f32(float32x4_t a1, float32x4_t a2, float32x4_t a3) {
15 return vfmaq_f32(a1, a2, a3);
16 // CHECK: llvm.fma.v4f32({{.*a2, .*a3, .*a1}})
20 float64x2_t test_vfmaq_f64(float64x2_t a1, float64x2_t a2, float64x2_t a3) {
22 return vfmaq_f64(a1, a2, a3);
23 // CHECK: llvm.fma.v2f64({{.*a2, .*a3, .*a1}})
27 float32x2_t test_vfma_lane_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
29 return vfma_lane_f32(a1, a2, a3, 1);
36 float32x4_t test_vfmaq_lane_f32(float32x4_t a1, float32x4_t a2, float32x2_t a3) {
38 return vfmaq_lane_f32(a1, a2, a3, 1);
45 float64x2_t test_vfmaq_lane_f64(float64x2_t a1, float64x2_t a2, float64x1_t a3) {
47 return vfmaq_lane_f64(a1, a2, a3, 0);
54 float32x2_t test_vfma_n_f32(float32x2_t a1, float32x2_t a2, float32_t a3) {
56 return vfma_n_f32(a1, a2, a3);
63 float32x4_t test_vfmaq_n_f32(float32x4_t a1, float32x4_t a2, float32_t a3) {
65 return vfmaq_n_f32(a1, a2, a3);
72 float64x2_t test_vfmaq_n_f64(float64x2_t a1, float64x2_t a2, float64_t a3) {
74 return vfmaq_n_f64(a1, a2, a3);
81 float32x2_t test_vfms_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
83 return vfms_f32(a1, a2, a3);
85 // CHECK: llvm.fma.v2f32(<2 x float> %a3, <2 x float> [[NEG]], <2 x float> %a1)
89 float32x4_t test_vfmsq_f32(float32x4_t a1, float32x4_t a2, float32x4_t a3) {
91 return vfmsq_f32(a1, a2, a3);
93 // CHECK: llvm.fma.v4f32(<4 x float> %a3, <4 x float> [[NEG]], <4 x float> %a1)
97 float64x2_t test_vfmsq_f64(float64x2_t a1, float64x2_t a2, float64x2_t a3) {
99 return vfmsq_f64(a1, a2, a3);
101 // CHECK: llvm.fma.v2f64(<2 x double> %a3, <2 x double> [[NEG]], <2 x double> %a1)
105 float32x2_t test_vfms_lane_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
107 return vfms_lane_f32(a1, a2, a3, 1);
110 // CHECK: [[NEG:%.*]] = fsub <2 x float> {{.*}}, %a3
116 float32x4_t test_vfmsq_lane_f32(float32x4_t a1, float32x4_t a2, float32x2_t a3) {
118 return vfmsq_lane_f32(a1, a2, a3, 1);
121 // CHECK: [[NEG:%.*]] = fsub <2 x float> {{.*}}, %a3
127 float64x2_t test_vfmsq_lane_f64(float64x2_t a1, float64x2_t a2, float64x1_t a3) {
129 return vfmsq_lane_f64(a1, a2, a3, 0);
132 // CHECK: [[NEG:%.*]] = fsub <1 x double> {{.*}}, %a3