| /external/llvm/test/CodeGen/ARM/ |
| vtbl.ll | 22 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1 23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4) 33 %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1 35 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5) 45 %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1 48 %tmp7 = call <8 x i8> @llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6) 58 %tmp4 = call <8 x i8> @llvm.arm.neon.vtbx1(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> %tmp3) 59 ret <8 x i8> %tmp4 68 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1 70 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5 [all...] |
| pack.ll | 7 %tmp4 = shl i32 %Y, 16 8 %tmp5 = or i32 %tmp4, %tmp1 17 %tmp4 = and i32 %tmp3, -65536 18 %tmp57 = or i32 %tmp4, %tmp1 45 %tmp4 = lshr i32 %tmp2, 16 46 %tmp5 = or i32 %tmp4, %tmp17 66 %tmp4 = and i32 %tmp38, 65535 67 %tmp59 = or i32 %tmp4, %tmp1 76 %tmp4 = and i32 %tmp3, 65535 77 %tmp57 = or i32 %tmp4, %tmp [all...] |
| smul.ll | 15 %tmp4 = mul i32 %tmp2, %tmp3 ; <i32> [#uses=1] 16 ret i32 %tmp4 24 %tmp4 = mul i32 %tmp3, %tmp1 ; <i32> [#uses=1] 25 ret i32 %tmp4 43 %tmp4 = mul i32 %tmp3, %tmp1 44 %tmp5 = add i32 %tmp4, %a 53 %tmp4 = mul i32 %tmp3, %tmp1 54 %tmp5 = add i32 %tmp4, %a 63 %tmp4 = mul i32 %tmp3, %tmp1 64 %tmp5 = add i32 %tmp4, % [all...] |
| vadd.ll | 157 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 158 %tmp5 = add <8 x i16> %tmp3, %tmp4 168 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 169 %tmp5 = add <4 x i32> %tmp3, %tmp4 179 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 180 %tmp5 = add <2 x i64> %tmp3, %tmp4 190 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 191 %tmp5 = add <8 x i16> %tmp3, %tmp4 201 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 202 %tmp5 = add <4 x i32> %tmp3, %tmp4 [all...] |
| vsub.ll | 157 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 158 %tmp5 = sub <8 x i16> %tmp3, %tmp4 168 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 169 %tmp5 = sub <4 x i32> %tmp3, %tmp4 179 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 180 %tmp5 = sub <2 x i64> %tmp3, %tmp4 190 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 191 %tmp5 = sub <8 x i16> %tmp3, %tmp4 201 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 202 %tmp5 = sub <4 x i32> %tmp3, %tmp4 [all...] |
| ldr.ll | 58 %tmp4 = load i32, i32* %tmp3 59 ret i32 %tmp4 69 %tmp4 = load i32, i32* %tmp3 70 ret i32 %tmp4
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/ARM/ |
| vtbl.ll | 22 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1 23 %tmp5 = call <8 x i8> @llvm.arm.neon.vtbl2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4) 33 %tmp4 = extractvalue %struct.__neon_int8x8x3_t %tmp2, 1 35 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbl3(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5) 45 %tmp4 = extractvalue %struct.__neon_int8x8x4_t %tmp2, 1 48 %tmp7 = call <8 x i8> @llvm.arm.neon.vtbl4(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5, <8 x i8> %tmp6) 58 %tmp4 = call <8 x i8> @llvm.arm.neon.vtbx1(<8 x i8> %tmp1, <8 x i8> %tmp2, <8 x i8> %tmp3) 59 ret <8 x i8> %tmp4 68 %tmp4 = extractvalue %struct.__neon_int8x8x2_t %tmp2, 1 70 %tmp6 = call <8 x i8> @llvm.arm.neon.vtbx2(<8 x i8> %tmp1, <8 x i8> %tmp3, <8 x i8> %tmp4, <8 x i8> %tmp5 [all...] |
| vadd.ll | 161 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 162 %tmp5 = add <8 x i16> %tmp3, %tmp4 172 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 173 %tmp5 = add <4 x i32> %tmp3, %tmp4 183 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 184 %tmp5 = add <2 x i64> %tmp3, %tmp4 194 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 195 %tmp5 = add <8 x i16> %tmp3, %tmp4 205 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 206 %tmp5 = add <4 x i32> %tmp3, %tmp4 [all...] |
| vsub.ll | 161 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16> 162 %tmp5 = sub <8 x i16> %tmp3, %tmp4 172 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32> 173 %tmp5 = sub <4 x i32> %tmp3, %tmp4 183 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64> 184 %tmp5 = sub <2 x i64> %tmp3, %tmp4 194 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16> 195 %tmp5 = sub <8 x i16> %tmp3, %tmp4 205 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32> 206 %tmp5 = sub <4 x i32> %tmp3, %tmp4 [all...] |
| /external/llvm/test/CodeGen/Thumb2/ |
| thumb2-pack.ll | 7 %tmp4 = shl i32 %Y, 16 ; <i32> [#uses=1] 8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 26 %tmp4 = and i32 %tmp3, -65536 ; <i32> [#uses=1] 27 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 54 %tmp4 = lshr i32 %tmp2, 16 ; <i32> [#uses=2] 55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1] 75 %tmp4 = and i32 %tmp38, 65535 ; <i32> [#uses=1] 76 %tmp59 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 85 %tmp4 = and i32 %tmp3, 65535 ; <i32> [#uses=1] 86 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1 [all...] |
| /external/swiftshader/third_party/LLVM/test/CodeGen/Thumb2/ |
| thumb2-pack.ll | 7 %tmp4 = shl i32 %Y, 16 ; <i32> [#uses=1] 8 %tmp5 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 26 %tmp4 = and i32 %tmp3, -65536 ; <i32> [#uses=1] 27 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 54 %tmp4 = lshr i32 %tmp2, 16 ; <i32> [#uses=2] 55 %tmp5 = or i32 %tmp4, %tmp17 ; <i32> [#uses=1] 75 %tmp4 = and i32 %tmp38, 65535 ; <i32> [#uses=1] 76 %tmp59 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1] 85 %tmp4 = and i32 %tmp3, 65535 ; <i32> [#uses=1] 86 %tmp57 = or i32 %tmp4, %tmp1 ; <i32> [#uses=1 [all...] |
| /bionic/libc/arch-arm64/generic/bionic/ |
| strlen.S | 51 #define tmp4 x7 define 114 orr tmp4, data2, REP8_7f 116 bic has_nul2, tmp3, tmp4 154 orr tmp4, data2, REP8_7f 156 bic has_nul2, tmp3, tmp4 188 orr tmp4, data2, REP8_7f 190 bic has_nul2, tmp3, tmp4 197 orr tmp4, data2, REP8_7f 199 bic has_nul2, tmp3, tmp4 211 mov tmp4, - [all...] |
| /external/llvm/test/CodeGen/AArch64/ |
| arm64-vabs.ll | 10 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16> 11 ret <8 x i16> %tmp4 20 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32> 21 ret <4 x i32> %tmp4 30 %tmp4 = zext <2 x i32> %tmp3 to <2 x i64> 31 ret <2 x i64> %tmp4 42 %tmp4 = zext <8 x i8> %tmp3 to <8 x i16> 43 ret <8 x i16> %tmp4 54 %tmp4 = zext <4 x i16> %tmp3 to <4 x i32> 55 ret <4 x i32> %tmp4 [all...] |
| /external/libvpx/libvpx/vpx_dsp/mips/ |
| avg_msa.c | 62 v8i16 tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7; local 65 BUTTERFLY_8(src0, src2, src4, src6, src7, src5, src3, src1, tmp0, tmp2, tmp4, 67 BUTTERFLY_8(tmp0, tmp1, tmp4, tmp5, tmp7, tmp6, tmp3, tmp2, src0, src1, src4, 70 tmp4, tmp5, tmp1, tmp6, tmp2); 71 TRANSPOSE8x8_SH_SH(tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, src0, src1, 73 BUTTERFLY_8(src0, src2, src4, src6, src7, src5, src3, src1, tmp0, tmp2, tmp4, 75 BUTTERFLY_8(tmp0, tmp1, tmp4, tmp5, tmp7, tmp6, tmp3, tmp2, src0, src1, src4, 78 tmp4, tmp5, tmp1, tmp6, tmp2); 79 TRANSPOSE8x8_SH_SH(tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, src0, src1, 87 v8i16 src11, src12, src13, src14, src15, tmp0, tmp1, tmp2, tmp3, tmp4, tmp5 local [all...] |
| /external/llvm/test/CodeGen/PowerPC/ |
| vec_shuffle_p8vector.ll | 9 %tmp4 = extractelement <4 x i32> %tmp2, i32 3 11 %tmp6 = insertelement <4 x i32> %tmp5, i32 %tmp4, i32 1 13 %tmp8 = insertelement <4 x i32> %tmp7, i32 %tmp4, i32 3 33 %tmp4 = bitcast <2 x i64> %tmp3 to <4 x i32> 36 %tmp7 = extractelement <4 x i32> %tmp4, i32 1 37 %tmp8 = extractelement <4 x i32> %tmp4, i32 3
|
| /external/llvm/test/CodeGen/X86/ |
| zext-sext.ll | 25 %tmp4 = mul i32 %tmp3, 2122487257 26 %tmp5 = icmp sge i32 %tmp4, 2138875574 27 %tmp6 = icmp slt i32 %tmp4, -8608074 30 %tmp8 = icmp slt i32 %tmp4, 0 33 %tmp11 = sext i32 %tmp4 to i64 45 %tmp14 = zext i32 %tmp4 to i64
|
| /external/swiftshader/third_party/LLVM/test/CodeGen/X86/ |
| zext-sext.ll | 23 %tmp4 = mul i32 %tmp3, 2122487257 24 %tmp5 = icmp sge i32 %tmp4, 2138875574 25 %tmp6 = icmp slt i32 %tmp4, -8608074 28 %tmp8 = icmp slt i32 %tmp4, 0 31 %tmp11 = sext i32 %tmp4 to i64 40 %tmp14 = zext i32 %tmp4 to i64
|
| /external/llvm/test/Analysis/BasicAA/ |
| no-escape-call.ll | 11 %tmp4 = getelementptr [10 x i8*], [10 x i8*]* %arr, i32 0, i32 %i ; <i8**> [#uses=2] 12 store i8* %tmp2, i8** %tmp4, align 4 15 %tmp14 = load i8*, i8** %tmp4, align 4 ; <i8*> [#uses=1]
|
| /external/llvm/test/CodeGen/NVPTX/ |
| bug26185-2.ll | 16 %tmp4 = bitcast i8 addrspace(1)* %arg1 to i64 addrspace(1)* 24 %tmp10 = load i64, i64 addrspace(1)* %tmp4, align 8 26 store i64 %tmp11, i64 addrspace(1)* %tmp4, align 8
|
| /external/llvm/test/Transforms/InstCombine/ |
| bswap.ll | 10 %tmp4 = and i32 %tmp3, 65280 11 %tmp5 = or i32 %tmp1, %tmp4 24 %tmp4 = shl i32 %arg, 8 25 %tmp5 = and i32 %tmp4, 16711680 39 %tmp4 = shl i16 %s, 8 40 %tmp5 = or i16 %tmp2, %tmp4 48 %tmp4 = shl i16 %s, 8 49 %tmp5 = or i16 %tmp4, %tmp2 60 %tmp4 = and i32 %tmp, 255 61 %tmp5 = shl i32 %tmp4, [all...] |
| /external/llvm/test/Transforms/StructurizeCFG/ |
| one-loop-multiple-backedges.ll | 13 %tmp4 = fcmp ult float %arg1, 3.500000e+00 14 ; CHECK: %0 = xor i1 %tmp4, true 16 br i1 %tmp4, label %bb7, label %bb5
|
| /external/clang/test/CodeGen/ |
| arm-neon-fma.c | 15 // CHECK: [[TMP4:%.*]] = bitcast <8 x i8> [[TMP1]] to <2 x float> 17 // CHECK: [[TMP6:%.*]] = call <2 x float> @llvm.fma.v2f32(<2 x float> [[TMP4]], <2 x float> [[TMP5]], <2 x float> [[TMP3]]) #2 28 // CHECK: [[TMP4:%.*]] = bitcast <16 x i8> [[TMP1]] to <4 x float> 30 // CHECK: [[TMP6:%.*]] = call <4 x float> @llvm.fma.v4f32(<4 x float> [[TMP4]], <4 x float> [[TMP5]], <4 x float> [[TMP3]]) #2
|
| /external/libopus/silk/fixed/mips/ |
| prefilter_FIX_mipsr1.h | 51 opus_int32 acc_Q11, acc_Q22, tmp1, tmp2, tmp3, tmp4; local 74 tmp4 = silk_SMLAWB( state_cur, state_next, lambda_Q16 ); 77 tmp3 = silk_SMLAWB( state_next, tmp1 - tmp4, lambda_Q16 ); 78 state[ 1 ] = tmp4; 80 acc_Q22 = silk_SMLAWB( acc_Q22, tmp4, coef_Q13[ 0 ] ); 95 tmp4 = silk_SMLAWB( state_cur, state_next - tmp3, lambda_Q16 ); 99 tmp3 = silk_SMLAWB( state_next, tmp1 - tmp4, lambda_Q16 ); 100 state[ i + 1 ] = tmp4; 101 acc_Q22 = silk_SMLAWB( acc_Q22, tmp4, coef_Q13[ i ] );
|
| /external/llvm/test/CodeGen/AMDGPU/ |
| cndmask-no-def-vcc.ll | 15 %tmp4 = select i1 %c, float %arg, float 1.000000e+00 18 %tmp7 = fcmp olt float %arg, %tmp4 42 %tmp4 = select i1 %undef, float %arg, float 1.000000e+00 45 %tmp7 = fcmp olt float %arg, %tmp4
|
| /external/llvm/test/CodeGen/Generic/ |
| i128-addsub.ll | 7 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1] 8 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1] 26 %tmp4 = shl i128 %tmp23, 64 ; <i128> [#uses=1] 27 %tmp5 = or i128 %tmp4, %tmp1 ; <i128> [#uses=1]
|