/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_TransformResidual4x4_s.S | 34 VSUB.I16 d6,d0,d2 37 VSUB.I16 d7,d7,d3 41 VSUB.I16 d2,d6,d7 42 VSUB.I16 d3,d5,d8 47 VSUB.I16 d6,d0,d2 50 VSUB.I16 d7,d7,d3 54 VSUB.I16 d2,d6,d7 55 VSUB.I16 d3,d5,d8
|
omxVCM4P10_TransformDequantLumaDCFromPair_s.S | 39 VSUB.I16 d6,d0,d1 41 VSUB.I16 d7,d2,d3 44 VSUB.I16 d1,d4,d5 45 VSUB.I16 d2,d6,d7 53 VSUB.I16 d6,d0,d1 54 VSUB.I16 d7,d2,d3 56 VSUB.I16 d1,d4,d5 57 VSUB.I16 d2,d6,d7
|
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S | 54 VSUB.I16 d10,d10,d8 66 VSUB.I16 d12,d12,d8 78 VSUB.I16 d14,d14,d8 90 VSUB.I16 d16,d16,d8 102 VSUB.I16 d18,d18,d8 114 VSUB.I16 d20,d20,d8 126 VSUB.I16 d22,d22,d8 137 VSUB.I16 d24,d24,d8 145 VSUB.I16 d26,d26,d8 152 VSUB.I32 q5,q5,q [all...] |
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S | 77 VSUB.I16 d6,d0,d2 80 VSUB.I16 d7,d7,d3 84 VSUB.I16 d2,d6,d7 85 VSUB.I16 d3,d5,d8 90 VSUB.I16 d6,d0,d2 93 VSUB.I16 d7,d7,d3 97 VSUB.I16 d2,d6,d7 98 VSUB.I16 d3,d5,d8
|
/external/llvm/test/CodeGen/ARM/ |
fsubs.ll | 22 ; VFP2: vsub.f32 s 23 ; NFP1U: vsub.f32 d 24 ; NFP1: vsub.f32 s 25 ; NFP0: vsub.f32 s
|
fmscs.ll | 15 ; A8: vsub.f32 31 ; A8: vsub.f64
|
fnmacs.ll | 15 ; A8: vsub.f32 31 ; A8: vsub.f64
|
fnmscs.ll | 29 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}} 33 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}} 50 ; A8U: vsub.f32 d{{[0-9]}}, d{{[0-9]}}, d{{[0-9]}} 54 ; A8: vsub.f32 s{{[0-9]}}, s{{[0-9]}}, s{{[0-9]}} 71 ; A8U: vsub.f64 d 75 ; A8: vsub.f64 d 92 ; A8U: vsub.f64 d 96 ; A8: vsub.f64 d
|
/external/llvm/test/MC/ARM/ |
neon-sub-encoding.s | 3 vsub.i8 d16, d17, d16 4 vsub.i16 d16, d17, d16 5 vsub.i32 d16, d17, d16 6 vsub.i64 d16, d17, d16 7 vsub.f32 d16, d16, d17 8 vsub.i8 q8, q8, q9 9 vsub.i16 q8, q8, q9 10 vsub.i32 q8, q8, q9 11 vsub.i64 q8, q8, q9 12 vsub.f32 q8, q8, q [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/ |
armVCM4P10_TransformResidual4x4_s.s | 135 VSUB de1,dIn0,dIn2 ;// e1 = d0 - d2 138 VSUB de2,dIn1RS,dIn3 ;// e2 = (d1>>1) - d3 142 VSUB df2,de1,de2 ;// f2 = e1 - e2 143 VSUB df3,de0,de3 ;// f3 = e0 - e3 162 VSUB dg1,df0,df2 ;// e1 = d0 - d2 165 VSUB dg2,df1RS,df3 ;// e2 = (d1>>1) - d3 169 VSUB dh2,dg1,dg2 ;// f2 = e1 - e2 170 VSUB dh3,dg0,dg3 ;// f3 = e0 - e3
|
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.s | 140 VSUB dRes0, dRes0, dTmp0 ;// TeRi 157 VSUB dRes1, dRes1, dTmp0 174 VSUB dRes2, dRes2, dTmp0 191 VSUB dRes3, dRes3, dTmp0 208 VSUB dRes4, dRes4, dTmp0 225 VSUB dRes5, dRes5, dTmp0 242 VSUB dRes6, dRes6, dTmp0 258 VSUB dRes7, dRes7, dTmp0 272 VSUB dRes8, dRes8, dTmp0 284 VSUB qAcc01, qAcc01, qTmp [all...] |
/external/libhevc/common/arm/ |
ihevc_intra_pred_luma_mode_3_to_9.s | 198 vsub.s8 d8, d8, d2 @ref_main_idx (sub row) 199 vsub.s8 d8, d26, d8 @ref_main_idx (row 0) 201 vsub.s8 d9, d8, d2 @ref_main_idx + 1 (row 0) 203 vsub.s8 d7, d28, d6 @32-fract 206 vsub.s8 d4, d8, d2 @ref_main_idx (row 1) 207 vsub.s8 d5, d9, d2 @ref_main_idx + 1 (row 1) 214 vsub.s8 d8, d8, d3 @ref_main_idx (row 2) 215 vsub.s8 d9, d9, d3 @ref_main_idx + 1 (row 2) 224 vsub.s8 d4, d4, d3 @ref_main_idx (row 3) 225 vsub.s8 d5, d5, d3 @ref_main_idx + 1 (row 3 [all...] |
ihevc_intra_pred_chroma_mode_3_to_9.s | 193 vsub.s8 d8, d8, d27 @ref_main_idx (sub row) 194 vsub.s8 d8, d26, d8 @ref_main_idx (row 0) 196 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 198 vsub.s8 d7, d28, d6 @32-fract 201 vsub.s8 d4, d8, d29 @ref_main_idx (row 1) 202 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 211 vsub.s8 d8, d8, d29 @ref_main_idx (row 2) 212 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 221 vsub.s8 d4, d4, d29 @ref_main_idx (row 3) 222 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 3 [all...] |
ihevc_itrans_recon_8x8.s | 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1) 251 vsub.s32 q5,q5,q3 @// a3 = c0 - d0(part of r3,r4) 252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7) 259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5) 262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6) 265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4) 319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4) 320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5) 324 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7 [all...] |
ihevc_sao_band_offset_chroma.s | 290 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 293 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 296 VSUB.I8 D15,D13,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 299 VSUB.I8 D16,D14,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 302 VSUB.I8 D19,D17,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 305 VSUB.I8 D20,D18,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 308 VSUB.I8 D23,D21,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 311 VSUB.I8 D24,D22,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v) 344 VSUB.I8 D7,D5,D31 @vsub_u8(au1_cur_row_deint.val[0], band_pos_u) 347 VSUB.I8 D8,D6,D30 @vsub_u8(au1_cur_row_deint.val[1], band_pos_v [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
vp8_shortwalsh4x4_neon.asm | 42 vsub.s16 d6, d1, d3 ; ip[1] - ip[3] 43 vsub.s16 d7, d0, d2 ; ip[0] - ip[2] 53 vsub.s16 d3, d4, d5 ; op[3] = a1 - d1 55 vsub.s16 d2, d7, d6 ; op[2] = b1 - c1 56 vsub.s16 d0, d0, d16 ; op[0] = a1 + d1 + (a1 != 0) 72 vsub.s32 q2, q11, q10 ; c2 = b1 - c1 73 vsub.s32 q3, q8, q9 ; d2 = a1 - d1 81 vsub.s32 q0, q0, q8 ; a2 += a2 < 0 82 vsub.s32 q1, q1, q9 ; b2 += b2 < 0 83 vsub.s32 q2, q2, q10 ; c2 += c2 < [all...] |
shortfdct_neon.asm | 52 vsub.s16 d6, d1, d2 ; c1 = ip[1] - ip[2] 53 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[3] 59 vsub.s16 d2, d4, d5 ; op[2] = a1 - b1 82 vsub.s16 d6, d1, d2 ; c1 = ip[4] - ip[8] 84 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[12] 87 vsub.s16 d2, d4, d5 ; op[8] = a1 - b1 + 7 102 vsub.s16 d1, d1, d4 ; op[4] += (d1!=0) 132 vsub.s16 q13, q1, q2 ; c1 = ip[1] - ip[2] 133 vsub.s16 q14, q0, q3 ; d1 = ip[0] - ip[3] 141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b [all...] |
/frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
R4R8First_v7.s | 45 VSUB.S32 d5, d0, d1 @ r1 = buf[0] - buf[2]@i1 = buf[1] - buf[3]@ 46 VSUB.S32 d7, d2, d3 @ r2 = buf[4] - buf[6]@i2 = buf[5] - buf[7]@ 51 VSUB.S32 Q1, Q2, Q3 @ r5 = (r0 - r2)@i5 = (i0 - i2)@r6 = (r1 - i3)@i7 = (i1 - r3)@ 56 VSUB.S32 d7, d10, d11 @ r1 = buf[12] - buf[14]@i1 = buf[13] - buf[15]@ 59 VSUB.S32 d5, d8, d9 @ r3 = buf[ 8] - buf[10]@i3 = buf[ 9] - buf[11]@ 64 VSUB.S32 Q5, Q2, Q3 @ t2 = (r0 - r2) >> 1@t3 = (i0 - i2) >> 1@r0 = r1 - i3@i2 = i1 - r3@ 79 VSUB.S32 d16, d0, d8 81 VSUB.S32 d18, d2, d10 83 VSUB.S32 d4, d11, d9 93 VSUB.S32 d15, d3, d [all...] |
Radix4FFT_v7.s | 70 VSUB.S32 Q3, Q12, Q13 @ MULHIGH(cosx, t1) - MULHIGH(sinx, t0) 76 VSUB.S32 Q0, Q10, Q2 @ r0 = t0 - r2@ 77 VSUB.S32 Q1, Q11, Q3 @ r1 = t1 - r3@ 91 VSUB.S32 Q9, Q12, Q13 @ MULHIGH(cosx, t1) - MULHIGH(sinx, t0) 102 VSUB.S32 Q7, Q12, Q13 @ MULHIGH(cosx, t1) - MULHIGH(sinx, t0) 105 VSUB.S32 Q5, Q7, Q9 @ r5 = r7 - t1@ 106 VSUB.S32 Q6, Q8, Q6 @ r6 = t0 - r6@ 113 VSUB.S32 Q10, Q2, Q4 @ xptr[0] = r2 - r4@ 115 VSUB.S32 Q11, Q3, Q7 @ xptr[1] = r3 - r7@ 118 VSUB.S32 Q8, Q0, Q5 @ xptr[0] = r0 - r5 [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
iwalsh_neon.asm | 27 vsub.s16 d5, d0, d3 ;d = [0] - [12] 28 vsub.s16 d7, d1, d2 ;c = [4] - [8] 31 vsub.s16 q1, q2, q3 ; a-b d-c 47 vsub.s16 d5, d0, d3 ;d = [0] - [3] 48 vsub.s16 d7, d1, d2 ;c = [1] - [2] 53 vsub.s16 q1, q2, q3 ; a-b d-c
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
idct16x16_add_neon.asm | 170 vsub.s32 q13, q2, q0 171 vsub.s32 q1, q11, q1 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]; 208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]; 218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2]; 219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3]; 232 vsub.s32 q6, q9, q11 233 vsub.s32 q13, q10, q12 252 vsub.s16 q12, q3, q4 ; step2[4] = step1[3] - step1[4]; 253 vsub.s16 q13, q2, q5 ; step2[5] = step1[2] - step1[5] [all...] |
idct8x8_add_neon.asm | 136 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2] 137 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] 143 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] 145 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7] 177 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 178 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5]; 179 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6]; 180 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7]; 412 vsub.s16 q2, q9, q13 ; output[2] = step[1] - step[2] 413 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3 [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_idct16x16_add_neon.asm | 170 vsub.s32 q13, q2, q0 171 vsub.s32 q1, q11, q1 206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]; 208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]; 218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2]; 219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3]; 232 vsub.s32 q6, q9, q11 233 vsub.s32 q13, q10, q12 252 vsub.s16 q12, q3, q4 ; step2[4] = step1[3] - step1[4]; 253 vsub.s16 q13, q2, q5 ; step2[5] = step1[2] - step1[5] [all...] |
vp9_iht8x8_add_neon.asm | 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2] 235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3] 241 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] 243 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7] 275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 276 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5]; 277 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6]; 278 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7]; 333 vsub.s32 q1, q1, q5 334 vsub.s32 q2, q2, q [all...] |
/external/llvm/test/MC/Hexagon/ |
v60-alu.s | 29 #CHECK: 1cb4cabe { v31:30.h = vsub(v10.ub,{{ *}}v20.ub) } 30 v31:30.h=vsub(v10.ub,v20.ub) 32 #CHECK: 1cb8cada { v27:26.w = vsub(v10.uh,{{ *}}v24.uh) } 33 v27:26.w=vsub(v10.uh,v24.uh) 35 #CHECK: 1cbcdbe8 { v9:8.w = vsub(v27.h,{{ *}}v28.h) } 36 v9:8.w=vsub(v27.h,v28.h) 38 #CHECK: 1caeca00 { v1:0.h = vsub(v11:10.h,{{ *}}v15:14.h):sat } 39 v1:0.h=vsub(v11:10.h,v15:14.h):sat 41 #CHECK: 1ca8c43e { v31:30.w = vsub(v5:4.w,{{ *}}v9:8.w):sat } 42 v31:30.w=vsub(v5:4.w,v9:8.w):sa [all...] |