/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
vp8_shortwalsh4x4_neon.asm | 40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2] 41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3] 51 vadd.s16 d0, d4, d5 ; a1 + d1 54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1 70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1 71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1 86 vadd.s32 q8, q0, q15 ; a2 + 3 87 vadd.s32 q9, q1, q15 ; b2 + 3 88 vadd.s32 q10, q2, q15 ; c2 + 3 89 vadd.s32 q11, q3, q15 ; d2 + [all...] |
shortfdct_neon.asm | 50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3] 51 vadd.s16 d5, d1, d2 ; b1 = ip[1] + ip[2] 58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12] 81 vadd.s16 d5, d1, d2 ; b1 = ip[4] + ip[8] 83 vadd.s16 d4, d4, d26 ; a1 + 7 86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7 130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3] 131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2] 140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b [all...] |
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 82 vadd.u16 q2, q2, q3 84 vadd.u16 d4, d4, d5 99 vadd.u32 q10, q10, q11 100 vadd.u32 q11, q12, q13 101 vadd.u32 q10, q10, q11 102 vadd.u32 d20, d20, d21
|
ideint_cac_a9.s | 141 vadd.u16 d20, d20, d21 149 vadd.u32 q0, q0, q2 150 vadd.u32 d21, d0, d1 175 vadd.u16 d20, d0, d20 194 vadd.u32 d21, d0, d21 201 vadd.u32 d21, d21, d0 205 vadd.u32 d21, d21, d0
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
omxVCM4P10_PredictIntraChroma_8x8_s.S | 71 VADD.I32 d2,d3,d1 79 VADD.I8 d6,d6,d5 179 VADD.I32 d3,d3,d2 189 VADD.I16 q2,q2,q0 198 VADD.I16 q0,q2,q0 199 VADD.I16 q1,q2,q1 200 VADD.I16 q4,q2,q4 201 VADD.I16 q5,q2,q5 202 VADD.I16 q6,q2,q6 203 VADD.I16 q7,q2,q [all...] |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 89 VADD.I16 d27,d27,d28 91 VADD.I16 d26,d26,d19 99 VADD.I16 d27,d27,d28 100 VADD.I16 d26,d26,d21 108 VADD.I16 d27,d27,d28 109 VADD.I16 d26,d8,d23 114 VADD.I16 d27,d27,d28 119 VADD.I16 d8,d8,d25
|
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S | 76 VADD.I16 d5,d0,d2 81 VADD.I16 d8,d1,d8 82 VADD.I16 d0,d5,d8 83 VADD.I16 d1,d6,d7 89 VADD.I16 d5,d0,d2 94 VADD.I16 d8,d1,d8 95 VADD.I16 d0,d5,d8 96 VADD.I16 d1,d6,d7
|
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S | 60 VADD.I16 d0,d0,d20 61 VADD.I16 d2,d2,d21 62 VADD.I16 d4,d4,d22
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 67 vadd.u32 q10, q9, q10 ;accumulate sse 73 vadd.s64 d0, d0, d1 74 vadd.u64 d1, d2, d3 137 vadd.u32 q10, q9, q10 ;accumulate sse 143 vadd.s64 d0, d0, d1 144 vadd.u64 d1, d2, d3 192 vadd.u32 q10, q9, q10 ;accumulate sse 198 vadd.s64 d0, d0, d1 199 vadd.u64 d1, d2, d3 257 vadd.u32 q10, q9, q10 ;accumulate ss [all...] |
/external/llvm/test/CodeGen/ARM/ |
fmacs.ll | 17 ; A8: vadd.f32 33 ; A8: vadd.f64 49 ; A8: vadd.f32 62 ; A8: vadd.f32 63 ; A8: vadd.f32 87 ; A8: vadd.f32 88 ; A8: vadd.f32 93 ; A9: vadd.f32 98 ; HARD: vadd.f32 s0, s4, s0
|
v7k-sincos.ll | 10 ; CHECK: vadd.f64 d0, d0, d1
|
deps-fix.ll | 10 ; CHECK: vadd.f32 18 ; CHECK: vadd.i32
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/ |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.s | 217 VADD dTempC0, dTempC0, dTempD0 222 VADD dTempB0, dTempB0, dTempP1 232 VADD dTempC0, dTempC0, dTempD0 233 VADD dTempB0, dTempB0, dTempQ1 242 VADD dTempC0, dTempC0, dTempD0 245 VADD dTempB0, dTmp, dTempR1 248 ; VADD dTempB0, dTempB0, dTempR1 253 VADD dTempC0, dTempC0, dTempD0 258 VADD dTmp, dTmp, dTempS1
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
idct16x16_add_neon.asm | 166 vadd.s32 q3, q2, q0 167 vadd.s32 q12, q11, q1 207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 236 vadd.s32 q9, q9, q11 237 vadd.s32 q10, q10, q12 248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7]; 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6] [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_idct16x16_add_neon.asm | 166 vadd.s32 q3, q2, q0 167 vadd.s32 q12, q11, q1 207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]; 209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7]; 216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3]; 217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2]; 236 vadd.s32 q9, q9, q11 237 vadd.s32 q10, q10, q12 248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7]; 249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6] [all...] |
/external/libhevc/common/arm/ |
ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 304 vadd.u8 d27,d27,d29 307 vadd.s8 d8, d8, d27 @ref_main_idx (add row) 309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0) 314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1) 315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1) 325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2) 326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2) 335 vadd.s8 d4, d4, d29 @ref_main_idx (row 3) 336 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3) 346 vadd.s8 d8, d8, d29 @ref_main_idx (row 4 [all...] |
ihevc_itrans_recon_8x8.s | 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1) 250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7) 253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0) 258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2) 261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1) 264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3) 318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7) 321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6) 323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0 [all...] |
/external/llvm/test/MC/Hexagon/ |
v60-alu.s | 26 #CHECK: 1caacf90 { v17:16.w = vadd(v15.h,{{ *}}v10.h) } 27 v17:16.w=vadd(v15.h,v10.h) 44 #CHECK: 1cbad95c { v29:28.h = vadd(v25.ub,{{ *}}v26.ub) } 45 v29:28.h=vadd(v25.ub,v26.ub) 47 #CHECK: 1ca1dc64 { v5:4.w = vadd(v28.uh,{{ *}}v1.uh) } 48 v5:4.w=vadd(v28.uh,v1.uh) 68 #CHECK: 1c4dc78b { v11.w = vadd(v7.w,{{ *}}v13.w):sat } 69 v11.w=vadd(v7.w,v13.w):sat 77 #CHECK: 1c76dc98 { v25:24.b = vadd(v29:28.b,{{ *}}v23:22.b) } 78 v25:24.b=vadd(v29:28.b,v23:22.b [all...] |
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/mips/ |
r5900-full-vu0.s | 9 vadd.xyzw $vf10xyzw,$vf31xyzw,$vf0xyzw 143 vadd.xyzw $vf10,$vf31,$vf0 144 vadd.xy $vf10,$vf31,$vf0 145 vadd.xyzw $vf10,$vf31,$vf0 149 vadd.xyzw $vf0,$vf1,$vf2 150 vadd.xyzw $vf3,$vf4,$vf5 151 vadd.xyzw $vf6,$vf7,$vf8 152 vadd.xyzw $vf9,$vf10,$vf11 153 vadd.xyzw $vf12,$vf13,$vf14 154 vadd.xyzw $vf15,$vf16,$vf1 [all...] |
/frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/ |
Radix4FFT_v7.s | 69 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 78 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@ 79 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@ 90 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 101 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1) 104 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@ 107 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@ 109 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@ 110 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@ 123 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4 [all...] |
/external/boringssl/src/crypto/chacha/ |
chacha_vec_arm.S | 157 vadd.i32 q3, q11, q0 206 vadd.i32 q9, q9, q1 208 vadd.i32 q10, q10, q5 218 vadd.i32 q8, q8, q3 220 vadd.i32 q15, q15, q2 241 vadd.i32 q9, q9, q1 245 vadd.i32 q10, q10, q5 268 vadd.i32 q4, q8, q3 270 vadd.i32 q15, q15, q2 306 vadd.i32 q9, q9, q [all...] |
/external/libjpeg-turbo/simd/ |
jsimd_arm_neon.S | 263 vadd.s16 d4, ROW7L, ROW3L 264 vadd.s16 d5, ROW5L, ROW1L 284 vadd.s32 q1, q3, q2 287 vadd.s32 q1, q1, q6 307 vadd.s32 q1, q3, q5 319 vadd.s32 q2, q5, q6 322 vadd.s32 q6, q2, q7 325 vadd.s32 q5, q1, q4 338 vadd.s16 d10, ROW7R, ROW3R 339 vadd.s16 d8, ROW5R, ROW1 [all...] |
/external/llvm/test/MC/ARM/ |
neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d1 [all...] |
neont2-add-encoding.s | 5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08] 6 vadd.i8 d16, d17, d16 7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08] 8 vadd.i16 d16, d17, d16 9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08] 10 vadd.i64 d16, d17, d16 11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08] 12 vadd.i32 d16, d17, d16 13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d] 14 vadd.f32 d16, d16, d1 [all...] |
/external/boringssl/linux-arm/crypto/bn/ |
armv4-mont.S | 208 vadd.u64 d10,d10,d12 241 vadd.u64 d10,d10,d11 253 vadd.u64 d12,d12,d10 261 vadd.u64 d10,d10,d12 289 vadd.u64 d10,d10,d11 296 vadd.u64 d12,d12,d10 300 vadd.u64 d13,d13,d10 358 vadd.u64 d10,d10,d11 376 vadd.u64 d12,d12,d10 387 vadd.u64 d10,d10,d1 [all...] |