HomeSort by relevance Sort by last modified time
    Searched full:vadd (Results 26 - 50 of 296) sorted by null

12 3 4 5 6 7 8 91011>>

  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
vp8_shortwalsh4x4_neon.asm 40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2]
41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3]
51 vadd.s16 d0, d4, d5 ; a1 + d1
54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1
70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1
71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1
86 vadd.s32 q8, q0, q15 ; a2 + 3
87 vadd.s32 q9, q1, q15 ; b2 + 3
88 vadd.s32 q10, q2, q15 ; c2 + 3
89 vadd.s32 q11, q3, q15 ; d2 +
    [all...]
shortfdct_neon.asm 50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3]
51 vadd.s16 d5, d1, d2 ; b1 = ip[1] + ip[2]
58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1
80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12]
81 vadd.s16 d5, d1, d2 ; b1 = ip[4] + ip[8]
83 vadd.s16 d4, d4, d26 ; a1 + 7
86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7
130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3]
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b
    [all...]
  /external/libmpeg2/common/arm/
icv_variance_a9.s 82 vadd.u16 q2, q2, q3
84 vadd.u16 d4, d4, d5
99 vadd.u32 q10, q10, q11
100 vadd.u32 q11, q12, q13
101 vadd.u32 q10, q10, q11
102 vadd.u32 d20, d20, d21
ideint_cac_a9.s 141 vadd.u16 d20, d20, d21
149 vadd.u32 q0, q0, q2
150 vadd.u32 d21, d0, d1
175 vadd.u16 d20, d0, d20
194 vadd.u32 d21, d0, d21
201 vadd.u32 d21, d21, d0
205 vadd.u32 d21, d21, d0
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
omxVCM4P10_PredictIntraChroma_8x8_s.S 71 VADD.I32 d2,d3,d1
79 VADD.I8 d6,d6,d5
179 VADD.I32 d3,d3,d2
189 VADD.I16 q2,q2,q0
198 VADD.I16 q0,q2,q0
199 VADD.I16 q1,q2,q1
200 VADD.I16 q4,q2,q4
201 VADD.I16 q5,q2,q5
202 VADD.I16 q6,q2,q6
203 VADD.I16 q7,q2,q
    [all...]
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 89 VADD.I16 d27,d27,d28
91 VADD.I16 d26,d26,d19
99 VADD.I16 d27,d27,d28
100 VADD.I16 d26,d26,d21
108 VADD.I16 d27,d27,d28
109 VADD.I16 d26,d8,d23
114 VADD.I16 d27,d27,d28
119 VADD.I16 d8,d8,d25
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S 76 VADD.I16 d5,d0,d2
81 VADD.I16 d8,d1,d8
82 VADD.I16 d0,d5,d8
83 VADD.I16 d1,d6,d7
89 VADD.I16 d5,d0,d2
94 VADD.I16 d8,d1,d8
95 VADD.I16 d0,d5,d8
96 VADD.I16 d1,d6,d7
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 60 VADD.I16 d0,d0,d20
61 VADD.I16 d2,d2,d21
62 VADD.I16 d4,d4,d22
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
variance_neon.asm 67 vadd.u32 q10, q9, q10 ;accumulate sse
73 vadd.s64 d0, d0, d1
74 vadd.u64 d1, d2, d3
137 vadd.u32 q10, q9, q10 ;accumulate sse
143 vadd.s64 d0, d0, d1
144 vadd.u64 d1, d2, d3
192 vadd.u32 q10, q9, q10 ;accumulate sse
198 vadd.s64 d0, d0, d1
199 vadd.u64 d1, d2, d3
257 vadd.u32 q10, q9, q10 ;accumulate ss
    [all...]
  /external/llvm/test/CodeGen/ARM/
fmacs.ll 17 ; A8: vadd.f32
33 ; A8: vadd.f64
49 ; A8: vadd.f32
62 ; A8: vadd.f32
63 ; A8: vadd.f32
87 ; A8: vadd.f32
88 ; A8: vadd.f32
93 ; A9: vadd.f32
98 ; HARD: vadd.f32 s0, s4, s0
v7k-sincos.ll 10 ; CHECK: vadd.f64 d0, d0, d1
deps-fix.ll 10 ; CHECK: vadd.f32
18 ; CHECK: vadd.i32
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.s 217 VADD dTempC0, dTempC0, dTempD0
222 VADD dTempB0, dTempB0, dTempP1
232 VADD dTempC0, dTempC0, dTempD0
233 VADD dTempB0, dTempB0, dTempQ1
242 VADD dTempC0, dTempC0, dTempD0
245 VADD dTempB0, dTmp, dTempR1
248 ; VADD dTempB0, dTempB0, dTempR1
253 VADD dTempC0, dTempC0, dTempD0
258 VADD dTmp, dTmp, dTempS1
  /external/libvpx/libvpx/vpx_dsp/arm/
idct16x16_add_neon.asm 166 vadd.s32 q3, q2, q0
167 vadd.s32 q12, q11, q1
207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5];
209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7];
216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3];
217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2];
236 vadd.s32 q9, q9, q11
237 vadd.s32 q10, q10, q12
248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7];
249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6]
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_idct16x16_add_neon.asm 166 vadd.s32 q3, q2, q0
167 vadd.s32 q12, q11, q1
207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5];
209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7];
216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3];
217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2];
236 vadd.s32 q9, q9, q11
237 vadd.s32 q10, q10, q12
248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7];
249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6]
    [all...]
  /external/libhevc/common/arm/
ihevc_intra_pred_filters_chroma_mode_11_to_17.s 304 vadd.u8 d27,d27,d29
307 vadd.s8 d8, d8, d27 @ref_main_idx (add row)
309 vadd.s8 d9, d8, d29 @ref_main_idx + 1 (row 0)
314 vadd.s8 d4, d8, d29 @ref_main_idx (row 1)
315 vadd.s8 d5, d9, d29 @ref_main_idx + 1 (row 1)
325 vadd.s8 d8, d8, d29 @ref_main_idx (row 2)
326 vadd.s8 d9, d9, d29 @ref_main_idx + 1 (row 2)
335 vadd.s8 d4, d4, d29 @ref_main_idx (row 3)
336 vadd.s8 d5, d5, d29 @ref_main_idx + 1 (row 3)
346 vadd.s8 d8, d8, d29 @ref_main_idx (row 4
    [all...]
ihevc_itrans_recon_8x8.s 242 vadd.s32 q5,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
250 vadd.s32 q7,q5,q3 @// a0 = c0 + d0(part of r0,r7)
253 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
261 vadd.s32 q14,q9,q13 @// a1 + b1(part of r1)
264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
318 vadd.s32 q7,q10,q3 @// a0 = c0 + d0(part of r0,r7)
321 vadd.s32 q9,q10,q9 @// a1 = c1 + d1(part of r1,r6)
323 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0
    [all...]
  /external/llvm/test/MC/Hexagon/
v60-alu.s 26 #CHECK: 1caacf90 { v17:16.w = vadd(v15.h,{{ *}}v10.h) }
27 v17:16.w=vadd(v15.h,v10.h)
44 #CHECK: 1cbad95c { v29:28.h = vadd(v25.ub,{{ *}}v26.ub) }
45 v29:28.h=vadd(v25.ub,v26.ub)
47 #CHECK: 1ca1dc64 { v5:4.w = vadd(v28.uh,{{ *}}v1.uh) }
48 v5:4.w=vadd(v28.uh,v1.uh)
68 #CHECK: 1c4dc78b { v11.w = vadd(v7.w,{{ *}}v13.w):sat }
69 v11.w=vadd(v7.w,v13.w):sat
77 #CHECK: 1c76dc98 { v25:24.b = vadd(v29:28.b,{{ *}}v23:22.b) }
78 v25:24.b=vadd(v29:28.b,v23:22.b
    [all...]
  /toolchain/binutils/binutils-2.25/gas/testsuite/gas/mips/
r5900-full-vu0.s 9 vadd.xyzw $vf10xyzw,$vf31xyzw,$vf0xyzw
143 vadd.xyzw $vf10,$vf31,$vf0
144 vadd.xy $vf10,$vf31,$vf0
145 vadd.xyzw $vf10,$vf31,$vf0
149 vadd.xyzw $vf0,$vf1,$vf2
150 vadd.xyzw $vf3,$vf4,$vf5
151 vadd.xyzw $vf6,$vf7,$vf8
152 vadd.xyzw $vf9,$vf10,$vf11
153 vadd.xyzw $vf12,$vf13,$vf14
154 vadd.xyzw $vf15,$vf16,$vf1
    [all...]
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
Radix4FFT_v7.s 69 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
78 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@
79 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@
90 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
101 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
104 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@
107 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@
109 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@
110 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@
123 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4
    [all...]
  /external/boringssl/src/crypto/chacha/
chacha_vec_arm.S 157 vadd.i32 q3, q11, q0
206 vadd.i32 q9, q9, q1
208 vadd.i32 q10, q10, q5
218 vadd.i32 q8, q8, q3
220 vadd.i32 q15, q15, q2
241 vadd.i32 q9, q9, q1
245 vadd.i32 q10, q10, q5
268 vadd.i32 q4, q8, q3
270 vadd.i32 q15, q15, q2
306 vadd.i32 q9, q9, q
    [all...]
  /external/libjpeg-turbo/simd/
jsimd_arm_neon.S 263 vadd.s16 d4, ROW7L, ROW3L
264 vadd.s16 d5, ROW5L, ROW1L
284 vadd.s32 q1, q3, q2
287 vadd.s32 q1, q1, q6
307 vadd.s32 q1, q3, q5
319 vadd.s32 q2, q5, q6
322 vadd.s32 q6, q2, q7
325 vadd.s32 q5, q1, q4
338 vadd.s16 d10, ROW7R, ROW3R
339 vadd.s16 d8, ROW5R, ROW1
    [all...]
  /external/llvm/test/MC/ARM/
neon-add-encoding.s 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2]
5 vadd.i8 d16, d17, d16
6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2]
7 vadd.i16 d16, d17, d16
8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2]
9 vadd.i64 d16, d17, d16
10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2]
11 vadd.i32 d16, d17, d16
12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2]
13 vadd.f32 d16, d16, d1
    [all...]
neont2-add-encoding.s 5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08]
6 vadd.i8 d16, d17, d16
7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08]
8 vadd.i16 d16, d17, d16
9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08]
10 vadd.i64 d16, d17, d16
11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08]
12 vadd.i32 d16, d17, d16
13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d]
14 vadd.f32 d16, d16, d1
    [all...]
  /external/boringssl/linux-arm/crypto/bn/
armv4-mont.S 208 vadd.u64 d10,d10,d12
241 vadd.u64 d10,d10,d11
253 vadd.u64 d12,d12,d10
261 vadd.u64 d10,d10,d12
289 vadd.u64 d10,d10,d11
296 vadd.u64 d12,d12,d10
300 vadd.u64 d13,d13,d10
358 vadd.u64 d10,d10,d11
376 vadd.u64 d12,d12,d10
387 vadd.u64 d10,d10,d1
    [all...]

Completed in 2061 milliseconds

12 3 4 5 6 7 8 91011>>