HomeSort by relevance Sort by last modified time
    Searched full:vadd (Results 1 - 25 of 173) sorted by null

1 2 3 4 5 6 7

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_TransformResidual4x4_s.S 19 VADD.I16 d5,d0,d2
24 VADD.I16 d8,d1,d8
25 VADD.I16 d0,d5,d8
26 VADD.I16 d1,d6,d7
32 VADD.I16 d5,d0,d2
37 VADD.I16 d8,d1,d8
38 VADD.I16 d0,d5,d8
39 VADD.I16 d1,d6,d7
omxVCM4P10_TransformDequantLumaDCFromPair_s.S 23 VADD.I16 d4,d0,d1
24 VADD.I16 d5,d2,d3
29 VADD.I16 d0,d4,d5
33 VADD.I16 d3,d6,d7
37 VADD.I16 d4,d0,d1
38 VADD.I16 d5,d2,d3
41 VADD.I16 d0,d4,d5
44 VADD.I16 d3,d6,d7
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S 62 VADD.I16 d5,d0,d2
67 VADD.I16 d8,d1,d8
68 VADD.I16 d0,d5,d8
69 VADD.I16 d1,d6,d7
75 VADD.I16 d5,d0,d2
80 VADD.I16 d8,d1,d8
81 VADD.I16 d0,d5,d8
82 VADD.I16 d1,d6,d7
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 46 VADD.I16 d0,d0,d20
47 VADD.I16 d2,d2,d21
48 VADD.I16 d4,d4,d22
omxVCM4P10_PredictIntraChroma_8x8_s.S 57 VADD.I32 d2,d3,d1
65 VADD.I8 d6,d6,d5
165 VADD.I32 d3,d3,d2
175 VADD.I16 q2,q2,q0
184 VADD.I16 q0,q2,q0
185 VADD.I16 q1,q2,q1
186 VADD.I16 q4,q2,q4
187 VADD.I16 q5,q2,q5
188 VADD.I16 q6,q2,q6
189 VADD.I16 q7,q2,q
    [all...]
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 75 VADD.I16 d27,d27,d28
77 VADD.I16 d26,d26,d19
85 VADD.I16 d27,d27,d28
86 VADD.I16 d26,d26,d21
94 VADD.I16 d27,d27,d28
95 VADD.I16 d26,d8,d23
100 VADD.I16 d27,d27,d28
105 VADD.I16 d8,d8,d25
  /external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
sha512-armv4.S 463 vadd.i64 d27,d28,d23
469 vadd.i64 d27,d24
471 vadd.i64 d27,d29
477 vadd.i64 d27,d0
484 vadd.i64 d23,d27
485 vadd.i64 d19,d27
486 vadd.i64 d23,d30
500 vadd.i64 d27,d28,d22
506 vadd.i64 d27,d24
508 vadd.i64 d27,d2
    [all...]
  /external/openssl/crypto/sha/asm/
sha512-armv4.S 463 vadd.i64 d27,d28,d23
469 vadd.i64 d27,d24
471 vadd.i64 d27,d29
477 vadd.i64 d27,d0
484 vadd.i64 d23,d27
485 vadd.i64 d19,d27
486 vadd.i64 d23,d30
500 vadd.i64 d27,d28,d22
506 vadd.i64 d27,d24
508 vadd.i64 d27,d2
    [all...]
  /external/llvm/test/CodeGen/ARM/
fadds.ll 15 ; VFP2: vadd.f32 s
18 ; NFP1: vadd.f32 d
20 ; NFP0: vadd.f32 s
23 ; CORTEXA8: vadd.f32 s
25 ; CORTEXA8U: vadd.f32 d
27 ; CORTEXA9: vadd.f32 s
neon_arith1.ll 1 ; RUN: llc < %s -march=arm -mattr=+neon | grep vadd
fmacs.ll 17 ; A8: vadd.f32
33 ; A8: vadd.f64
49 ; A8: vadd.f32
62 ; A8: vadd.f32
63 ; A8: vadd.f32
87 ; A8: vadd.f32
88 ; A8: vadd.f32
93 ; A9: vadd.f32
98 ; HARD: vadd.f32 s0, s4, s0
deps-fix.ll 10 ; CHECK: vadd.f32
18 ; CHECK: vadd.i32
  /external/chromium_org/third_party/openssl/openssl/crypto/chacha/
chacha_vec_arm.S 109 vadd.i32 q8, q10, q9
174 vadd.i32 q4, q4, q0
176 vadd.i32 q2, q2, q3
187 vadd.i32 q1, q1, q5
188 vadd.i32 q15, q15, q8
210 vadd.i32 q4, q4, q7
212 vadd.i32 q2, q2, q6
237 vadd.i32 q1, q1, q3
238 vadd.i32 q15, q15, q14
273 vadd.i32 q4, q4, q
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
iwalsh_neon.asm 25 vadd.s16 d4, d0, d3 ;a = [0] + [12]
26 vadd.s16 d6, d1, d2 ;b = [4] + [8]
30 vadd.s16 q0, q2, q3 ; a+b d+c
45 vadd.s16 d4, d0, d3 ;a = [0] + [3]
46 vadd.s16 d6, d1, d2 ;b = [1] + [2]
52 vadd.s16 q0, q2, q3 ; a+b d+c
55 vadd.i16 q0, q0, q8 ;e/f += 3
56 vadd.i16 q1, q1, q8 ;g/h += 3
variance_neon.asm 67 vadd.u32 q10, q9, q10 ;accumulate sse
73 vadd.s64 d0, d0, d1
74 vadd.u64 d1, d2, d3
137 vadd.u32 q10, q9, q10 ;accumulate sse
143 vadd.s64 d0, d0, d1
144 vadd.u64 d1, d2, d3
192 vadd.u32 q10, q9, q10 ;accumulate sse
198 vadd.s64 d0, d0, d1
199 vadd.u64 d1, d2, d3
257 vadd.u32 q10, q9, q10 ;accumulate ss
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 62 vadd.u32 q7, q7, q8
63 vadd.u32 q9, q9, q10
67 vadd.u32 q10, q7, q9
69 vadd.u64 d0, d2, d3
104 vadd.u32 q7, q7, q8
105 vadd.u32 q9, q9, q10
106 vadd.u32 q9, q7, q9
109 vadd.u64 d0, d2, d3
vp8_shortwalsh4x4_neon.asm 40 vadd.s16 d4, d0, d2 ; ip[0] + ip[2]
41 vadd.s16 d5, d1, d3 ; ip[1] + ip[3]
51 vadd.s16 d0, d4, d5 ; a1 + d1
54 vadd.s16 d1, d7, d6 ; op[1] = b1 + c1
70 vadd.s32 q0, q8, q9 ; a2 = a1 + d1
71 vadd.s32 q1, q11, q10 ; b2 = b1 + c1
86 vadd.s32 q8, q0, q15 ; a2 + 3
87 vadd.s32 q9, q1, q15 ; b2 + 3
88 vadd.s32 q10, q2, q15 ; c2 + 3
89 vadd.s32 q11, q3, q15 ; d2 +
    [all...]
shortfdct_neon.asm 50 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[3]
51 vadd.s16 d5, d1, d2 ; b1 = ip[1] + ip[2]
58 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1
80 vadd.s16 d4, d0, d3 ; a1 = ip[0] + ip[12]
81 vadd.s16 d5, d1, d2 ; b1 = ip[4] + ip[8]
83 vadd.s16 d4, d4, d26 ; a1 + 7
86 vadd.s16 d0, d4, d5 ; op[0] = a1 + b1 + 7
130 vadd.s16 q11, q0, q3 ; a1 = ip[0] + ip[3]
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_TransformResidual4x4_s.s 120 VADD de0,dIn0,dIn2 ;// e0 = d0 + d2
125 VADD de3,dIn1,dIn3RS ;// e3 = d1 + (d3>>1)
126 VADD df0,de0,de3 ;// f0 = e0 + e3
127 VADD df1,de1,de2 ;// f1 = e1 + e2
147 VADD dg0,df0,df2 ;// e0 = d0 + d2
152 VADD dg3,df1,df3RS ;// e3 = d1 + (d3>>1)
153 VADD dh0,dg0,dg3 ;// f0 = e0 + e3
154 VADD dh1,dg1,dg2 ;// f1 = e1 + e2
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.s 203 VADD dTempC0, dTempC0, dTempD0
208 VADD dTempB0, dTempB0, dTempP1
218 VADD dTempC0, dTempC0, dTempD0
219 VADD dTempB0, dTempB0, dTempQ1
228 VADD dTempC0, dTempC0, dTempD0
231 VADD dTempB0, dTmp, dTempR1
234 ; VADD dTempB0, dTempB0, dTempR1
239 VADD dTempC0, dTempC0, dTempD0
244 VADD dTmp, dTmp, dTempS1
omxVCM4P10_TransformDequantLumaDCFromPair_s.s 138 VADD dRowSum1,dIn0,dIn1
139 VADD dRowSum2,dIn2,dIn3
144 VADD dRowOp0,dRowSum1,dRowSum2
148 VADD dRowOp3,dRowDiff1,dRowDiff2
162 VADD dColSum1,dRowOp0,dRowOp1
163 VADD dColSum2,dRowOp2,dRowOp3
166 VADD dColOp0,dColSum1,dColSum2
169 VADD dColOp3,dColDiff1,dColDiff2
  /external/libyuv/files/source/
compare_neon.cc 41 "vadd.u32 q8, q8, q9 \n"
42 "vadd.u32 q10, q10, q11 \n"
43 "vadd.u32 q11, q8, q10 \n"
45 "vadd.u64 d0, d2, d3 \n"
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
R4R8First_v7.s 44 VADD.S32 d4, d0, d1 @ r0 = buf[0] + buf[2]@i0 = buf[1] + buf[3]@
47 VADD.S32 d6, d2, d3 @ r3 = buf[4] + buf[6]@i3 = buf[5] + buf[7]@
50 VADD.S32 Q0, Q2, Q3 @ r4 = (r0 + r2)@i4 = (i0 + i2)@i6 = (i1 + r3)@r7 = (r1 + i3)
55 VADD.S32 d4, d8, d9 @ r0 = buf[ 8] + buf[10]@i0 = buf[ 9] + buf[11]@
57 VADD.S32 d6, d10, d11 @ r2 = buf[12] + buf[14]@i2 = buf[13] + buf[15]@
63 VADD.S32 Q4, Q2, Q3 @ t0 = (r0 + r2) >> 1@t1 = (i0 + i2) >> 1@i0 = i1 + r3@r2 = r1 + i3@
78 VADD.S32 d12, d0, d8
80 VADD.S32 d14, d2, d10
84 VADD.S32 d5, d11, d9
95 VADD.S32 d19, d3, d
    [all...]
Radix4FFT_v7.s 69 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
78 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@
79 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@
90 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
101 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
104 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@
107 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@
109 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@
110 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@
123 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_short_idct16x16_add_neon.asm 166 vadd.s32 q3, q2, q0
167 vadd.s32 q12, q11, q1
207 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5];
209 vadd.s16 q15, q6, q7 ; step2[7] = step1[6] + step1[7];
216 vadd.s16 q0, q8, q11 ; step1[0] = step2[0] + step2[3];
217 vadd.s16 q1, q9, q10 ; step1[1] = step2[1] + step2[2];
236 vadd.s32 q9, q9, q11
237 vadd.s32 q10, q10, q12
248 vadd.s16 q8, q0, q15 ; step2[0] = step1[0] + step1[7];
249 vadd.s16 q9, q1, q6 ; step2[1] = step1[1] + step1[6]
    [all...]

Completed in 511 milliseconds

1 2 3 4 5 6 7