HomeSort by relevance Sort by last modified time
    Searched full:vadd (Results 1 - 25 of 127) sorted by null

1 2 3 4 5 6

  /frameworks/base/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_TransformResidual4x4_s.S 19 VADD.I16 d5,d0,d2
24 VADD.I16 d8,d1,d8
25 VADD.I16 d0,d5,d8
26 VADD.I16 d1,d6,d7
32 VADD.I16 d5,d0,d2
37 VADD.I16 d8,d1,d8
38 VADD.I16 d0,d5,d8
39 VADD.I16 d1,d6,d7
omxVCM4P10_TransformDequantLumaDCFromPair_s.S 21 VADD.I16 d4,d0,d1
22 VADD.I16 d5,d2,d3
27 VADD.I16 d0,d4,d5
31 VADD.I16 d3,d6,d7
35 VADD.I16 d4,d0,d1
36 VADD.I16 d5,d2,d3
39 VADD.I16 d0,d4,d5
42 VADD.I16 d3,d6,d7
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S 59 VADD.I16 d5,d0,d2
64 VADD.I16 d8,d1,d8
65 VADD.I16 d0,d5,d8
66 VADD.I16 d1,d6,d7
72 VADD.I16 d5,d0,d2
77 VADD.I16 d8,d1,d8
78 VADD.I16 d0,d5,d8
79 VADD.I16 d1,d6,d7
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 46 VADD.I16 d0,d0,d20
47 VADD.I16 d2,d2,d21
48 VADD.I16 d4,d4,d22
omxVCM4P10_PredictIntraChroma_8x8_s.S 57 VADD.I32 d2,d3,d1
65 VADD.I8 d6,d6,d5
165 VADD.I32 d3,d3,d2
175 VADD.I16 q2,q2,q0
184 VADD.I16 q0,q2,q0
185 VADD.I16 q1,q2,q1
186 VADD.I16 q4,q2,q4
187 VADD.I16 q5,q2,q5
188 VADD.I16 q6,q2,q6
189 VADD.I16 q7,q2,q
    [all...]
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 75 VADD.I16 d27,d27,d28
77 VADD.I16 d26,d26,d19
85 VADD.I16 d27,d27,d28
86 VADD.I16 d26,d26,d21
94 VADD.I16 d27,d27,d28
95 VADD.I16 d26,d8,d23
100 VADD.I16 d27,d27,d28
105 VADD.I16 d8,d8,d25
  /external/libvpx/vp8/common/arm/neon/
recon16x16mb_neon.asm 50 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together
51 vadd.s16 q1, q1, q9
52 vadd.s16 q2, q2, q10
53 vadd.s16 q3, q3, q11
54 vadd.s16 q4, q4, q12
55 vadd.s16 q5, q5, q13
56 vadd.s16 q6, q6, q14
57 vadd.s16 q7, q7, q15
97 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together
98 vadd.s16 q1, q1, q
    [all...]
recon4b_neon.asm 41 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together
42 vadd.s16 q1, q1, q9
43 vadd.s16 q2, q2, q10
44 vadd.s16 q3, q3, q11
45 vadd.s16 q4, q4, q12
46 vadd.s16 q5, q5, q13
47 vadd.s16 q6, q6, q14
48 vadd.s16 q7, q7, q15
iwalsh_neon.asm 27 vadd.s16 d4, d0, d3 ;a = [0] + [12]
28 vadd.s16 d5, d1, d2 ;b = [4] + [8]
32 vadd.s16 d0, d4, d5 ;a + b
33 vadd.s16 d1, d6, d7 ;c + d
49 vadd.s16 d4, d0, d3 ;a = [0] + [3]
50 vadd.s16 d5, d1, d2 ;b = [1] + [2]
54 vadd.s16 d0, d4, d5 ;e = a + b
55 vadd.s16 d1, d6, d7 ;f = c + d
60 vadd.i16 q0, q0, q2 ;e/f += 3
61 vadd.i16 q1, q1, q2 ;g/h +=
    [all...]
recon2b_neon.asm 34 vadd.s16 q0, q0, q4 ;add Diff data and Pred data together
35 vadd.s16 q1, q1, q5
36 vadd.s16 q2, q2, q6
37 vadd.s16 q3, q3, q7
reconb_neon.asm 41 vadd.s16 d0, d0, d20 ;add Diff data and Pred data together
42 vadd.s16 d2, d2, d22
43 vadd.s16 d4, d4, d24
44 vadd.s16 d6, d6, d26
  /external/libvpx/vp8/encoder/arm/neon/
fastfdct8x4_neon.asm 50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3]
51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2]
54 vadd.s16 d22, d3, d9
55 vadd.s16 d23, d5, d7
64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1
66 vadd.s16 d24, d2, d3
82 vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x_c1)>>16) + d1
83 vadd.s16 q15, q2, q15 ;d30:temp2 = ((c1 * x_c1)>>16) + c1; d31:temp2 = ((d1 * x_c1)>>16) + d1
85 vadd.s16 d2, d14, d16 ;op[0] = ((temp1 * x_c2 )>>16) + temp1
86 vadd.s16 d3, d24, d26 ;op[0] = ((temp1 * x_c2 )>>16) + temp
    [all...]
fastfdct4x4_neon.asm 45 vadd.s16 d6, d2, d5 ;ip[0]+ip[3]
46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2]
52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1
64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1
65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2
66 vadd.s16 d3, d14, d17 ;op[1] = temp1 + temp2 -- q is not necessary, just for protection
76 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12]
77 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8]
81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b
    [all...]
vp8_shortwalsh4x4_neon.asm 34 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[3]
35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2]
39 vadd.s16 d2, d6, d7 ;op[0] = a1 + b1
41 vadd.s16 d3, d8, d9 ;op[1] = c1 + d1
51 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12]
52 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8]
56 vadd.s16 d2, d6, d7 ;a2 = a1 + b1;
58 vadd.s16 d3, d8, d9 ;b2 = c1 + d1;
vp8_mse16x16_neon.asm 63 vadd.u32 q7, q7, q8
64 vadd.u32 q9, q9, q10
68 vadd.u32 q10, q7, q9
70 vadd.u64 d0, d2, d3
120 vadd.u32 q10, q9, q10
124 vadd.s64 d0, d0, d1
125 vadd.u64 d1, d2, d3
161 vadd.u32 q7, q7, q8
162 vadd.u32 q9, q9, q10
163 vadd.u32 q9, q7, q
    [all...]
variance_neon.asm 67 vadd.u32 q10, q9, q10 ;accumulate sse
73 vadd.s64 d0, d0, d1
74 vadd.u64 d1, d2, d3
137 vadd.u32 q10, q9, q10 ;accumulate sse
143 vadd.s64 d0, d0, d1
144 vadd.u64 d1, d2, d3
192 vadd.u32 q10, q9, q10 ;accumulate sse
198 vadd.s64 d0, d0, d1
199 vadd.u64 d1, d2, d3
257 vadd.u32 q10, q9, q10 ;accumulate ss
    [all...]
  /external/llvm/test/CodeGen/ARM/
fadds.ll 13 ; VFP2: vadd.f32 s0, s1, s0
16 ; NFP1: vadd.f32 d0, d1, d0
18 ; NFP0: vadd.f32 s0, s1, s0
21 ; CORTEXA8: vadd.f32 d0, d1, d0
23 ; CORTEXA9: vadd.f32 s{{.}}, s{{.}}, s{{.}}
neon_arith1.ll 1 ; RUN: llc < %s -march=arm -mattr=+neon | grep vadd
fmacs.ll 17 ; A8: vadd.f32
33 ; A8: vadd.f64
49 ; A8: vadd.f32
62 ; A8: vadd.f32
63 ; A8: vadd.f32
87 ; A8: vadd.f32
88 ; A8: vadd.f32
93 ; A9: vadd.f32
98 ; HARD: vadd.f32 s0, s4, s0
  /frameworks/base/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_TransformResidual4x4_s.s 120 VADD de0,dIn0,dIn2 ;// e0 = d0 + d2
125 VADD de3,dIn1,dIn3RS ;// e3 = d1 + (d3>>1)
126 VADD df0,de0,de3 ;// f0 = e0 + e3
127 VADD df1,de1,de2 ;// f1 = e1 + e2
147 VADD dg0,df0,df2 ;// e0 = d0 + d2
152 VADD dg3,df1,df3RS ;// e3 = d1 + (d3>>1)
153 VADD dh0,dg0,dg3 ;// f0 = e0 + e3
154 VADD dh1,dg1,dg2 ;// f1 = e1 + e2
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.s 203 VADD dTempC0, dTempC0, dTempD0
208 VADD dTempB0, dTempB0, dTempP1
218 VADD dTempC0, dTempC0, dTempD0
219 VADD dTempB0, dTempB0, dTempQ1
228 VADD dTempC0, dTempC0, dTempD0
231 VADD dTempB0, dTmp, dTempR1
234 ; VADD dTempB0, dTempB0, dTempR1
239 VADD dTempC0, dTempC0, dTempD0
244 VADD dTmp, dTmp, dTempS1
omxVCM4P10_TransformDequantLumaDCFromPair_s.s 138 VADD dRowSum1,dIn0,dIn1
139 VADD dRowSum2,dIn2,dIn3
144 VADD dRowOp0,dRowSum1,dRowSum2
148 VADD dRowOp3,dRowDiff1,dRowDiff2
162 VADD dColSum1,dRowOp0,dRowOp1
163 VADD dColSum2,dRowOp2,dRowOp3
166 VADD dColOp0,dColSum1,dColSum2
169 VADD dColOp3,dColDiff1,dColDiff2
  /frameworks/base/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
R4R8First_v7.s 40 VADD.S32 d4, d0, d1 @ r0 = buf[0] + buf[2]@i0 = buf[1] + buf[3]@
43 VADD.S32 d6, d2, d3 @ r3 = buf[4] + buf[6]@i3 = buf[5] + buf[7]@
46 VADD.S32 Q0, Q2, Q3 @ r4 = (r0 + r2)@i4 = (i0 + i2)@i6 = (i1 + r3)@r7 = (r1 + i3)
51 VADD.S32 d4, d8, d9 @ r0 = buf[ 8] + buf[10]@i0 = buf[ 9] + buf[11]@
53 VADD.S32 d6, d10, d11 @ r2 = buf[12] + buf[14]@i2 = buf[13] + buf[15]@
59 VADD.S32 Q4, Q2, Q3 @ t0 = (r0 + r2) >> 1@t1 = (i0 + i2) >> 1@i0 = i1 + r3@r2 = r1 + i3@
74 VADD.S32 d12, d0, d8
76 VADD.S32 d14, d2, d10
80 VADD.S32 d5, d11, d9
91 VADD.S32 d19, d3, d
    [all...]
Radix4FFT_v7.s 65 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
74 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@
75 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@
86 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
97 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
100 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@
103 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@
105 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@
106 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@
119 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4
    [all...]
  /frameworks/base/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p2/src/
omxVCM4P2_MCReconBlock_s.s 194 ;// 5. VADD qSum0, qSum0, qSum1 ;// Add to the sum of next row (odd row sum has rounding value added to it)
198 ;// 4. VADD qSum1, qSum1, qRound
236 VADD qSum1, qSum1, qRound
239 VADD qSum0, qSum0, qSum1
242 VADD qSum1, qSum1, qSum2
246 VADD qSum3, qSum3, qRound
252 VADD qSum5, qSum5, qRound
253 VADD qSum2, qSum2, qSum3
254 VADD qSum3, qSum3, qSum4
255 VADD qSum4, qSum4, qSum
    [all...]

Completed in 225 milliseconds

1 2 3 4 5 6