HomeSort by relevance Sort by last modified time
    Searched full:vadd (Results 1 - 25 of 131) sorted by null

1 2 3 4 5 6

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_TransformResidual4x4_s.S 19 VADD.I16 d5,d0,d2
24 VADD.I16 d8,d1,d8
25 VADD.I16 d0,d5,d8
26 VADD.I16 d1,d6,d7
32 VADD.I16 d5,d0,d2
37 VADD.I16 d8,d1,d8
38 VADD.I16 d0,d5,d8
39 VADD.I16 d1,d6,d7
omxVCM4P10_TransformDequantLumaDCFromPair_s.S 21 VADD.I16 d4,d0,d1
22 VADD.I16 d5,d2,d3
27 VADD.I16 d0,d4,d5
31 VADD.I16 d3,d6,d7
35 VADD.I16 d4,d0,d1
36 VADD.I16 d5,d2,d3
39 VADD.I16 d0,d4,d5
42 VADD.I16 d3,d6,d7
omxVCM4P10_DequantTransformResidualFromPairAndAdd_s.S 59 VADD.I16 d5,d0,d2
64 VADD.I16 d8,d1,d8
65 VADD.I16 d0,d5,d8
66 VADD.I16 d1,d6,d7
72 VADD.I16 d5,d0,d2
77 VADD.I16 d8,d1,d8
78 VADD.I16 d0,d5,d8
79 VADD.I16 d1,d6,d7
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.S 46 VADD.I16 d0,d0,d20
47 VADD.I16 d2,d2,d21
48 VADD.I16 d4,d4,d22
omxVCM4P10_PredictIntraChroma_8x8_s.S 57 VADD.I32 d2,d3,d1
65 VADD.I8 d6,d6,d5
165 VADD.I32 d3,d3,d2
175 VADD.I16 q2,q2,q0
184 VADD.I16 q0,q2,q0
185 VADD.I16 q1,q2,q1
186 VADD.I16 q4,q2,q4
187 VADD.I16 q5,q2,q5
188 VADD.I16 q6,q2,q6
189 VADD.I16 q7,q2,q
    [all...]
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 75 VADD.I16 d27,d27,d28
77 VADD.I16 d26,d26,d19
85 VADD.I16 d27,d27,d28
86 VADD.I16 d26,d26,d21
94 VADD.I16 d27,d27,d28
95 VADD.I16 d26,d8,d23
100 VADD.I16 d27,d27,d28
105 VADD.I16 d8,d8,d25
  /external/libvpx/vp8/common/arm/neon/
recon16x16mb_neon.asm 50 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together
51 vadd.s16 q1, q1, q9
52 vadd.s16 q2, q2, q10
53 vadd.s16 q3, q3, q11
54 vadd.s16 q4, q4, q12
55 vadd.s16 q5, q5, q13
56 vadd.s16 q6, q6, q14
57 vadd.s16 q7, q7, q15
97 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together
98 vadd.s16 q1, q1, q
    [all...]
recon4b_neon.asm 41 vadd.s16 q0, q0, q8 ;add Diff data and Pred data together
42 vadd.s16 q1, q1, q9
43 vadd.s16 q2, q2, q10
44 vadd.s16 q3, q3, q11
45 vadd.s16 q4, q4, q12
46 vadd.s16 q5, q5, q13
47 vadd.s16 q6, q6, q14
48 vadd.s16 q7, q7, q15
iwalsh_neon.asm 27 vadd.s16 d4, d0, d3 ;a = [0] + [12]
28 vadd.s16 d5, d1, d2 ;b = [4] + [8]
32 vadd.s16 d0, d4, d5 ;a + b
33 vadd.s16 d1, d6, d7 ;c + d
49 vadd.s16 d4, d0, d3 ;a = [0] + [3]
50 vadd.s16 d5, d1, d2 ;b = [1] + [2]
54 vadd.s16 d0, d4, d5 ;e = a + b
55 vadd.s16 d1, d6, d7 ;f = c + d
60 vadd.i16 q0, q0, q2 ;e/f += 3
61 vadd.i16 q1, q1, q2 ;g/h +=
    [all...]
recon2b_neon.asm 34 vadd.s16 q0, q0, q4 ;add Diff data and Pred data together
35 vadd.s16 q1, q1, q5
36 vadd.s16 q2, q2, q6
37 vadd.s16 q3, q3, q7
reconb_neon.asm 41 vadd.s16 d0, d0, d20 ;add Diff data and Pred data together
42 vadd.s16 d2, d2, d22
43 vadd.s16 d4, d4, d24
44 vadd.s16 d6, d6, d26
  /external/openssl/crypto/sha/asm/
sha512-armv4.s 463 vadd.i64 d27,d28,d23
469 vadd.i64 d27,d24
471 vadd.i64 d27,d29
477 vadd.i64 d27,d0
484 vadd.i64 d23,d27
485 vadd.i64 d19,d27
486 vadd.i64 d23,d30
500 vadd.i64 d27,d28,d22
506 vadd.i64 d27,d24
508 vadd.i64 d27,d2
    [all...]
  /external/libvpx/vp8/encoder/arm/neon/
fastfdct8x4_neon.asm 50 vadd.s16 d10, d2, d8 ;ip[0]+ip[3]
51 vadd.s16 d11, d4, d6 ;ip[1]+ip[2]
54 vadd.s16 d22, d3, d9
55 vadd.s16 d23, d5, d7
64 vadd.s16 d14, d10, d11 ;temp1 = a1 + b1
66 vadd.s16 d24, d2, d3
82 vadd.s16 q10, q6, q10 ;d20:temp2 = ((c1 * x_c1)>>16) + c1; d21:temp2 = ((d1 * x_c1)>>16) + d1
83 vadd.s16 q15, q2, q15 ;d30:temp2 = ((c1 * x_c1)>>16) + c1; d31:temp2 = ((d1 * x_c1)>>16) + d1
85 vadd.s16 d2, d14, d16 ;op[0] = ((temp1 * x_c2 )>>16) + temp1
86 vadd.s16 d3, d24, d26 ;op[0] = ((temp1 * x_c2 )>>16) + temp
    [all...]
fastfdct4x4_neon.asm 45 vadd.s16 d6, d2, d5 ;ip[0]+ip[3]
46 vadd.s16 d7, d3, d4 ;ip[1]+ip[2]
52 vadd.s16 d10, d6, d7 ;temp1 = a1 + b1
62 vadd.s16 q8, q4, q8 ;d16:temp2 = ((c1 * x_c1)>>16) + c1; d17:temp2 = ((d1 * x_c1)>>16) + d1
64 vadd.s16 d2, d10, d12 ;op[0] = ((temp1 * x_c2 )>>16) + temp1
65 vadd.s16 d4, d11, d13 ;op[2] = ((temp2 * x_c2 )>>16) + temp2
66 vadd.s16 d3, d14, d17 ;op[1] = temp1 + temp2 -- q is not necessary, just for protection
76 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12]
77 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8]
81 vadd.s16 d10, d6, d7 ;temp1 = a1 + b
    [all...]
vp8_shortwalsh4x4_neon.asm 34 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[3]
35 vadd.s16 d7, d3, d4 ;b1 = ip[1]+ip[2]
39 vadd.s16 d2, d6, d7 ;op[0] = a1 + b1
41 vadd.s16 d3, d8, d9 ;op[1] = c1 + d1
51 vadd.s16 d6, d2, d5 ;a1 = ip[0]+ip[12]
52 vadd.s16 d7, d3, d4 ;b1 = ip[4]+ip[8]
56 vadd.s16 d2, d6, d7 ;a2 = a1 + b1;
58 vadd.s16 d3, d8, d9 ;b2 = c1 + d1;
vp8_mse16x16_neon.asm 63 vadd.u32 q7, q7, q8
64 vadd.u32 q9, q9, q10
68 vadd.u32 q10, q7, q9
70 vadd.u64 d0, d2, d3
120 vadd.u32 q10, q9, q10
124 vadd.s64 d0, d0, d1
125 vadd.u64 d1, d2, d3
161 vadd.u32 q7, q7, q8
162 vadd.u32 q9, q9, q10
163 vadd.u32 q9, q7, q
    [all...]
variance_neon.asm 67 vadd.u32 q10, q9, q10 ;accumulate sse
73 vadd.s64 d0, d0, d1
74 vadd.u64 d1, d2, d3
137 vadd.u32 q10, q9, q10 ;accumulate sse
143 vadd.s64 d0, d0, d1
144 vadd.u64 d1, d2, d3
192 vadd.u32 q10, q9, q10 ;accumulate sse
198 vadd.s64 d0, d0, d1
199 vadd.u64 d1, d2, d3
257 vadd.u32 q10, q9, q10 ;accumulate ss
    [all...]
  /external/llvm/test/CodeGen/ARM/
fadds.ll 13 ; VFP2: vadd.f32 s0, s1, s0
16 ; NFP1: vadd.f32 d0, d1, d0
18 ; NFP0: vadd.f32 s0, s1, s0
21 ; CORTEXA8: vadd.f32 d0, d1, d0
23 ; CORTEXA9: vadd.f32 s{{.}}, s{{.}}, s{{.}}
neon_arith1.ll 1 ; RUN: llc < %s -march=arm -mattr=+neon | grep vadd
fmacs.ll 17 ; A8: vadd.f32
33 ; A8: vadd.f64
49 ; A8: vadd.f32
62 ; A8: vadd.f32
63 ; A8: vadd.f32
87 ; A8: vadd.f32
88 ; A8: vadd.f32
93 ; A9: vadd.f32
98 ; HARD: vadd.f32 s0, s4, s0
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_TransformResidual4x4_s.s 120 VADD de0,dIn0,dIn2 ;// e0 = d0 + d2
125 VADD de3,dIn1,dIn3RS ;// e3 = d1 + (d3>>1)
126 VADD df0,de0,de3 ;// f0 = e0 + e3
127 VADD df1,de1,de2 ;// f1 = e1 + e2
147 VADD dg0,df0,df2 ;// e0 = d0 + d2
152 VADD dg3,df1,df3RS ;// e3 = d1 + (d3>>1)
153 VADD dh0,dg0,dg3 ;// f0 = e0 + e3
154 VADD dh1,dg1,dg2 ;// f1 = e1 + e2
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.s 203 VADD dTempC0, dTempC0, dTempD0
208 VADD dTempB0, dTempB0, dTempP1
218 VADD dTempC0, dTempC0, dTempD0
219 VADD dTempB0, dTempB0, dTempQ1
228 VADD dTempC0, dTempC0, dTempD0
231 VADD dTempB0, dTmp, dTempR1
234 ; VADD dTempB0, dTempB0, dTempR1
239 VADD dTempC0, dTempC0, dTempD0
244 VADD dTmp, dTmp, dTempS1
omxVCM4P10_TransformDequantLumaDCFromPair_s.s 138 VADD dRowSum1,dIn0,dIn1
139 VADD dRowSum2,dIn2,dIn3
144 VADD dRowOp0,dRowSum1,dRowSum2
148 VADD dRowOp3,dRowDiff1,dRowDiff2
162 VADD dColSum1,dRowOp0,dRowOp1
163 VADD dColSum2,dRowOp2,dRowOp3
166 VADD dColOp0,dColSum1,dColSum2
169 VADD dColOp3,dColDiff1,dColDiff2
  /frameworks/av/media/libstagefright/codecs/aacenc/src/asm/ARMV7/
R4R8First_v7.s 44 VADD.S32 d4, d0, d1 @ r0 = buf[0] + buf[2]@i0 = buf[1] + buf[3]@
47 VADD.S32 d6, d2, d3 @ r3 = buf[4] + buf[6]@i3 = buf[5] + buf[7]@
50 VADD.S32 Q0, Q2, Q3 @ r4 = (r0 + r2)@i4 = (i0 + i2)@i6 = (i1 + r3)@r7 = (r1 + i3)
55 VADD.S32 d4, d8, d9 @ r0 = buf[ 8] + buf[10]@i0 = buf[ 9] + buf[11]@
57 VADD.S32 d6, d10, d11 @ r2 = buf[12] + buf[14]@i2 = buf[13] + buf[15]@
63 VADD.S32 Q4, Q2, Q3 @ t0 = (r0 + r2) >> 1@t1 = (i0 + i2) >> 1@i0 = i1 + r3@r2 = r1 + i3@
78 VADD.S32 d12, d0, d8
80 VADD.S32 d14, d2, d10
84 VADD.S32 d5, d11, d9
95 VADD.S32 d19, d3, d
    [all...]
Radix4FFT_v7.s 69 VADD.S32 Q2, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
78 VADD.S32 Q2, Q10, Q2 @ r2 = t0 + r2@
79 VADD.S32 Q3, Q11, Q3 @ r3 = t1 + r3@
90 VADD.S32 Q8, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
101 VADD.S32 Q6, Q10, Q11 @ MULHIGH(cosx, t0) + MULHIGH(sinx, t1)
104 VADD.S32 Q4, Q8, Q6 @ r4 = t0 + r6@
107 VADD.S32 Q7, Q7, Q9 @ r7 = r7 + t1@
109 VADD.S32 Q8, Q0, Q5 @ xptr[0] = r0 + r5@
110 VADD.S32 Q9, Q1, Q6 @ xptr[1] = r1 + r6@
123 VADD.S32 Q10, Q2, Q4 @ xptr[0] = r2 + r4
    [all...]

Completed in 347 milliseconds

1 2 3 4 5 6