HomeSort by relevance Sort by last modified time
    Searched full:vadd (Results 26 - 50 of 173) sorted by null

12 3 4 5 6 7

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p2/src/
omxVCM4P2_MCReconBlock_s.s 194 ;// 5. VADD qSum0, qSum0, qSum1 ;// Add to the sum of next row (odd row sum has rounding value added to it)
198 ;// 4. VADD qSum1, qSum1, qRound
236 VADD qSum1, qSum1, qRound
239 VADD qSum0, qSum0, qSum1
242 VADD qSum1, qSum1, qSum2
246 VADD qSum3, qSum3, qRound
252 VADD qSum5, qSum5, qRound
253 VADD qSum2, qSum2, qSum3
254 VADD qSum3, qSum3, qSum4
255 VADD qSum4, qSum4, qSum
    [all...]
  /external/llvm/test/CodeGen/ARM/
vtrn.ll 6 ;CHECK-NEXT: vadd.i8
18 ;CHECK-NEXT: vadd.i16
30 ;CHECK-NEXT: vadd.i32
42 ;CHECK-NEXT: vadd.f32
54 ;CHECK-NEXT: vadd.i8
66 ;CHECK-NEXT: vadd.i16
78 ;CHECK-NEXT: vadd.i32
90 ;CHECK-NEXT: vadd.f32
104 ;CHECK-NEXT: vadd.i8
116 ;CHECK-NEXT: vadd.i1
    [all...]
2010-05-14-IllegalType.ll 7 ; CHECK: vadd.i64
vuzp.ll 6 ;CHECK-NEXT: vadd.i8
18 ;CHECK-NEXT: vadd.i16
32 ;CHECK-NEXT: vadd.i8
44 ;CHECK-NEXT: vadd.i16
56 ;CHECK-NEXT: vadd.i32
68 ;CHECK-NEXT: vadd.f32
82 ;CHECK-NEXT: vadd.i8
94 ;CHECK-NEXT: vadd.i16
vzip.ll 6 ;CHECK-NEXT: vadd.i8
18 ;CHECK-NEXT: vadd.i16
32 ;CHECK-NEXT: vadd.i8
44 ;CHECK-NEXT: vadd.i16
56 ;CHECK-NEXT: vadd.i32
68 ;CHECK-NEXT: vadd.f32
82 ;CHECK-NEXT: vadd.i8
94 ;CHECK-NEXT: vadd.i8
widen-vmovs.ll 8 ; The vmovs is first widened to a vmovd, and then converted to a vorr because of the v2f32 vadd.f32.
12 ; CHECK: vadd.f32 [[DL]], [[DL]], [[DN]]
neon_ld2.ll 7 ; CHECK: vadd.i64 q
12 ; SWIFT: vadd.i64 q
49 ; SWIFT: vadd.i64 q
fp_convert.ll 12 ; NEON: vadd.f32 [[D0:d[0-9]+]]
24 ; NEON: vadd.f32 [[D0:d[0-9]+]]
  /external/chromium_org/third_party/openssl/openssl/patches/
neon_runtime.patch 214 + vadd.i32 q8, q10, q9
279 + vadd.i32 q4, q4, q0
281 + vadd.i32 q2, q2, q3
292 + vadd.i32 q1, q1, q5
293 + vadd.i32 q15, q15, q8
315 + vadd.i32 q4, q4, q7
317 + vadd.i32 q2, q2, q6
342 + vadd.i32 q1, q1, q3
343 + vadd.i32 q15, q15, q14
378 + vadd.i32 q4, q4, q
    [all...]
  /external/llvm/test/MC/ARM/
neon-add-encoding.s 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2]
5 vadd.i8 d16, d17, d16
6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2]
7 vadd.i16 d16, d17, d16
8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2]
9 vadd.i64 d16, d17, d16
10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2]
11 vadd.i32 d16, d17, d16
12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2]
13 vadd.f32 d16, d16, d1
    [all...]
neont2-add-encoding.s 5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08]
6 vadd.i8 d16, d17, d16
7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08]
8 vadd.i16 d16, d17, d16
9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08]
10 vadd.i64 d16, d17, d16
11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08]
12 vadd.i32 d16, d17, d16
13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d]
14 vadd.f32 d16, d16, d1
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_short_idct8x8_add_neon.asm 134 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3]
135 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2]
144 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]
146 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7]
173 vadd.s16 q8, q0, q7 ; output[0] = step1[0] + step1[7];
174 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6];
175 vadd.s16 q10, q2, q5 ; output[2] = step1[2] + step1[5];
176 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4];
410 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3]
411 vadd.s16 q1, q9, q13 ; output[1] = step[1] + step[2
    [all...]
vp9_short_iht8x8_add_neon.asm 232 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3]
233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2]
242 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5]
244 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7]
271 vadd.s16 q8, q0, q7 ; output[0] = step1[0] + step1[7];
272 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6];
273 vadd.s16 q10, q2, q5 ; output[2] = step1[2] + step1[5];
274 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4];
326 vadd.s32 q11, q1, q5
327 vadd.s32 q12, q2, q
    [all...]
vp9_short_idct32x32_add_neon.asm 272 vadd.s32 q11, q12, q11
273 vadd.s32 q10, q10, q15
481 vadd.s16 q4, q0, q1
483 vadd.s16 q6, q2, q3
517 vadd.s16 q3, q3, q2
519 vadd.s16 q2, q1, q0
537 vadd.s16 q8, q4, q2
538 vadd.s16 q9, q5, q0
539 vadd.s16 q10, q7, q1
540 vadd.s16 q15, q6, q
    [all...]
vp9_short_iht4x4_add_neon.asm 26 vadd.s16 d23, d16, d18 ; (input[0] + input[2])
47 vadd.s16 q8, q13, q14
70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5
71 vadd.s32 q10, q10, q8
77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3
78 vadd.s32 q10, q10, q11 ; x0 + x1
79 vadd.s32 q14, q11, q12 ; s1 = x1 + x3
  /external/llvm/test/MC/Disassembler/ARM/
invalid-IT-CC15.txt 17 # vadd.f64 d18, d18, d19
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.s 115 VADD dRes0, dRes0, dTmp0
116 VADD dRes1, dRes1, dTmp1
117 VADD dRes2, dRes2, dTmp2
120 ; VADD dRes3, dRes3, dTmp3
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingLuma_unsafe_s.S 26 VADD.I8 d31,d18,d19
30 VADD.I8 d31,d31,d19
60 VADD.I8 d19,d19,d15
62 VADD.I8 d19,d19,d15
  /external/llvm/test/CodeGen/Thumb2/
inflate-regs.ll 11 ; CHECK: vadd.f32
30 ; CHECK: vadd.f32
  /system/core/libpixelflinger/
col32cb16blend_neon.S 90 vadd.u16 q8, q8, q0 // add src red to dst red0
92 vadd.u16 q9, q9, q1 // add src green to dst green0
94 vadd.u16 q10, q10, q2 // add src blue to dst blue0
97 vadd.u16 q13, q13, q0 // add src red to dst red1
99 vadd.u16 q12, q12, q1 // add src green to dst green1
101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
  /external/jpeg/
jsimd_arm_neon.S 118 vadd.s16 \x4, \x0, \x4
121 vadd.s16 \x6, \x2, \x6
124 vadd.s16 \x5, \x3, \x5
127 vadd.s16 \x7, \x1, \x7
131 vadd.s16 \t12, \x3, \x3
132 vadd.s16 \x2, \x2, \t13
135 vadd.s16 \t12, \t12, \t13
138 vadd.s16 \t10, \t10, \t13
140 vadd.s16 \t11, \t11, \t13
145 vadd.s16 \x2, \x0, \x
    [all...]
  /external/chromium_org/third_party/openssl/openssl/crypto/poly1305/
poly1305_arm_asm.S 257 # asm 1: vadd.i32 >5y12=reg128#12,<5y12=reg128#12,<y12=reg128#2
258 # asm 2: vadd.i32 >5y12=q11,<5y12=q11,<y12=q1
259 vadd.i32 q11,q11,q1
262 # asm 1: vadd.i32 >5y34=reg128#13,<5y34=reg128#13,<y34=reg128#3
263 # asm 2: vadd.i32 >5y34=q12,<5y34=q12,<y34=q2
264 vadd.i32 q12,q12,q2
282 # asm 1: vadd.i32 >5z12=reg128#14,<5z12=reg128#14,<z12=reg128#5
283 # asm 2: vadd.i32 >5z12=q13,<5z12=q13,<z12=q4
284 vadd.i32 q13,q13,q4
287 # asm 1: vadd.i32 >5z34=reg128#15,<5z34=reg128#15,<z34=reg128#
    [all...]
  /external/chromium_org/third_party/libwebp/dsp/
enc_neon.c 166 "vadd.s32 q0, q2, q3 \n" // tmp[0] = a0 + a1
168 "vadd.s32 q1, q5, q4 \n" // tmp[4] = a3 + a2
180 "vadd.s32 q0, q0, q4 \n" // dc = tmp[0] + 3
181 "vadd.s32 q6, q0, q3 \n" // a0 = dc + tmp[3]
182 "vadd.s32 q7, q1, q2 \n" // a1 = tmp[1] + tmp[2]
186 "vadd.s32 q0, q6, q7 \n"
188 "vadd.s32 q1, q9, q8 \n"
278 "vadd.s16 d4, d0, d3 \n" // a0 = d0 + d3
279 "vadd.s16 d5, d1, d2 \n" // a1 = d1 + d2
283 "vadd.s16 d0, d4, d5 \n" // a0 + a
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 49 vadd.s16 q4, q6 ; x + Round
50 vadd.s16 q5, q7
66 vadd.s16 q10, q6 ; x2 + Round
67 vadd.s16 q11, q7
181 vadd.s16 q12, q14 ; x + Round
182 vadd.s16 q13, q15
  /external/webp/src/dsp/
enc_neon.c 166 "vadd.s32 q0, q2, q3 \n" // tmp[0] = a0 + a1
168 "vadd.s32 q1, q5, q4 \n" // tmp[4] = a3 + a2
180 "vadd.s32 q0, q0, q4 \n" // dc = tmp[0] + 3
181 "vadd.s32 q6, q0, q3 \n" // a0 = dc + tmp[3]
182 "vadd.s32 q7, q1, q2 \n" // a1 = tmp[1] + tmp[2]
186 "vadd.s32 q0, q6, q7 \n"
188 "vadd.s32 q1, q9, q8 \n"
278 "vadd.s16 d4, d0, d3 \n" // a0 = d0 + d3
279 "vadd.s16 d5, d1, d2 \n" // a1 = d1 + d2
283 "vadd.s16 d0, d4, d5 \n" // a0 + a
    [all...]

Completed in 1271 milliseconds

12 3 4 5 6 7