/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p2/src/ |
omxVCM4P2_MCReconBlock_s.s | 194 ;// 5. VADD qSum0, qSum0, qSum1 ;// Add to the sum of next row (odd row sum has rounding value added to it) 198 ;// 4. VADD qSum1, qSum1, qRound 236 VADD qSum1, qSum1, qRound 239 VADD qSum0, qSum0, qSum1 242 VADD qSum1, qSum1, qSum2 246 VADD qSum3, qSum3, qRound 252 VADD qSum5, qSum5, qRound 253 VADD qSum2, qSum2, qSum3 254 VADD qSum3, qSum3, qSum4 255 VADD qSum4, qSum4, qSum [all...] |
/external/llvm/test/CodeGen/ARM/ |
vtrn.ll | 6 ;CHECK-NEXT: vadd.i8 18 ;CHECK-NEXT: vadd.i16 30 ;CHECK-NEXT: vadd.i32 42 ;CHECK-NEXT: vadd.f32 54 ;CHECK-NEXT: vadd.i8 66 ;CHECK-NEXT: vadd.i16 78 ;CHECK-NEXT: vadd.i32 90 ;CHECK-NEXT: vadd.f32 104 ;CHECK-NEXT: vadd.i8 116 ;CHECK-NEXT: vadd.i1 [all...] |
2010-05-14-IllegalType.ll | 7 ; CHECK: vadd.i64
|
vuzp.ll | 6 ;CHECK-NEXT: vadd.i8 18 ;CHECK-NEXT: vadd.i16 32 ;CHECK-NEXT: vadd.i8 44 ;CHECK-NEXT: vadd.i16 56 ;CHECK-NEXT: vadd.i32 68 ;CHECK-NEXT: vadd.f32 82 ;CHECK-NEXT: vadd.i8 94 ;CHECK-NEXT: vadd.i16
|
vzip.ll | 6 ;CHECK-NEXT: vadd.i8 18 ;CHECK-NEXT: vadd.i16 32 ;CHECK-NEXT: vadd.i8 44 ;CHECK-NEXT: vadd.i16 56 ;CHECK-NEXT: vadd.i32 68 ;CHECK-NEXT: vadd.f32 82 ;CHECK-NEXT: vadd.i8 94 ;CHECK-NEXT: vadd.i8
|
widen-vmovs.ll | 8 ; The vmovs is first widened to a vmovd, and then converted to a vorr because of the v2f32 vadd.f32. 12 ; CHECK: vadd.f32 [[DL]], [[DL]], [[DN]]
|
neon_ld2.ll | 7 ; CHECK: vadd.i64 q 12 ; SWIFT: vadd.i64 q 49 ; SWIFT: vadd.i64 q
|
fp_convert.ll | 12 ; NEON: vadd.f32 [[D0:d[0-9]+]] 24 ; NEON: vadd.f32 [[D0:d[0-9]+]]
|
/external/chromium_org/third_party/openssl/openssl/patches/ |
neon_runtime.patch | 214 + vadd.i32 q8, q10, q9 279 + vadd.i32 q4, q4, q0 281 + vadd.i32 q2, q2, q3 292 + vadd.i32 q1, q1, q5 293 + vadd.i32 q15, q15, q8 315 + vadd.i32 q4, q4, q7 317 + vadd.i32 q2, q2, q6 342 + vadd.i32 q1, q1, q3 343 + vadd.i32 q15, q15, q14 378 + vadd.i32 q4, q4, q [all...] |
/external/llvm/test/MC/ARM/ |
neon-add-encoding.s | 4 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0xa0,0x08,0x41,0xf2] 5 vadd.i8 d16, d17, d16 6 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0xa0,0x08,0x51,0xf2] 7 vadd.i16 d16, d17, d16 8 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0xa0,0x08,0x71,0xf2] 9 vadd.i64 d16, d17, d16 10 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0xa0,0x08,0x61,0xf2] 11 vadd.i32 d16, d17, d16 12 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0xa1,0x0d,0x40,0xf2] 13 vadd.f32 d16, d16, d1 [all...] |
neont2-add-encoding.s | 5 @ CHECK: vadd.i8 d16, d17, d16 @ encoding: [0x41,0xef,0xa0,0x08] 6 vadd.i8 d16, d17, d16 7 @ CHECK: vadd.i16 d16, d17, d16 @ encoding: [0x51,0xef,0xa0,0x08] 8 vadd.i16 d16, d17, d16 9 @ CHECK: vadd.i64 d16, d17, d16 @ encoding: [0x71,0xef,0xa0,0x08] 10 vadd.i64 d16, d17, d16 11 @ CHECK: vadd.i32 d16, d17, d16 @ encoding: [0x61,0xef,0xa0,0x08] 12 vadd.i32 d16, d17, d16 13 @ CHECK: vadd.f32 d16, d16, d17 @ encoding: [0x40,0xef,0xa1,0x0d] 14 vadd.f32 d16, d16, d1 [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_short_idct8x8_add_neon.asm | 134 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 135 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 144 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5] 146 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7] 173 vadd.s16 q8, q0, q7 ; output[0] = step1[0] + step1[7]; 174 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6]; 175 vadd.s16 q10, q2, q5 ; output[2] = step1[2] + step1[5]; 176 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4]; 410 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 411 vadd.s16 q1, q9, q13 ; output[1] = step[1] + step[2 [all...] |
vp9_short_iht8x8_add_neon.asm | 232 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3] 233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2] 242 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5] 244 vadd.s16 q7, q7, q6 ; step2[7] = step1[6] + step1[7] 271 vadd.s16 q8, q0, q7 ; output[0] = step1[0] + step1[7]; 272 vadd.s16 q9, q1, q6 ; output[1] = step1[1] + step1[6]; 273 vadd.s16 q10, q2, q5 ; output[2] = step1[2] + step1[5]; 274 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4]; 326 vadd.s32 q11, q1, q5 327 vadd.s32 q12, q2, q [all...] |
vp9_short_idct32x32_add_neon.asm | 272 vadd.s32 q11, q12, q11 273 vadd.s32 q10, q10, q15 481 vadd.s16 q4, q0, q1 483 vadd.s16 q6, q2, q3 517 vadd.s16 q3, q3, q2 519 vadd.s16 q2, q1, q0 537 vadd.s16 q8, q4, q2 538 vadd.s16 q9, q5, q0 539 vadd.s16 q10, q7, q1 540 vadd.s16 q15, q6, q [all...] |
vp9_short_iht4x4_add_neon.asm | 26 vadd.s16 d23, d16, d18 ; (input[0] + input[2]) 47 vadd.s16 q8, q13, q14 70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5 71 vadd.s32 q10, q10, q8 77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3 78 vadd.s32 q10, q10, q11 ; x0 + x1 79 vadd.s32 q14, q11, q12 ; s1 = x1 + x3
|
/external/llvm/test/MC/Disassembler/ARM/ |
invalid-IT-CC15.txt | 17 # vadd.f64 d18, d18, d19
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src/ |
armVCM4P10_InterpolateLuma_HalfVer4x4_unsafe_s.s | 115 VADD dRes0, dRes0, dTmp0 116 VADD dRes1, dRes1, dTmp1 117 VADD dRes2, dRes2, dTmp2 120 ; VADD dRes3, dRes3, dTmp3
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_DeblockingLuma_unsafe_s.S | 26 VADD.I8 d31,d18,d19 30 VADD.I8 d31,d31,d19 60 VADD.I8 d19,d19,d15 62 VADD.I8 d19,d19,d15
|
/external/llvm/test/CodeGen/Thumb2/ |
inflate-regs.ll | 11 ; CHECK: vadd.f32 30 ; CHECK: vadd.f32
|
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 90 vadd.u16 q8, q8, q0 // add src red to dst red0 92 vadd.u16 q9, q9, q1 // add src green to dst green0 94 vadd.u16 q10, q10, q2 // add src blue to dst blue0 97 vadd.u16 q13, q13, q0 // add src red to dst red1 99 vadd.u16 q12, q12, q1 // add src green to dst green1 101 vadd.u16 q11, q11, q2 // add src blue to dst blue1
|
/external/jpeg/ |
jsimd_arm_neon.S | 118 vadd.s16 \x4, \x0, \x4 121 vadd.s16 \x6, \x2, \x6 124 vadd.s16 \x5, \x3, \x5 127 vadd.s16 \x7, \x1, \x7 131 vadd.s16 \t12, \x3, \x3 132 vadd.s16 \x2, \x2, \t13 135 vadd.s16 \t12, \t12, \t13 138 vadd.s16 \t10, \t10, \t13 140 vadd.s16 \t11, \t11, \t13 145 vadd.s16 \x2, \x0, \x [all...] |
/external/chromium_org/third_party/openssl/openssl/crypto/poly1305/ |
poly1305_arm_asm.S | 257 # asm 1: vadd.i32 >5y12=reg128#12,<5y12=reg128#12,<y12=reg128#2 258 # asm 2: vadd.i32 >5y12=q11,<5y12=q11,<y12=q1 259 vadd.i32 q11,q11,q1 262 # asm 1: vadd.i32 >5y34=reg128#13,<5y34=reg128#13,<y34=reg128#3 263 # asm 2: vadd.i32 >5y34=q12,<5y34=q12,<y34=q2 264 vadd.i32 q12,q12,q2 282 # asm 1: vadd.i32 >5z12=reg128#14,<5z12=reg128#14,<z12=reg128#5 283 # asm 2: vadd.i32 >5z12=q13,<5z12=q13,<z12=q4 284 vadd.i32 q13,q13,q4 287 # asm 1: vadd.i32 >5z34=reg128#15,<5z34=reg128#15,<z34=reg128# [all...] |
/external/chromium_org/third_party/libwebp/dsp/ |
enc_neon.c | 166 "vadd.s32 q0, q2, q3 \n" // tmp[0] = a0 + a1 168 "vadd.s32 q1, q5, q4 \n" // tmp[4] = a3 + a2 180 "vadd.s32 q0, q0, q4 \n" // dc = tmp[0] + 3 181 "vadd.s32 q6, q0, q3 \n" // a0 = dc + tmp[3] 182 "vadd.s32 q7, q1, q2 \n" // a1 = tmp[1] + tmp[2] 186 "vadd.s32 q0, q6, q7 \n" 188 "vadd.s32 q1, q9, q8 \n" 278 "vadd.s16 d4, d0, d3 \n" // a0 = d0 + d3 279 "vadd.s16 d5, d1, d2 \n" // a1 = d1 + d2 283 "vadd.s16 d0, d4, d5 \n" // a0 + a [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
fastquantizeb_neon.asm | 49 vadd.s16 q4, q6 ; x + Round 50 vadd.s16 q5, q7 66 vadd.s16 q10, q6 ; x2 + Round 67 vadd.s16 q11, q7 181 vadd.s16 q12, q14 ; x + Round 182 vadd.s16 q13, q15
|
/external/webp/src/dsp/ |
enc_neon.c | 166 "vadd.s32 q0, q2, q3 \n" // tmp[0] = a0 + a1 168 "vadd.s32 q1, q5, q4 \n" // tmp[4] = a3 + a2 180 "vadd.s32 q0, q0, q4 \n" // dc = tmp[0] + 3 181 "vadd.s32 q6, q0, q3 \n" // a0 = dc + tmp[3] 182 "vadd.s32 q7, q1, q2 \n" // a1 = tmp[1] + tmp[2] 186 "vadd.s32 q0, q6, q7 \n" 188 "vadd.s32 q1, q9, q8 \n" 278 "vadd.s16 d4, d0, d3 \n" // a0 = d0 + d3 279 "vadd.s16 d5, d1, d2 \n" // a1 = d1 + d2 283 "vadd.s16 d0, d4, d5 \n" // a0 + a [all...] |