/external/boringssl/src/crypto/sha/asm/ |
sha256-armv4.pl | 505 vadd.i32 $T0,$T0,@X[0] 506 vadd.i32 $T1,$T1,@X[1] 508 vadd.i32 $T2,$T2,@X[2] 510 vadd.i32 $T3,$T3,@X[3] 638 vadd.i32 $W0,$W0,@MSG[0] 649 vadd.i32 $W0,$W0,@MSG[0] 655 vadd.i32 $W1,$W1,@MSG[1] 661 vadd.i32 $W0,$W0,@MSG[2] 667 vadd.i32 $W1,$W1,@MSG[3] 672 vadd.i32 $ABCD,$ABCD,$ABCD_SAV [all...] |
sha1-armv4-large.pl | 525 vadd.i32 @X[0],@X[-4&7],$K 527 vadd.i32 @X[1],@X[-3&7],$K 529 vadd.i32 @X[2],@X[-2&7],$K 609 vadd.i32 $W0,@Kxx[0],@MSG[0] 614 vadd.i32 $W1,@Kxx[0],@MSG[1] 618 vadd.i32 $W0,@Kxx[$j],@MSG[2] 626 vadd.i32 $W1,@Kxx[$j],@MSG[3] 638 vadd.i32 $W1,@Kxx[$j],@MSG[3] 646 vadd.i32 $E,$E,$E0 647 vadd.i32 $ABCD,$ABCD,$ABCD_SAV [all...] |
/external/libhevc/common/arm/ |
ihevc_itrans_recon_32x32.s | 484 vadd.s32 q4,q10,q12 487 vadd.s32 q6,q11,q13 490 vadd.s32 q7,q8,q14 494 vadd.s32 q8,q9,q15 823 vadd.s32 q4,q10,q12 826 vadd.s32 q6,q11,q13 829 vadd.s32 q7,q8,q14 833 vadd.s32 q8,q9,q15 1132 vadd.s32 q4,q10,q12 1135 vadd.s32 q6,q11,q1 [all...] |
ihevc_sao_edge_offset_class0_chroma.s | 200 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 202 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 215 VADD.U8 Q12,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 219 VADD.U8 Q12,Q12,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right) 362 VADD.U8 Q7,Q1,Q10 @edge_idx = vaddq_s8(const_2, sign_left) 365 VADD.U8 Q7,Q7,Q11 @edge_idx = vaddq_s8(edge_idx, sign_right) 378 VADD.U8 Q14,Q1,Q10 @II edge_idx = vaddq_s8(const_2, sign_left) 380 VADD.U8 Q14,Q14,Q11 @II edge_idx = vaddq_s8(edge_idx, sign_right)
|
ihevc_sao_edge_offset_class2.s | 294 VADD.I8 Q12,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 299 VADD.I8 Q12,Q12,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down) 378 VADD.I8 Q11,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 379 VADD.I8 Q11,Q11,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 392 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 394 VADD.I8 Q9,Q9,Q5 @III edge_idx = vaddq_s8(edge_idx, sign_down) 470 VADD.I8 Q9,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 471 VADD.I8 Q9,Q9,Q5 @edge_idx = vaddq_s8(edge_idx, sign_down) [all...] |
ihevc_sao_edge_offset_class2_chroma.s | 407 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 408 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 500 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 504 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 537 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 542 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) [all...] |
ihevc_sao_edge_offset_class3.s | 312 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 313 VADD.I8 Q9,Q9,Q5 @I edge_idx = vaddq_s8(edge_idx, sign_down) 401 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 406 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 421 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 423 VADD.I8 Q9,Q9,Q5 @III edge_idx = vaddq_s8(edge_idx, sign_down) 508 VADD.I8 Q13,Q0,Q7 @edge_idx = vaddq_s8(const_2, sign_up) 511 VADD.I8 Q13,Q13,Q12 @edge_idx = vaddq_s8(edge_idx, sign_down) [all...] |
ihevc_sao_edge_offset_class3_chroma.s | 399 VADD.I8 Q9,Q0,Q7 @I edge_idx = vaddq_s8(const_2, sign_up) 400 VADD.I8 Q9,Q9,Q11 @I edge_idx = vaddq_s8(edge_idx, sign_down) 503 VADD.I8 Q13,Q0,Q7 @II edge_idx = vaddq_s8(const_2, sign_up) 507 VADD.I8 Q13,Q13,Q12 @II edge_idx = vaddq_s8(edge_idx, sign_down) 529 VADD.I8 Q9,Q0,Q7 @III edge_idx = vaddq_s8(const_2, sign_up) 531 VADD.I8 Q9,Q9,Q11 @III edge_idx = vaddq_s8(edge_idx, sign_down) [all...] |
ihevc_deblk_luma_horz.s | 212 vadd.i16 q6,q6,q5 252 vadd.i16 q8,q8,q7 285 vadd.i16 q6,q6,q5 390 vadd.i16 q8,q4,q7
|
/external/llvm/test/CodeGen/ARM/ |
apcs-vfp.ll | 7 ; CHECK: vadd.f32 22 ; CHECK: vadd.f64
|
v7k-libcalls.ll | 7 ; CHECK: vadd.f32 22 ; CHECK: vadd.f64
|
vuzp.ll | 9 ; CHECK-NEXT: vadd.i8 d16, d17, d16 41 ; CHECK-NEXT: vadd.i16 d16, d17, d16 75 ; CHECK-NEXT: vadd.i8 q8, q9, q8 108 ; CHECK-NEXT: vadd.i16 q8, q9, q8 141 ; CHECK-NEXT: vadd.i32 q8, q9, q8 174 ; CHECK-NEXT: vadd.f32 q8, q9, q8 209 ; CHECK-NEXT: vadd.i8 d16, d17, d16 241 ; CHECK-NEXT: vadd.i16 q8, q9, q8
|
vzip.ll | 9 ; CHECK-NEXT: vadd.i8 d16, d17, d16 41 ; CHECK-NEXT: vadd.i16 d16, d17, d16 75 ; CHECK-NEXT: vadd.i8 q8, q9, q8 108 ; CHECK-NEXT: vadd.i16 q8, q9, q8 141 ; CHECK-NEXT: vadd.i32 q8, q9, q8 174 ; CHECK-NEXT: vadd.f32 q8, q9, q8 209 ; CHECK-NEXT: vadd.i8 d16, d17, d16 241 ; CHECK-NEXT: vadd.i8 q8, q9, q8
|
vtrn.ll | 9 ; CHECK-NEXT: vadd.i8 d16, d17, d16 41 ; CHECK-NEXT: vadd.i16 d16, d17, d16 73 ; CHECK-NEXT: vadd.i32 d16, d17, d16 105 ; CHECK-NEXT: vadd.f32 d16, d17, d16 137 ; CHECK-NEXT: vadd.i8 q8, q9, q8 170 ; CHECK-NEXT: vadd.i16 q8, q9, q8 203 ; CHECK-NEXT: vadd.i32 q8, q9, q8 236 ; CHECK-NEXT: vadd.f32 q8, q9, q8 270 ; CHECK-NEXT: vadd.i8 d16, d17, d16 302 ; CHECK-NEXT: vadd.i16 q8, q9, q [all...] |
dagcombine-anyexttozeroext.ll | 15 ; CHECK: vadd.f32
|
popcnt.ll | 24 ; CHECK: vadd.i8 {{d[0-9]+}}, {{d[0-9]+}}, {{d[0-9]+}} 36 ; CHECK: vadd.i8 {{q[0-9]+}}, {{q[0-9]+}}, {{q[0-9]+}} 48 ; CHECK: vadd.i8 {{d[0-9]+}}, {{d[0-9]+}}, {{d[0-9]+}} 63 ; CHECK: vadd.i8 {{q[0-9]+}}, {{q[0-9]+}}, {{q[0-9]+}}
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
sad8_neon.asm | 69 vadd.u32 d0, d0, d1 166 vadd.u32 d0, d0, d1
|
/external/opencv3/3rdparty/libwebp/dsp/ |
dec_neon.c | 332 "vadd.s32 q0, q2, q3 \n" // tmp[0] = a0 + a1 334 "vadd.s32 q1, q5, q4 \n" // tmp[4] = a3 + a2 346 "vadd.s32 q0, q0, q4 \n" // dc = tmp[0] + 3 347 "vadd.s32 q6, q0, q3 \n" // a0 = dc + tmp[3] 348 "vadd.s32 q7, q1, q2 \n" // a1 = tmp[1] + tmp[2] 352 "vadd.s32 q0, q6, q7 \n" 354 "vadd.s32 q1, q9, q8 \n"
|
/external/valgrind/none/tests/arm/ |
vfp.c | [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p2/src/ |
omxVCM4P2_PredictReconCoefIntra_s.s | 259 VADD qtemp,qtemp,qtempPred ;//pSrcDst[i]=pSrcDst[i]+qtempPred[i]: i=0 to 7 298 VADD dtemp0,dtemp0,dtempPred0 ;// Adding tempPred to coeffs 311 VADD dtemp0,dtemp0,dtempPred1
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/mips/ |
r5900-all-vu0.d | [all...] |
r5900-all-vu0.s | 816 vadd.w $vf0w, $vf0w, $vf0w 817 vadd.w $vf0w, $vf0w, $vf31w 818 vadd.w $vf0w, $vf31w, $vf0w 819 vadd.w $vf1w, $vf2w, $vf3w 820 vadd.w $vf31w, $vf0w, $vf0w 821 vadd.w $vf31w, $vf15w, $vf7w 822 vadd.w $vf31w, $vf31w, $vf31w 928 vadd.x $vf0x, $vf0x, $vf0x 929 vadd.x $vf0x, $vf0x, $vf31x 930 vadd.x $vf0x, $vf31x, $vf0 [all...] |
/external/llvm/lib/Target/ARM/ |
ARMHazardRecognizer.cpp | 41 // Look for special VMLA / VMLS hazards. A VMUL / VADD / VSUB following
|
/external/llvm/test/CodeGen/Thumb2/ |
2010-06-14-NEONCoalescer.ll | 28 ; CHECK: vadd.f64 [[ADD:d.*]], [[LDR]], [[LDR]]
|
/external/libavc/common/arm/ |
ih264_weighted_bi_pred_a9q.s | 505 vadd.s16 q4, q4, q3 @adding offset for rows 1,2 537 vadd.s16 q4, q4, q3 @adding offset for row 1 538 vadd.s16 q6, q6, q3 @adding offset for row 2 605 vadd.s16 q12, q12, q3 @adding offset for row 1L 607 vadd.s16 q4, q4, q3 @adding offset for row 1H 609 vadd.s16 q14, q14, q3 @adding offset for row 2L 611 vadd.s16 q6, q6, q3 @adding offset for row 2H 613 vadd.s16 q13, q13, q3 @adding offset for row 3L 615 vadd.s16 q8, q8, q3 @adding offset for row 3H 618 vadd.s16 q15, q15, q3 @adding offset for row 4 [all...] |