/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
idct4x4_add_neon.asm.S | 65 vdup.16 d20, r0 @ replicate cospi_8_64 84 vmull.s16 q1, d17, d20 @ input[1] * cospi_8_64 95 vmlsl.s16 q15, d19, d20 137 vmull.s16 q1, d17, d20 @ input[1] * cospi_8_64 146 vmlsl.s16 q15, d19, d20
|
loopfilter_8_neon.asm.S | 251 vabd.u8 d20, d4, d5 @ m2 = abs(p2 - p1) 258 vmax.u8 d19, d19, d20 @ m1 = max(m1, m2) 259 vmax.u8 d20, d21, d22 @ m2 = max(m3, m4) 267 vmax.u8 d19, d19, d20 291 vmax.u8 d20, d20, d25 @ m2 = max(m2, m4) 298 vcge.u8 d20, d23, d20 @ flat 304 vand d20, d20, d19 @ flat & mas [all...] |
/external/boringssl/ios-arm/crypto/fipsmodule/ |
ghash-armv4.S | 457 vext.8 d20, d26, d26, #3 @ A3 459 vmull.p8 q10, d20, d6 @ J = A3*B 472 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24 478 veor d20, d20, d21 495 vext.8 d20, d28, d28, #3 @ A3 497 vmull.p8 q10, d20, d6 @ J = A3*B 510 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 2 [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
ghash-armv4.S | 446 vext.8 d20, d26, d26, #3 @ A3 448 vmull.p8 q10, d20, d6 @ J = A3*B 461 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 24 467 veor d20, d20, d21 484 vext.8 d20, d28, d28, #3 @ A3 486 vmull.p8 q10, d20, d6 @ J = A3*B 499 veor d20, d20, d21 @ t2 = (N) (P4 + P5) << 2 [all...] |
/external/libavc/common/arm/ |
ih264_resi_trans_quant_a9.s | 166 vsub.s16 d20, d15, d16 @x2 = x5-x6 169 vshl.s16 d22, d20, #1 @U_SHIFT(x2,1,shft) 176 vadd.s16 d25, d23, d20 @x6 = U_SHIFT(x3,1,shft) + x2; 228 vpadd.u8 d20, d18, d19 @I Pair add nnz 2 229 vpadd.u8 d22, d20, d21 @I Pair add nnz 3 361 vsub.s16 d20, d15, d16 @x2 = x5-x6 364 vshl.s16 d22, d20, #1 @U_SHIFT(x2,1,shft) 371 vadd.s16 d25, d23, d20 @x6 = U_SHIFT(x3,1,shft) + x2; 422 vpadd.u8 d20, d18, d19 @I Pair add nnz 2 423 vpadd.u8 d22, d20, d21 @I Pair add nnz [all...] |
ih264_inter_pred_filters_luma_horz_a9q.s | 165 vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0) 168 vst1.8 {d20, d21}, [r1], r3 @//Store dest row0 204 vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row1) 205 vst1.8 {d20}, [r1], r3 @//Store dest row1 237 vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row1) 238 vst1.32 d20[0], [r1], r3 @//Store dest row1
|
/external/vixl/test/aarch32/ |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 487 {{F64, d20, d12, d17}, 488 "F64 d20 d12 d17", [all...] |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 487 {{F64, d20, d12, d17}, 488 "F64 d20 d12 d17", [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_16_neon.asm | 86 vst1.u8 {d20}, [r8@64], r1 ; store op0 104 vst1.u8 {d20}, [r8@64], r1 ; store oq0 241 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1 243 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1 245 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1 247 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1 249 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1 251 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1 253 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1 255 vst3.8 {d18[7], d19[7], d20[7]}, [r8], r [all...] |
/external/capstone/suite/MC/ARM/ |
neont2-pairwise-encoding.s.cs | 19 0xf4,0xff,0x09,0x46 = vpadal.s16 d20, d9 34 0x59,0xff,0x9e,0x4a = vpmin.u16 d20, d25, d14 37 0x04,0xef,0xa1,0x3a = vpmax.s8 d3, d20, d17 package
|
simple-fp-encoding.s.cs | 11 0xa1,0x4b,0x64,0xee = vmul.f64 d20, d20, d17 package 145 0xc0,0x4b,0xfb,0xee = vcvt.f64.u32 d20, d20, #32 package 153 0xc0,0x4b,0xff,0xee = vcvt.u32.f64 d20, d20, #32 package
|
/external/libhevc/common/arm64/ |
ihevc_intra_pred_luma_dc.s | 259 movi d20, #0x00000000000000ff //byte mask row 1 (prol) 274 movi d20, #0x00000000000000ff //byte mask row 3 (prol) 290 movi d20, #0x00000000000000ff //byte mask row 5 (prol) 309 movi d20, #0x00000000000000ff //byte mask row 7 (prol) 326 movi d20, #0x00000000000000ff //byte mask row 9 (prol) 348 movi d20, #0x00000000000000ff //byte mask row 9 (prol) 481 movi d20, #0x00000000000000ff //byte mask row 1 (prol) 501 movi d20, #0x00000000000000ff //byte mask row 3 (prol)
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_chroma_mode2.s | 150 vrev64.8 d20,d4 181 vst2.8 {d20,d21},[r9],r5 214 vrev64.8 d20,d4 243 vst2.8 {d20,d21},[r9],r5
|
ihevc_deblk_luma_vert.s | 235 vrshrn.i16 d20,q10,#3 256 vmin.u8 d26,d20,d21 259 vmax.u8 d20,d26,d25 388 vtrn.8 d20,d21 390 vst1.16 {d20[0]},[r0] 392 vst1.16 {d20[1]},[r3],r1 471 vmax.s8 d20,d18,d30 474 vmovl.s8 q8,d20 504 vaddw.s8 q8,q8,d20 559 vsubw.s8 q1,q1,d20 [all...] |
ihevc_intra_pred_chroma_mode_27_to_33.s | 199 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 222 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 265 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 301 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 347 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 364 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 410 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 440 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 527 vld1.8 {d20},[r10] @ref_main_idx 533 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_chroma_mode_3_to_9.s | 240 vrshrn.i16 d20, q10, #5 @round shft (row 2) 250 vst1.8 d20, [r2], r3 @st (row 2) 286 vrshrn.i16 d20, q10, #5 @round shft (row 6) 289 vst1.8 d20, [r2], r3 @st (row 6) 374 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 387 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6) 425 vrshrn.i16 d20, q10, #5 @round shft (row 2) 438 vst1.8 d20, [r2], r3 @st (row 2) 485 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 487 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6 [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 201 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 223 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 266 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 301 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 347 vld1.8 {d20},[r12],r11 @(iv)ref_main_idx 364 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 409 vld1.8 {d20},[r12],r11 @(viii)ref_main_idx 438 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 525 vld1.32 {d20[0]},[r10] @ref_main_idx 531 vmull.u8 q11,d20,d19 @vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 352 vrshrn.i16 d20, q10, #5 @round shft (row 2) 362 vst1.8 d20, [r2], r3 @st (row 2) 396 vrshrn.i16 d20, q10, #5 @round shft (row 6) 399 vst1.8 d20, [r2], r3 @st (row 6) 474 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 488 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6) 527 vrshrn.i16 d20, q10, #5 @round shft (row 2) 540 vst1.8 d20, [r2], r3 @st (row 2) 583 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 585 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6 [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 242 vrshrn.i16 d20, q10, #5 @round shft (row 2) 252 vst1.8 d20, [r2], r3 @st (row 2) 286 vrshrn.i16 d20, q10, #5 @round shft (row 6) 289 vst1.8 d20, [r2], r3 @st (row 6) 365 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 379 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6) 417 vrshrn.i16 d20, q10, #5 @round shft (row 2) 430 vst1.8 d20, [r2], r3 @st (row 2) 474 vrshrn.i16 d20, q10, #5 @(from previous loop)round shft (row 6) 476 vst1.8 d20, [r5], r3 @(from previous loop)st (row 6 [all...] |
/external/llvm/test/MC/ARM/ |
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra_chroma_modes_a9q.s | 175 vabdl.u8 q13, d0, d20 190 vabal.u8 q13, d2, d20 211 vabal.u8 q13, d0, d20 226 vabal.u8 q13, d2, d20 306 vst1.32 {d20, d21} , [r2], r4 @0
|
/external/boringssl/src/crypto/poly1305/ |
poly1305_arm_asm.S | 241 # asm 2: vld1.8 {<x4=d20},[<input_0=r0,: 64] 242 vld1.8 {d20},[r0,: 64] 519 # asm 2: vmlal.u32 <r4=q15,<x4=d20,<z0=d6 520 vmlal.u32 q15,d20,d6 574 # asm 2: vmlal.u32 <r3=q4,<x4=d20,<5z34=d11 575 vmlal.u32 q4,d20,d11 614 # asm 2: vmlal.u32 <r2=q13,<x4=d20,<5z34=d10 615 vmlal.u32 q13,d20,d10 659 # asm 2: vmlal.u32 <r1=q14,<x4=d20,<5z12=d1 660 vmlal.u32 q14,d20,d [all...] |
/external/boringssl/src/crypto/curve25519/asm/ |
x25519-asm-arm.S | 103 vld1.8 {d20},[r2] 536 vst1.8 {d20-d21},[r2,: 128] 566 vst1.8 {d20-d21},[r2,: 128] 595 vld1.8 {d20-d21},[r2,: 128] 597 vmlal.s32 q7,d25,d20 599 vmlal.s32 q4,d29,d20 601 vmlal.s32 q8,d28,d20 602 vmlal.s32 q5,d24,d20 611 vmlal.s32 q7,d27,d20 636 vmlal.s32 q1,d23,d20 [all...] |
/external/libvpx/libvpx/vp8/encoder/x86/ |
fwalsh_sse2.asm | 100 psubd xmm2, xmm4 ; c21 c20 d21 d20 137 punpcklqdq xmm5, xmm3 ; d23 d22 d21 d20 140 packssdw xmm2, xmm5 ; d23 d22 d21 d20 c23 c22 c21 c20
|