/external/libhevc/common/arm/ |
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 290 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 301 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 347 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 363 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 423 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx 440 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract) 496 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx 512 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract) 606 vdup.8 d12,r5 @dup_const_fract 633 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract [all...] |
ihevc_intra_pred_luma_planar.s | 220 vmovn.i16 d12, q6 @(1) 229 vst1.s8 d12, [r2], r3 @(1)str 8 values 389 vmovn.i16 d12, q6 @(1) 398 vst1.s8 d12, [r2], r3 @(1)str 8 values 540 @ vmovn.i16 d12, q6 541 vrshrn.s16 d12,q6,#3 542 vst1.s32 {d12[0]}, [r2], r3
|
ihevc_resi_trans.s | 268 VSUBL.U8 q6,d8,d9 @ R3:[d12[3] d12[2] d12[1] d12[0]] => Row 3 of residue 271 VTRN.16 d12,d13 @ Transpose step 2 273 @ Columns are in C1:d10, C2:d11, C3:d12 and C4:d13 283 VMUL.S16 d12,d12,d4[0] @ d12 = 74*C3 295 VADDW.S16 q7,q7,d12 @ q7 = 29*C1 + 55*C2 + 74*C3 + 84*C [all...] |
ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 314 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0) 325 vmull.u8 q12, d12, d7 @mul (row 0) 356 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4) 368 vmull.u8 q12, d12, d7 @mul (row 4) 477 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0) 503 vmull.u8 q12, d12, d7 @mul (row 0) 538 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4) 555 vmull.u8 q12, d12, d7 @mul (row 4)
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S | 125 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 160 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 216 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 265 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 329 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 388 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 390 vzip.32 d0, d12 @vector zip the i iteration and ii
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S | 126 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 161 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 217 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 266 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 330 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 389 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 391 vzip.32 d0, d12 @vector zip the i iteration and ii
|
vpx_convolve8_horiz_filter_type1_neon.asm.S | 125 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 212 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 258 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 314 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 368 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 370 vzip.32 d0, d12 @vector zip the i iteration and ii
|
vpx_convolve8_horiz_filter_type2_neon.asm.S | 125 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0], 212 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 258 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4], 314 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4], 368 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd 370 vzip.32 d0, d12 @vector zip the i iteration and ii
|
loopfilter_16_neon.asm.S | 64 vld1.u8 {d12}, [r8,:64], r1 @ q4 193 vld1.8 {d12}, [r0,:64], r1 220 vtrn.8 d12, d13 379 @ d12 q4 443 vabd.u8 d23, d12, d8 @ abs(q4 - q0) 609 vaddw.u8 q15, d12 @ op2 += q4 652 vaddl.u8 q4, d12, d15 657 vaddl.u8 q14, d5, d12 675 vbif d1, d12, d17 @ oq4 |= q4 & ~(f2 & f & m)
|
/external/libavc/common/arm/ |
ih264_iquant_itrans_recon_a9.s | 186 vswp d12, d13 190 vtrn.16 d12, d13 191 vtrn.32 d10, d12 193 vadd.s16 d14, d10, d12 @x0 = q0 + q1; 195 vsub.s16 d15, d10, d12 @x1 = q0 - q1; 361 vswp d12, d13 365 vtrn.16 d12, d13 366 vtrn.32 d10, d12 368 vadd.s16 d14, d10, d12 @x0 = q0 + q1; 370 vsub.s16 d15, d10, d12 @x1 = q0 - q1 [all...] |
ih264_intra_pred_luma_8x8_a9q.s | 806 vst1.32 {d12[1]}, [r1]! 810 vst1.32 {d12[1]}, [r1]! 814 vst1.32 {d12[1]}, [r1], r5 819 vst1.16 {d12[2]}, [r1], r6 821 vst1.32 {d12[0]}, [r1]! 919 vst1.8 {d12}, [r1], r3 1006 vtbl.u8 d12, {q2, q3}, d10 1011 vst1.8 {d12}, [r1], r3
|
ih264_weighted_bi_pred_a9q.s | 215 vld1.8 d12, [r0], r3 @load row 3 in source 1 226 vmovl.u8 q6, d12 @converting row 3 in source 1 to 16-bit 250 vqmovun.s16 d12, q6 @saturating row 3 to unsigned 8-bit 256 vst1.8 d12, [r2], r5 @store row 3 in destination 291 vmovl.u8 q14, d12 @converting row 3L in source 1 to 16-bit 522 vld1.8 d12, [r0], r3 @load row 2 in source 1 526 vmovl.u8 q6, d12 @converting row 2 in source 1 to 16-bit 541 vqmovun.s16 d12, q6 @saturating row 2 to unsigned 8-bit 544 vst1.8 d12, [r2], r5 @store row 2 in destination 568 vmovl.u8 q14, d12 @converting row 2L in source 1 to 16-bi [all...] |
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 344 vaddl.s16 q9, d12, d28 574 vaddl.s16 q9, d12, d28 806 vaddl.s16 q9, d12, d28 880 vmla.u16 d10, d12, d22 884 vmls.u16 d10, d12, d23 894 vmla.u16 d12, d14, d22 898 vmls.u16 d12, d14, d23 909 vst1.32 d12, [r9], r6 @ store temp buffer 3 926 vadd.s16 d2, d10, d12 945 vadd.s16 d2, d12, d1 [all...] |
/external/capstone/suite/MC/ARM/ |
neon-vld-encoding.s.cs | 74 0x01,0xc4,0x26,0xf4 = vld3.8 {d12, d13, d14}, [r6], r1 75 0x42,0xb4,0x27,0xf4 = vld3.16 {d11, d12, d13}, [r7], r2 113 0xcd,0xc0,0xa2,0xf4 = vld1.8 {d12[6]}, [r2]! 114 0xc2,0xc0,0xa2,0xf4 = vld1.8 {d12[6]}, [r2], r2 115 0xcd,0xc4,0xa2,0xf4 = vld1.16 {d12[3]}, [r2]! 116 0x82,0xc4,0xa2,0xf4 = vld1.16 {d12[2]}, [r2], r2 137 0x61,0xc2,0xa6,0xf4 = vld3.8 {d12[3], d13[3], d14[3]}, [r6], r1 138 0x82,0xb6,0xa7,0xf4 = vld3.16 {d11[2], d12[2], d13[2]}, [r7], r2
|
neon-vst-encoding.s.cs | 34 0x01,0xc4,0x06,0xf4 = vst3.8 {d12, d13, d14}, [r6], r1 35 0x42,0xb4,0x07,0xf4 = vst3.16 {d11, d12, d13}, [r7], r2 83 0x21,0xc2,0x86,0xf4 = vst3.8 {d12[1], d13[1], d14[1]}, [r6], r1 84 0x42,0xb6,0x87,0xf4 = vst3.16 {d11[1], d12[1], d13[1]}, [r7], r2
|
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra4x4_modes_a9q.s | 247 vqrshrun.s16 d12, q11, #2 430 vbit.32 d3, d12, d28 432 vbit.32 d2, d12, d26 435 vbit.32 d2, d12, d28
|
/external/llvm/test/MC/ARM/ |
neon-vst-encoding.s | 68 vst3.i8 {d12, d13, d14}, [r6], r1 69 vst3.i16 {d11, d12, d13}, [r7], r2 88 @ CHECK: vst3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x06,0xf4] 89 @ CHECK: vst3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x07,0xf4] 184 vst3.i8 {d12[1], d13[1], d14[1]}, [r6], r1 185 vst3.i16 {d11[1], d12[1], d13[1]}, [r7], r2 201 @ CHECK: vst3.8 {d12[1], d13[1], d14[1]}, [r6], r1 @ encoding: [0x21,0xc2,0x86,0xf4] 202 @ CHECK: vst3.16 {d11[1], d12[1], d13[1]}, [r7], r2 @ encoding: [0x42,0xb6,0x87,0xf4]
|
invalid-neon-v8.s | 19 vrinta.f64.f64 s3, d12
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
invalid-fp-armv8.s | 7 vcvtt.f16.f64 s5, d12 8 @ V7-NOT: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
|
neon-vst-encoding.s | 68 vst3.i8 {d12, d13, d14}, [r6], r1 69 vst3.i16 {d11, d12, d13}, [r7], r2 88 @ CHECK: vst3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x06,0xf4] 89 @ CHECK: vst3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x07,0xf4] 184 vst3.i8 {d12[1], d13[1], d14[1]}, [r6], r1 185 vst3.i16 {d11[1], d12[1], d13[1]}, [r7], r2 201 @ CHECK: vst3.8 {d12[1], d13[1], d14[1]}, [r6], r1 @ encoding: [0x21,0xc2,0x86,0xf4] 202 @ CHECK: vst3.16 {d11[1], d12[1], d13[1]}, [r7], r2 @ encoding: [0x42,0xb6,0x87,0xf4]
|
/bionic/libc/arch-arm64/bionic/ |
setjmp.S | 176 stp d12, d13, [x0, #(_JB_D12_D13 * 8)] 286 ldp d12, d13, [x0, #(_JB_D12_D13 * 8)]
|
/external/apache-commons-math/src/main/java/org/apache/commons/math/analysis/solvers/ |
MullerSolver.java | 203 // d01, d12, d012 are divided differences 228 final double d12 = (y2 - y1) / (x2 - x1); local 229 final double d012 = (d12 - d01) / (x2 - x0);
|
/external/boringssl/src/crypto/fipsmodule/aes/asm/ |
vpaes-armv8.pl | [all...] |
/external/libxaac/decoder/armv7/ |
ixheaacd_fft32x32_ld.s | 122 VLD2.32 {d12[0], d14[0]}, [r5], r1 133 VLD2.32 {d12[1], d14[1]}, [r6], r1 517 VLD2.32 {d12[0], d14[0]}, [r5], r1 528 VLD2.32 {d12[1], d14[1]}, [r6], r1 601 VSWP d12, d9 703 VLD4.16 {q5, q6}, [r14], r12 @a_data1_r_l=d10 , a_data1_r_h=d11, a_data1_i_l=d12, a_data1_i_h=d13 708 VSHR.U16 d12, d12, #1 @a_data1.val[2]= vreinterpret_s16_u16(vshr_n_u16(vreinterpret_u16_s16(a_data1.val[2]), 1))@ 711 VMLSL.S16 q11, d12, d1 @prod_1r=vmlsl_s16(prod_1r, a_data1.val[2], sin_1)@ 714 VMLAL.S16 q12, d12, d0 @prod_1i=vmlal_s16(prod_1i, a_data1.val[2], cos_1) [all...] |
/external/boringssl/linux-aarch64/crypto/test/ |
trampoline-armv8.S | 41 stp d12, d13, [sp, #48] 57 ldp d12, d13, [x1], #16 102 stp d12, d13, [x1], #16 122 ldp d12, d13, [sp, #48] 466 fmov d12, xzr
|