HomeSort by relevance Sort by last modified time
    Searched refs:d12 (Results 151 - 175 of 275) sorted by null

1 2 3 4 5 67 8 91011

  /external/libhevc/common/arm/
ihevc_intra_pred_filters_luma_mode_19_to_25.s 290 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
301 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
347 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
363 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
423 vld1.8 {d12},[r12],r11 @(ii)ref_main_idx
440 vmull.u8 q7,d12,d28 @(ii)vmull_u8(ref_main_idx, dup_const_32_fract)
496 vld1.8 {d12},[r12],r11 @(vi)ref_main_idx
512 vmull.u8 q7,d12,d28 @(vi)vmull_u8(ref_main_idx, dup_const_32_fract)
606 vdup.8 d12,r5 @dup_const_fract
633 vmlal.u8 q8,d15,d12 @vmull_u8(ref_main_idx_1, dup_const_fract
    [all...]
ihevc_intra_pred_luma_planar.s 220 vmovn.i16 d12, q6 @(1)
229 vst1.s8 d12, [r2], r3 @(1)str 8 values
389 vmovn.i16 d12, q6 @(1)
398 vst1.s8 d12, [r2], r3 @(1)str 8 values
540 @ vmovn.i16 d12, q6
541 vrshrn.s16 d12,q6,#3
542 vst1.s32 {d12[0]}, [r2], r3
ihevc_resi_trans.s 268 VSUBL.U8 q6,d8,d9 @ R3:[d12[3] d12[2] d12[1] d12[0]] => Row 3 of residue
271 VTRN.16 d12,d13 @ Transpose step 2
273 @ Columns are in C1:d10, C2:d11, C3:d12 and C4:d13
283 VMUL.S16 d12,d12,d4[0] @ d12 = 74*C3
295 VADDW.S16 q7,q7,d12 @ q7 = 29*C1 + 55*C2 + 74*C3 + 84*C
    [all...]
ihevc_intra_pred_filters_chroma_mode_11_to_17.s 314 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0)
325 vmull.u8 q12, d12, d7 @mul (row 0)
356 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4)
368 vmull.u8 q12, d12, d7 @mul (row 4)
477 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 0)
503 vmull.u8 q12, d12, d7 @mul (row 0)
538 vtbl.8 d12, {d0,d1,d2,d3}, d8 @load from ref_main_idx (row 4)
555 vmull.u8 q12, d12, d7 @mul (row 4)
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S 125 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
160 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
216 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
265 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4],
329 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
388 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
390 vzip.32 d0, d12 @vector zip the i iteration and ii
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S 126 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
161 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
217 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
266 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4],
330 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
389 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
391 vzip.32 d0, d12 @vector zip the i iteration and ii
vpx_convolve8_horiz_filter_type1_neon.asm.S 125 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
212 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
258 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4],
314 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
368 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
370 vzip.32 d0, d12 @vector zip the i iteration and ii
vpx_convolve8_horiz_filter_type2_neon.asm.S 125 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
212 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
258 vmlal.u8 q5, d12, d28 @mul_res = vmlal_u8(src[0_4],
314 vmlal.u8 q4, d12, d28 @mul_res = vmlal_u8(src[0_4],
368 vld1.u32 {d12}, [r4], r11 @vector load pu1_src + src_strd
370 vzip.32 d0, d12 @vector zip the i iteration and ii
loopfilter_16_neon.asm.S 64 vld1.u8 {d12}, [r8,:64], r1 @ q4
193 vld1.8 {d12}, [r0,:64], r1
220 vtrn.8 d12, d13
379 @ d12 q4
443 vabd.u8 d23, d12, d8 @ abs(q4 - q0)
609 vaddw.u8 q15, d12 @ op2 += q4
652 vaddl.u8 q4, d12, d15
657 vaddl.u8 q14, d5, d12
675 vbif d1, d12, d17 @ oq4 |= q4 & ~(f2 & f & m)
  /external/libavc/common/arm/
ih264_iquant_itrans_recon_a9.s 186 vswp d12, d13
190 vtrn.16 d12, d13
191 vtrn.32 d10, d12
193 vadd.s16 d14, d10, d12 @x0 = q0 + q1;
195 vsub.s16 d15, d10, d12 @x1 = q0 - q1;
361 vswp d12, d13
365 vtrn.16 d12, d13
366 vtrn.32 d10, d12
368 vadd.s16 d14, d10, d12 @x0 = q0 + q1;
370 vsub.s16 d15, d10, d12 @x1 = q0 - q1
    [all...]
ih264_intra_pred_luma_8x8_a9q.s 806 vst1.32 {d12[1]}, [r1]!
810 vst1.32 {d12[1]}, [r1]!
814 vst1.32 {d12[1]}, [r1], r5
819 vst1.16 {d12[2]}, [r1], r6
821 vst1.32 {d12[0]}, [r1]!
919 vst1.8 {d12}, [r1], r3
1006 vtbl.u8 d12, {q2, q3}, d10
1011 vst1.8 {d12}, [r1], r3
ih264_weighted_bi_pred_a9q.s 215 vld1.8 d12, [r0], r3 @load row 3 in source 1
226 vmovl.u8 q6, d12 @converting row 3 in source 1 to 16-bit
250 vqmovun.s16 d12, q6 @saturating row 3 to unsigned 8-bit
256 vst1.8 d12, [r2], r5 @store row 3 in destination
291 vmovl.u8 q14, d12 @converting row 3L in source 1 to 16-bit
522 vld1.8 d12, [r0], r3 @load row 2 in source 1
526 vmovl.u8 q6, d12 @converting row 2 in source 1 to 16-bit
541 vqmovun.s16 d12, q6 @saturating row 2 to unsigned 8-bit
544 vst1.8 d12, [r2], r5 @store row 2 in destination
568 vmovl.u8 q14, d12 @converting row 2L in source 1 to 16-bi
    [all...]
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s 344 vaddl.s16 q9, d12, d28
574 vaddl.s16 q9, d12, d28
806 vaddl.s16 q9, d12, d28
880 vmla.u16 d10, d12, d22
884 vmls.u16 d10, d12, d23
894 vmla.u16 d12, d14, d22
898 vmls.u16 d12, d14, d23
909 vst1.32 d12, [r9], r6 @ store temp buffer 3
926 vadd.s16 d2, d10, d12
945 vadd.s16 d2, d12, d1
    [all...]
  /external/capstone/suite/MC/ARM/
neon-vld-encoding.s.cs 74 0x01,0xc4,0x26,0xf4 = vld3.8 {d12, d13, d14}, [r6], r1
75 0x42,0xb4,0x27,0xf4 = vld3.16 {d11, d12, d13}, [r7], r2
113 0xcd,0xc0,0xa2,0xf4 = vld1.8 {d12[6]}, [r2]!
114 0xc2,0xc0,0xa2,0xf4 = vld1.8 {d12[6]}, [r2], r2
115 0xcd,0xc4,0xa2,0xf4 = vld1.16 {d12[3]}, [r2]!
116 0x82,0xc4,0xa2,0xf4 = vld1.16 {d12[2]}, [r2], r2
137 0x61,0xc2,0xa6,0xf4 = vld3.8 {d12[3], d13[3], d14[3]}, [r6], r1
138 0x82,0xb6,0xa7,0xf4 = vld3.16 {d11[2], d12[2], d13[2]}, [r7], r2
neon-vst-encoding.s.cs 34 0x01,0xc4,0x06,0xf4 = vst3.8 {d12, d13, d14}, [r6], r1
35 0x42,0xb4,0x07,0xf4 = vst3.16 {d11, d12, d13}, [r7], r2
83 0x21,0xc2,0x86,0xf4 = vst3.8 {d12[1], d13[1], d14[1]}, [r6], r1
84 0x42,0xb6,0x87,0xf4 = vst3.16 {d11[1], d12[1], d13[1]}, [r7], r2
  /external/libavc/encoder/arm/
ih264e_evaluate_intra4x4_modes_a9q.s 247 vqrshrun.s16 d12, q11, #2
430 vbit.32 d3, d12, d28
432 vbit.32 d2, d12, d26
435 vbit.32 d2, d12, d28
  /external/llvm/test/MC/ARM/
neon-vst-encoding.s 68 vst3.i8 {d12, d13, d14}, [r6], r1
69 vst3.i16 {d11, d12, d13}, [r7], r2
88 @ CHECK: vst3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x06,0xf4]
89 @ CHECK: vst3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x07,0xf4]
184 vst3.i8 {d12[1], d13[1], d14[1]}, [r6], r1
185 vst3.i16 {d11[1], d12[1], d13[1]}, [r7], r2
201 @ CHECK: vst3.8 {d12[1], d13[1], d14[1]}, [r6], r1 @ encoding: [0x21,0xc2,0x86,0xf4]
202 @ CHECK: vst3.16 {d11[1], d12[1], d13[1]}, [r7], r2 @ encoding: [0x42,0xb6,0x87,0xf4]
invalid-neon-v8.s 19 vrinta.f64.f64 s3, d12
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
invalid-fp-armv8.s 7 vcvtt.f16.f64 s5, d12
8 @ V7-NOT: vcvtt.f16.f64 s5, d12 @ encoding: [0xcc,0x2b,0xf3,0xee]
neon-vst-encoding.s 68 vst3.i8 {d12, d13, d14}, [r6], r1
69 vst3.i16 {d11, d12, d13}, [r7], r2
88 @ CHECK: vst3.8 {d12, d13, d14}, [r6], r1 @ encoding: [0x01,0xc4,0x06,0xf4]
89 @ CHECK: vst3.16 {d11, d12, d13}, [r7], r2 @ encoding: [0x42,0xb4,0x07,0xf4]
184 vst3.i8 {d12[1], d13[1], d14[1]}, [r6], r1
185 vst3.i16 {d11[1], d12[1], d13[1]}, [r7], r2
201 @ CHECK: vst3.8 {d12[1], d13[1], d14[1]}, [r6], r1 @ encoding: [0x21,0xc2,0x86,0xf4]
202 @ CHECK: vst3.16 {d11[1], d12[1], d13[1]}, [r7], r2 @ encoding: [0x42,0xb6,0x87,0xf4]
  /bionic/libc/arch-arm64/bionic/
setjmp.S 176 stp d12, d13, [x0, #(_JB_D12_D13 * 8)]
286 ldp d12, d13, [x0, #(_JB_D12_D13 * 8)]
  /external/apache-commons-math/src/main/java/org/apache/commons/math/analysis/solvers/
MullerSolver.java 203 // d01, d12, d012 are divided differences
228 final double d12 = (y2 - y1) / (x2 - x1); local
229 final double d012 = (d12 - d01) / (x2 - x0);
  /external/boringssl/src/crypto/fipsmodule/aes/asm/
vpaes-armv8.pl     [all...]
  /external/libxaac/decoder/armv7/
ixheaacd_fft32x32_ld.s 122 VLD2.32 {d12[0], d14[0]}, [r5], r1
133 VLD2.32 {d12[1], d14[1]}, [r6], r1
517 VLD2.32 {d12[0], d14[0]}, [r5], r1
528 VLD2.32 {d12[1], d14[1]}, [r6], r1
601 VSWP d12, d9
703 VLD4.16 {q5, q6}, [r14], r12 @a_data1_r_l=d10 , a_data1_r_h=d11, a_data1_i_l=d12, a_data1_i_h=d13
708 VSHR.U16 d12, d12, #1 @a_data1.val[2]= vreinterpret_s16_u16(vshr_n_u16(vreinterpret_u16_s16(a_data1.val[2]), 1))@
711 VMLSL.S16 q11, d12, d1 @prod_1r=vmlsl_s16(prod_1r, a_data1.val[2], sin_1)@
714 VMLAL.S16 q12, d12, d0 @prod_1i=vmlal_s16(prod_1i, a_data1.val[2], cos_1)
    [all...]
  /external/boringssl/linux-aarch64/crypto/test/
trampoline-armv8.S 41 stp d12, d13, [sp, #48]
57 ldp d12, d13, [x1], #16
102 stp d12, d13, [x1], #16
122 ldp d12, d13, [sp, #48]
466 fmov d12, xzr

Completed in 3943 milliseconds

1 2 3 4 5 67 8 91011