HomeSort by relevance Sort by last modified time
    Searched refs:d16 (Results 126 - 150 of 275) sorted by null

1 2 3 4 56 7 8 91011

  /system/core/debuggerd/arm/
crashglue.S 36 fconstd d16, #16
  /external/libhevc/common/arm/
ihevc_inter_pred_filters_luma_vert_w16inp.s 162 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
176 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
188 vmlal.s16 q6,d16,d28
201 vmlal.s16 q7,d16,d27
234 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
247 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
269 vmlal.s16 q6,d16,d28
288 vmlal.s16 q7,d16,d27
318 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
326 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)
    [all...]
ihevc_inter_pred_luma_vert_w16inp_w16out.s 172 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
186 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
198 vmlal.s16 q6,d16,d28
212 vmlal.s16 q7,d16,d27
248 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
261 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
284 vmlal.s16 q6,d16,d28
304 vmlal.s16 q7,d16,d27
336 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
344 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)
    [all...]
ihevc_intra_pred_chroma_mode_27_to_33.s 189 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
201 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
248 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
265 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
327 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
344 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
526 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5)
532 vst1.8 {d16},[r2],r
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 300 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
312 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
355 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
372 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
435 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
451 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
504 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
524 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
634 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5)
640 vst1.32 {d16[0]},[r2],r
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 192 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
204 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
250 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
267 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
328 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
345 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
525 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5)
531 vst1.32 {d16[0]},[r2],r
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 209 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
220 vmull.u8 q11, d16, d7 @mul (row 1)
252 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5)
264 vmull.u8 q11, d16, d7 @mul (row 5)
316 vmov.i8 d16,#8
328 vadd.s8 d8, d8, d16 @to compensate the pu1_src idx incremented by 8
530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
537 vmull.u8 q11, d16, d7 @mul (row 1)
548 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 3)
556 vmull.u8 q9, d16, d7 @mul (row 3
    [all...]
ihevc_inter_pred_filters_luma_vert.s 169 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
195 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@
209 vmlal.u8 q6,d16,d28
224 vmlsl.u8 q7,d16,d27
249 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
286 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@
310 vmlal.u8 q6,d16,d28
331 vmlsl.u8 q7,d16,d27
359 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
367 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)
    [all...]
ihevc_intra_pred_filters_luma_mode_11_to_17.s 319 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
330 vmull.u8 q11, d16, d7 @mul (row 1)
362 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5)
374 vmull.u8 q11, d16, d7 @mul (row 5)
474 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
492 vmull.u8 q11, d16, d7 @mul (row 1)
530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5)
547 vmull.u8 q11, d16, d7 @mul (row 5)
647 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
654 vmull.u8 q11, d16, d7 @mul (row 1
    [all...]
ihevc_inter_pred_filters_luma_horz.s 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4]
231 vld1.u32 {d16},[r4],r11 @vector load pu1_src + src_strd
237 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@
305 vmlal.u8 q4,d16,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@
362 vmlal.u8 q5,d16,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@
407 vmlal.u8 q4,d16,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@
481 vld1.u32 {d16},[r4],r11
484 vzip.32 d4,d16
492 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4]
  /external/libavc/common/arm/
ih264_resi_trans_quant_a9.s 152 vsub.s16 d16, d8, d9 @x6 = x0 - x1;
158 vtrn.16 d16, d17 @T23
159 vtrn.32 d14, d16 @T13
165 vadd.s16 d19, d15, d16 @x1 = x5+x6
166 vsub.s16 d20, d15, d16 @x2 = x5-x6
227 vpadd.u8 d18, d16, d17 @I pair add nnz 1
347 vsub.s16 d16, d8, d9 @x6 = x0 - x1;
353 vtrn.16 d16, d17 @T23
354 vtrn.32 d14, d16 @T13
360 vadd.s16 d19, d15, d16 @x1 = x5+x
    [all...]
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 162 vld1.u32 d16, [r0], r2 @ Vector load from src[4_0]
179 vaddl.u8 q13, d13, d16
252 vaddl.u8 q12, d15, d16
357 vmlal.s16 q15, d16, d26
386 vmlal.s16 q15, d16, d26
393 vqrshrun.s32 d16, q15, #10
449 vmlal.s16 q15, d16, d26
476 vmlal.s16 q15, d16, d26
483 vqrshrun.s32 d16, q15, #10
  /external/libpng/arm/
filter_neon.S 125 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
126 vhadd.u8 d0, d3, d16
198 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
199 paeth d0, d3, d16, d20
201 paeth d1, d0, d17, d16
  /external/opencv3/3rdparty/libpng/arm/
filter_neon.S 100 vld4.32 {d16[],d17[],d18[],d19[]},[r2]!
101 vhadd.u8 d0, d3, d16
173 vld4.32 {d16[],d17[],d18[],d19[]},[r2]!
174 paeth d0, d3, d16, d20
176 paeth d1, d0, d17, d16
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 131 vmull.u8 q8, d14, d16
157 vrshrn.u16 d16, q8, #8
175 vmull.u8 q0, d6, d16
275 vmull.u8 q8, d6, d16
322 vmull.u8 q8, d6, d16
362 vmull.u8 q0, d0, d16
457 vld4.8 {d16,d18,d20,d22}, [r1]!
460 vld1.8 {d16-d19}, [r1]!
515 .if \ldsrc ; vld1.32 {d16[1]}, [r1]! ; .endif
519 .if \ldsrc ; vld1.16 {d16[1]}, [r1]! ; .endi
    [all...]
rsCpuIntrinsics_neon_Convolve.S 89 vshrn.i32 d16, q8, #8
92 vqmovun.s16 d16, q8
93 vst1.8 d16, [r0]!
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_iht8x8_add_neon.asm 182 vmull.s16 q2, d16, d0
186 vmull.s16 q13, d16, d0
238 vdup.16 d16, r7 ; duplicate cospi_16_64
247 vmull.s16 q9, d28, d16
248 vmull.s16 q10, d29, d16
251 vmull.s16 q11, d28, d16
252 vmull.s16 q12, d29, d16
255 vmlsl.s16 q9, d26, d16
256 vmlsl.s16 q10, d27, d16
259 vmlal.s16 q11, d26, d16
    [all...]
vp9_convolve8_avg_neon.asm 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
213 vld1.u32 {d16[0]}, [r4], r1
214 vld1.u32 {d16[1]}, [r7], r1
221 vmovl.u8 q8, d16
246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
vp9_convolve8_neon.asm 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
202 vld1.u32 {d16[0]}, [r4], r1
203 vld1.u32 {d16[1]}, [r7], r1
210 vmovl.u8 q8, d16
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
  /external/libmpeg2/common/arm/
impeg2_idct.s 402 @// Row 5 Second Half - D16 - y5
464 vld1.16 d16, [r0], r10
483 @// VLD1.16 D16,[r0],r3
631 vmlal.s16 q12, d16, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
632 vmlsl.s16 q13, d16, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1)
633 vmlal.s16 q14, d16, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2)
634 vmlal.s16 q15, d16, d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3)
667 vqrshrn.s32 d16, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT)
854 vqrshrn.s32 d16, q13, #idct_stg2_shift
880 vtrn.32 d16, d17 @//r4,r5,r6,r7 fourth qudrant transposing continued....
    [all...]
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_neon_asm.asm 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
203 vld1.u32 {d16[0]}, [r4], r1
204 vld1.u32 {d16[1]}, [r7], r1
211 vmovl.u8 q8, d16
236 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
vpx_convolve8_neon_asm.asm 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
192 vld1.u32 {d16[0]}, [r4], r1
193 vld1.u32 {d16[1]}, [r7], r1
200 vmovl.u8 q8, d16
220 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_Interpolate_Chroma_s.S 71 VLD1.8 {d16},[r0],r10
74 VMULL.U8 q11,d16,d12
81 VMLAL.U8 q3,d16,d14
  /device/google/contexthub/firmware/misc/cpu/cortexm4f/
Makefile 20 FLAGS += -mthumb -mcpu=cortex-m4 -march=armv7e-m -mfloat-abi=softfp -mfpu=fpv4-sp-d16 -mno-thumb-interwork -ffast-math -fsingle-precision-constant -DARM -DUSE_NANOHUB_FLOAT_RUNTIME
  /external/libvpx/libvpx/vp8/common/arm/neon/
mbloopfilter_neon.c 215 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
244 d16 = vld1_u8(u);
260 q8 = vcombine_u8(d16, d17);
305 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
336 d16 = vld1_u8(s1);
352 q8 = vcombine_u8(d16, d17);
472 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
503 d16 = vld1_u8(us);
519 q8 = vcombine_u8(d16, d17);

Completed in 973 milliseconds

1 2 3 4 56 7 8 91011