HomeSort by relevance Sort by last modified time
    Searched refs:d16 (Results 101 - 125 of 223) sorted by null

1 2 3 45 6 7 8 9

  /system/core/debuggerd/arm/
crashglue.S 36 fconstd d16, #16
  /external/libhevc/common/arm/
ihevc_inter_pred_filters_luma_vert_w16inp.s 162 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
176 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
188 vmlal.s16 q6,d16,d28
201 vmlal.s16 q7,d16,d27
234 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
247 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
269 vmlal.s16 q6,d16,d28
288 vmlal.s16 q7,d16,d27
318 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
326 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)
    [all...]
ihevc_inter_pred_luma_vert_w16inp_w16out.s 172 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
186 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
198 vmlal.s16 q6,d16,d28
212 vmlal.s16 q7,d16,d27
248 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
261 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@
284 vmlal.s16 q6,d16,d28
304 vmlal.s16 q7,d16,d27
336 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
344 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)
    [all...]
ihevc_intra_pred_chroma_mode_27_to_33.s 189 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
201 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
248 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
265 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
327 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
344 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
526 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5)
532 vst1.8 {d16},[r2],r
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 300 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
312 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
355 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
372 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
435 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
451 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
504 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
524 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
634 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5)
640 vst1.32 {d16[0]},[r2],r
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 192 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
204 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
250 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
267 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
328 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx
345 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract)
395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx
414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract)
525 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5)
531 vst1.32 {d16[0]},[r2],r
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 209 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
220 vmull.u8 q11, d16, d7 @mul (row 1)
252 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5)
264 vmull.u8 q11, d16, d7 @mul (row 5)
316 vmov.i8 d16,#8
328 vadd.s8 d8, d8, d16 @to compensate the pu1_src idx incremented by 8
530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
537 vmull.u8 q11, d16, d7 @mul (row 1)
548 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 3)
556 vmull.u8 q9, d16, d7 @mul (row 3
    [all...]
ihevc_inter_pred_filters_luma_vert.s 169 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
195 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@
209 vmlal.u8 q6,d16,d28
224 vmlsl.u8 q7,d16,d27
249 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
286 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@
310 vmlal.u8 q6,d16,d28
331 vmlsl.u8 q7,d16,d27
359 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@
367 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)
    [all...]
ihevc_intra_pred_filters_luma_mode_11_to_17.s 319 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
330 vmull.u8 q11, d16, d7 @mul (row 1)
362 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5)
374 vmull.u8 q11, d16, d7 @mul (row 5)
474 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
492 vmull.u8 q11, d16, d7 @mul (row 1)
530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5)
547 vmull.u8 q11, d16, d7 @mul (row 5)
647 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1)
654 vmull.u8 q11, d16, d7 @mul (row 1
    [all...]
  /external/libpng/arm/
filter_neon.S 118 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
119 vhadd.u8 d0, d3, d16
191 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]!
192 paeth d0, d3, d16, d20
194 paeth d1, d0, d17, d16
  /external/pixman/pixman/
pixman-arm-neon-asm.S 165 into d16 - red, d19 - green, d18 - blue */
179 vqadd.u8 d16, d2, d20
182 vshll.u8 q14, d16, #8
254 vqadd.u8 d16, d2, d20
261 vshll.u8 q14, d16, #8
363 into d16 - red, d19 - green, d18 - blue */
377 vqadd.u8 d16, d2, d20
380 vshll.u8 q14, d16, #8
    [all...]
pixman-arm-neon-asm-bilinear.S 545 q3, q9, d4, d5, d16, d17, d18, d19
925 vshll.u16 q0, d16, #BILINEAR_INTERPOLATION_BITS
926 vmlsl.u16 q0, d16, d30
930 vld1.32 {d16}, [TMP4], STRIDE
933 vmull.u8 q11, d16, d28
1026 vshll.u16 q0, d16, #BILINEAR_INTERPOLATION_BITS
1027 vmlsl.u16 q0, d16, d30
1034 vld1.32 {d16}, [TMP4], STRIDE
1038 vmull.u8 q11, d16, d28
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 131 vmull.u8 q8, d14, d16
157 vrshrn.u16 d16, q8, #8
175 vmull.u8 q0, d6, d16
275 vmull.u8 q8, d6, d16
322 vmull.u8 q8, d6, d16
362 vmull.u8 q0, d0, d16
457 vld4.8 {d16,d18,d20,d22}, [r1]!
460 vld1.8 {d16-d19}, [r1]!
515 .if \ldsrc ; vld1.32 {d16[1]}, [r1]! ; .endif
519 .if \ldsrc ; vld1.16 {d16[1]}, [r1]! ; .endi
    [all...]
rsCpuIntrinsics_neon_Convolve.S 89 vshrn.i32 d16, q8, #8
92 vqmovun.s16 d16, q8
93 vst1.8 d16, [r0]!
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_iht8x8_add_neon.asm 182 vmull.s16 q2, d16, d0
186 vmull.s16 q13, d16, d0
238 vdup.16 d16, r7 ; duplicate cospi_16_64
247 vmull.s16 q9, d28, d16
248 vmull.s16 q10, d29, d16
251 vmull.s16 q11, d28, d16
252 vmull.s16 q12, d29, d16
255 vmlsl.s16 q9, d26, d16
256 vmlsl.s16 q10, d27, d16
259 vmlal.s16 q11, d26, d16
    [all...]
vp9_convolve8_avg_neon.asm 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
213 vld1.u32 {d16[0]}, [r4], r1
214 vld1.u32 {d16[1]}, [r7], r1
221 vmovl.u8 q8, d16
246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
vp9_convolve8_neon.asm 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
202 vld1.u32 {d16[0]}, [r4], r1
203 vld1.u32 {d16[1]}, [r7], r1
210 vmovl.u8 q8, d16
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_iht8x8_add_neon.asm 182 vmull.s16 q2, d16, d0
186 vmull.s16 q13, d16, d0
238 vdup.16 d16, r7 ; duplicate cospi_16_64
247 vmull.s16 q9, d28, d16
248 vmull.s16 q10, d29, d16
251 vmull.s16 q11, d28, d16
252 vmull.s16 q12, d29, d16
255 vmlsl.s16 q9, d26, d16
256 vmlsl.s16 q10, d27, d16
259 vmlal.s16 q11, d26, d16
    [all...]
vp9_convolve8_avg_neon.asm 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
213 vld1.u32 {d16[0]}, [r4], r1
214 vld1.u32 {d16[1]}, [r7], r1
221 vmovl.u8 q8, d16
246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
vp9_convolve8_neon.asm 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
202 vld1.u32 {d16[0]}, [r4], r1
203 vld1.u32 {d16[1]}, [r7], r1
210 vmovl.u8 q8, d16
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_iht8x8_add_neon.asm 182 vmull.s16 q2, d16, d0
186 vmull.s16 q13, d16, d0
238 vdup.16 d16, r7 ; duplicate cospi_16_64
247 vmull.s16 q9, d28, d16
248 vmull.s16 q10, d29, d16
251 vmull.s16 q11, d28, d16
252 vmull.s16 q12, d29, d16
255 vmlsl.s16 q9, d26, d16
256 vmlsl.s16 q10, d27, d16
259 vmlal.s16 q11, d26, d16
    [all...]
vp9_convolve8_avg_neon.asm 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
213 vld1.u32 {d16[0]}, [r4], r1
214 vld1.u32 {d16[1]}, [r7], r1
221 vmovl.u8 q8, d16
246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
vp9_convolve8_neon.asm 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
202 vld1.u32 {d16[0]}, [r4], r1
203 vld1.u32 {d16[1]}, [r7], r1
210 vmovl.u8 q8, d16
230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_Interpolate_Chroma_s.S 72 VLD1.8 {d16},[r0],r10
75 VMULL.U8 q11,d16,d12
82 VMLAL.U8 q3,d16,d14
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
loopfilter_neon.c 181 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
210 d16 = vld1_u8(u);
226 q8 = vcombine_u8(d16, d17);
313 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
334 d16 = vld1_u8(s);
361 q8 = vcombine_u8(d16, d17);
404 q4ResultL.val[3] = vget_low_u8(q8); // d16
428 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local
449 d16 = vld1_u8(us);
477 q8 = vcombine_u8(d16, d17)
    [all...]

Completed in 1166 milliseconds

1 2 3 45 6 7 8 9