/system/core/debuggerd/arm/ |
crashglue.S | 36 fconstd d16, #16
|
/external/libhevc/common/arm/ |
ihevc_inter_pred_filters_luma_vert_w16inp.s | 162 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 176 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 188 vmlal.s16 q6,d16,d28 201 vmlal.s16 q7,d16,d27 234 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 247 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 269 vmlal.s16 q6,d16,d28 288 vmlal.s16 q7,d16,d27 318 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 326 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 172 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 186 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 198 vmlal.s16 q6,d16,d28 212 vmlal.s16 q7,d16,d27 248 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 261 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 284 vmlal.s16 q6,d16,d28 304 vmlal.s16 q7,d16,d27 336 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 344 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7) [all...] |
ihevc_intra_pred_chroma_mode_27_to_33.s | 189 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 201 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 248 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 265 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 327 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 344 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 526 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5) 532 vst1.8 {d16},[r2],r [all...] |
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 300 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 312 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 355 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 372 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 435 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 451 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 504 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 524 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 634 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5) 640 vst1.32 {d16[0]},[r2],r [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 192 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 204 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 250 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 267 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 328 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 345 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 525 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5) 531 vst1.32 {d16[0]},[r2],r [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 209 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 220 vmull.u8 q11, d16, d7 @mul (row 1) 252 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5) 264 vmull.u8 q11, d16, d7 @mul (row 5) 316 vmov.i8 d16,#8 328 vadd.s8 d8, d8, d16 @to compensate the pu1_src idx incremented by 8 530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 537 vmull.u8 q11, d16, d7 @mul (row 1) 548 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 3) 556 vmull.u8 q9, d16, d7 @mul (row 3 [all...] |
ihevc_inter_pred_filters_luma_vert.s | 169 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 195 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 209 vmlal.u8 q6,d16,d28 224 vmlsl.u8 q7,d16,d27 249 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 286 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 310 vmlal.u8 q6,d16,d28 331 vmlsl.u8 q7,d16,d27 359 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 367 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7) [all...] |
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 319 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 330 vmull.u8 q11, d16, d7 @mul (row 1) 362 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5) 374 vmull.u8 q11, d16, d7 @mul (row 5) 474 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 492 vmull.u8 q11, d16, d7 @mul (row 1) 530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5) 547 vmull.u8 q11, d16, d7 @mul (row 5) 647 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 654 vmull.u8 q11, d16, d7 @mul (row 1 [all...] |
/external/libpng/arm/ |
filter_neon.S | 118 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]! 119 vhadd.u8 d0, d3, d16 191 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]! 192 paeth d0, d3, d16, d20 194 paeth d1, d0, d17, d16
|
/external/pixman/pixman/ |
pixman-arm-neon-asm.S | 165 into d16 - red, d19 - green, d18 - blue */ 179 vqadd.u8 d16, d2, d20 182 vshll.u8 q14, d16, #8 254 vqadd.u8 d16, d2, d20 261 vshll.u8 q14, d16, #8 363 into d16 - red, d19 - green, d18 - blue */ 377 vqadd.u8 d16, d2, d20 380 vshll.u8 q14, d16, #8 [all...] |
pixman-arm-neon-asm-bilinear.S | 545 q3, q9, d4, d5, d16, d17, d18, d19 925 vshll.u16 q0, d16, #BILINEAR_INTERPOLATION_BITS 926 vmlsl.u16 q0, d16, d30 930 vld1.32 {d16}, [TMP4], STRIDE 933 vmull.u8 q11, d16, d28 1026 vshll.u16 q0, d16, #BILINEAR_INTERPOLATION_BITS 1027 vmlsl.u16 q0, d16, d30 1034 vld1.32 {d16}, [TMP4], STRIDE 1038 vmull.u8 q11, d16, d28 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blend.S | 131 vmull.u8 q8, d14, d16 157 vrshrn.u16 d16, q8, #8 175 vmull.u8 q0, d6, d16 275 vmull.u8 q8, d6, d16 322 vmull.u8 q8, d6, d16 362 vmull.u8 q0, d0, d16 457 vld4.8 {d16,d18,d20,d22}, [r1]! 460 vld1.8 {d16-d19}, [r1]! 515 .if \ldsrc ; vld1.32 {d16[1]}, [r1]! ; .endif 519 .if \ldsrc ; vld1.16 {d16[1]}, [r1]! ; .endi [all...] |
rsCpuIntrinsics_neon_Convolve.S | 89 vshrn.i32 d16, q8, #8 92 vqmovun.s16 d16, q8 93 vst1.8 d16, [r0]!
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 182 vmull.s16 q2, d16, d0 186 vmull.s16 q13, d16, d0 238 vdup.16 d16, r7 ; duplicate cospi_16_64 247 vmull.s16 q9, d28, d16 248 vmull.s16 q10, d29, d16 251 vmull.s16 q11, d28, d16 252 vmull.s16 q12, d29, d16 255 vmlsl.s16 q9, d26, d16 256 vmlsl.s16 q10, d27, d16 259 vmlal.s16 q11, d26, d16 [all...] |
vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 213 vld1.u32 {d16[0]}, [r4], r1 214 vld1.u32 {d16[1]}, [r7], r1 221 vmovl.u8 q8, d16 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 202 vld1.u32 {d16[0]}, [r4], r1 203 vld1.u32 {d16[1]}, [r7], r1 210 vmovl.u8 q8, d16 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 182 vmull.s16 q2, d16, d0 186 vmull.s16 q13, d16, d0 238 vdup.16 d16, r7 ; duplicate cospi_16_64 247 vmull.s16 q9, d28, d16 248 vmull.s16 q10, d29, d16 251 vmull.s16 q11, d28, d16 252 vmull.s16 q12, d29, d16 255 vmlsl.s16 q9, d26, d16 256 vmlsl.s16 q10, d27, d16 259 vmlal.s16 q11, d26, d16 [all...] |
vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 213 vld1.u32 {d16[0]}, [r4], r1 214 vld1.u32 {d16[1]}, [r7], r1 221 vmovl.u8 q8, d16 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 202 vld1.u32 {d16[0]}, [r4], r1 203 vld1.u32 {d16[1]}, [r7], r1 210 vmovl.u8 q8, d16 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 182 vmull.s16 q2, d16, d0 186 vmull.s16 q13, d16, d0 238 vdup.16 d16, r7 ; duplicate cospi_16_64 247 vmull.s16 q9, d28, d16 248 vmull.s16 q10, d29, d16 251 vmull.s16 q11, d28, d16 252 vmull.s16 q12, d29, d16 255 vmlsl.s16 q9, d26, d16 256 vmlsl.s16 q10, d27, d16 259 vmlal.s16 q11, d26, d16 [all...] |
vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 213 vld1.u32 {d16[0]}, [r4], r1 214 vld1.u32 {d16[1]}, [r7], r1 221 vmovl.u8 q8, d16 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 202 vld1.u32 {d16[0]}, [r4], r1 203 vld1.u32 {d16[1]}, [r7], r1 210 vmovl.u8 q8, d16 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_Interpolate_Chroma_s.S | 72 VLD1.8 {d16},[r0],r10 75 VMULL.U8 q11,d16,d12 82 VMLAL.U8 q3,d16,d14
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/ |
loopfilter_neon.c | 181 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 210 d16 = vld1_u8(u); 226 q8 = vcombine_u8(d16, d17); 313 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 334 d16 = vld1_u8(s); 361 q8 = vcombine_u8(d16, d17); 404 q4ResultL.val[3] = vget_low_u8(q8); // d16 428 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 449 d16 = vld1_u8(us); 477 q8 = vcombine_u8(d16, d17) [all...] |