/system/core/debuggerd/arm/ |
crashglue.S | 36 fconstd d16, #16
|
/external/libhevc/common/arm/ |
ihevc_inter_pred_filters_luma_vert_w16inp.s | 162 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 176 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 188 vmlal.s16 q6,d16,d28 201 vmlal.s16 q7,d16,d27 234 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 247 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 269 vmlal.s16 q6,d16,d28 288 vmlal.s16 q7,d16,d27 318 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 326 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 172 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 186 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 198 vmlal.s16 q6,d16,d28 212 vmlal.s16 q7,d16,d27 248 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 261 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7)@ 284 vmlal.s16 q6,d16,d28 304 vmlal.s16 q7,d16,d27 336 vld1.16 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 344 vmlal.s16 q5,d16,d29 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_7) [all...] |
ihevc_intra_pred_chroma_mode_27_to_33.s | 189 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 201 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 248 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 265 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 327 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 344 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 526 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5) 532 vst1.8 {d16},[r2],r [all...] |
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 300 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 312 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 355 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 372 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 435 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 451 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 504 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 524 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 634 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5) 640 vst1.32 {d16[0]},[r2],r [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 192 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 204 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 250 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 267 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 328 vld1.8 {d16},[r10],r11 @(iii)ref_main_idx 345 vmull.u8 q9,d16,d26 @(iii)vmull_u8(ref_main_idx, dup_const_32_fract) 395 vld1.8 {d16},[r10],r11 @(vii)ref_main_idx 414 vmull.u8 q9,d16,d26 @(vii)vmull_u8(ref_main_idx, dup_const_32_fract) 525 vrshrn.i16 d16,q8,#5 @shift_res = vrshrn_n_u16(add_res, 5) 531 vst1.32 {d16[0]},[r2],r [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 209 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 220 vmull.u8 q11, d16, d7 @mul (row 1) 252 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5) 264 vmull.u8 q11, d16, d7 @mul (row 5) 316 vmov.i8 d16,#8 328 vadd.s8 d8, d8, d16 @to compensate the pu1_src idx incremented by 8 530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 537 vmull.u8 q11, d16, d7 @mul (row 1) 548 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 3) 556 vmull.u8 q9, d16, d7 @mul (row 3 [all...] |
ihevc_inter_pred_filters_luma_vert.s | 169 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 195 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 209 vmlal.u8 q6,d16,d28 224 vmlsl.u8 q7,d16,d27 249 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 286 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7)@ 310 vmlal.u8 q6,d16,d28 331 vmlsl.u8 q7,d16,d27 359 vld1.u8 {d16},[r3],r2 @src_tmp1 = vld1_u8(pu1_src_tmp)@ 367 vmlsl.u8 q5,d16,d29 @mul_res2 = vmlsl_u8(mul_res2, src_tmp1, coeffabs_7) [all...] |
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 319 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 330 vmull.u8 q11, d16, d7 @mul (row 1) 362 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5) 374 vmull.u8 q11, d16, d7 @mul (row 5) 474 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 492 vmull.u8 q11, d16, d7 @mul (row 1) 530 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 5) 547 vmull.u8 q11, d16, d7 @mul (row 5) 647 vtbl.8 d16, {d0,d1}, d4 @load from ref_main_idx (row 1) 654 vmull.u8 q11, d16, d7 @mul (row 1 [all...] |
ihevc_inter_pred_filters_luma_horz.s | 210 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4] 231 vld1.u32 {d16},[r4],r11 @vector load pu1_src + src_strd 237 vmlal.u8 q5,d16,d28 @mul_res = vmlal_u8(src[0_4], coeffabs_4)@ 305 vmlal.u8 q4,d16,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@ 362 vmlal.u8 q5,d16,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@ 407 vmlal.u8 q4,d16,d30 @mul_res = vmlal_u8(src[0_6], coeffabs_6)@ 481 vld1.u32 {d16},[r4],r11 484 vzip.32 d4,d16 492 @ vext.u8 d16,d12,d13,#4 @vector extract of src[0_4]
|
/external/libavc/common/arm/ |
ih264_resi_trans_quant_a9.s | 152 vsub.s16 d16, d8, d9 @x6 = x0 - x1; 158 vtrn.16 d16, d17 @T23 159 vtrn.32 d14, d16 @T13 165 vadd.s16 d19, d15, d16 @x1 = x5+x6 166 vsub.s16 d20, d15, d16 @x2 = x5-x6 227 vpadd.u8 d18, d16, d17 @I pair add nnz 1 347 vsub.s16 d16, d8, d9 @x6 = x0 - x1; 353 vtrn.16 d16, d17 @T23 354 vtrn.32 d14, d16 @T13 360 vadd.s16 d19, d15, d16 @x1 = x5+x [all...] |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 162 vld1.u32 d16, [r0], r2 @ Vector load from src[4_0] 179 vaddl.u8 q13, d13, d16 252 vaddl.u8 q12, d15, d16 357 vmlal.s16 q15, d16, d26 386 vmlal.s16 q15, d16, d26 393 vqrshrun.s32 d16, q15, #10 449 vmlal.s16 q15, d16, d26 476 vmlal.s16 q15, d16, d26 483 vqrshrun.s32 d16, q15, #10
|
/external/libpng/arm/ |
filter_neon.S | 125 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]! 126 vhadd.u8 d0, d3, d16 198 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]! 199 paeth d0, d3, d16, d20 201 paeth d1, d0, d17, d16
|
/external/opencv3/3rdparty/libpng/arm/ |
filter_neon.S | 100 vld4.32 {d16[],d17[],d18[],d19[]},[r2]! 101 vhadd.u8 d0, d3, d16 173 vld4.32 {d16[],d17[],d18[],d19[]},[r2]! 174 paeth d0, d3, d16, d20 176 paeth d1, d0, d17, d16
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blend.S | 131 vmull.u8 q8, d14, d16 157 vrshrn.u16 d16, q8, #8 175 vmull.u8 q0, d6, d16 275 vmull.u8 q8, d6, d16 322 vmull.u8 q8, d6, d16 362 vmull.u8 q0, d0, d16 457 vld4.8 {d16,d18,d20,d22}, [r1]! 460 vld1.8 {d16-d19}, [r1]! 515 .if \ldsrc ; vld1.32 {d16[1]}, [r1]! ; .endif 519 .if \ldsrc ; vld1.16 {d16[1]}, [r1]! ; .endi [all...] |
rsCpuIntrinsics_neon_Convolve.S | 89 vshrn.i32 d16, q8, #8 92 vqmovun.s16 d16, q8 93 vst1.8 d16, [r0]!
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_iht8x8_add_neon.asm | 182 vmull.s16 q2, d16, d0 186 vmull.s16 q13, d16, d0 238 vdup.16 d16, r7 ; duplicate cospi_16_64 247 vmull.s16 q9, d28, d16 248 vmull.s16 q10, d29, d16 251 vmull.s16 q11, d28, d16 252 vmull.s16 q12, d29, d16 255 vmlsl.s16 q9, d26, d16 256 vmlsl.s16 q10, d27, d16 259 vmlal.s16 q11, d26, d16 [all...] |
vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 213 vld1.u32 {d16[0]}, [r4], r1 214 vld1.u32 {d16[1]}, [r7], r1 221 vmovl.u8 q8, d16 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 202 vld1.u32 {d16[0]}, [r4], r1 203 vld1.u32 {d16[1]}, [r7], r1 210 vmovl.u8 q8, d16 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
/external/libmpeg2/common/arm/ |
impeg2_idct.s | 402 @// Row 5 Second Half - D16 - y5 464 vld1.16 d16, [r0], r10 483 @// VLD1.16 D16,[r0],r3 631 vmlal.s16 q12, d16, d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0) 632 vmlsl.s16 q13, d16, d0[1] @// y1 * cos3 - y3 * sin1 - y5 * cos1(part of b1) 633 vmlal.s16 q14, d16, d1[3] @// y1 * sin3 - y3 * cos1 + y5 * sin1(part of b2) 634 vmlal.s16 q15, d16, d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3) 667 vqrshrn.s32 d16, q11, #idct_stg1_shift @// r5 = (a2 - b2 + rnd) >> 7(IDCT_STG1_SHIFT) 854 vqrshrn.s32 d16, q13, #idct_stg2_shift 880 vtrn.32 d16, d17 @//r4,r5,r6,r7 fourth qudrant transposing continued.... [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_neon_asm.asm | 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 203 vld1.u32 {d16[0]}, [r4], r1 204 vld1.u32 {d16[1]}, [r7], r1 211 vmovl.u8 q8, d16 236 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
vpx_convolve8_neon_asm.asm | 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 192 vld1.u32 {d16[0]}, [r4], r1 193 vld1.u32 {d16[1]}, [r7], r1 200 vmovl.u8 q8, d16 220 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_Interpolate_Chroma_s.S | 71 VLD1.8 {d16},[r0],r10 74 VMULL.U8 q11,d16,d12 81 VMLAL.U8 q3,d16,d14
|
/device/google/contexthub/firmware/misc/cpu/cortexm4f/ |
Makefile | 20 FLAGS += -mthumb -mcpu=cortex-m4 -march=armv7e-m -mfloat-abi=softfp -mfpu=fpv4-sp-d16 -mno-thumb-interwork -ffast-math -fsingle-precision-constant -DARM -DUSE_NANOHUB_FLOAT_RUNTIME
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
mbloopfilter_neon.c | 215 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 244 d16 = vld1_u8(u); 260 q8 = vcombine_u8(d16, d17); 305 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 336 d16 = vld1_u8(s1); 352 q8 = vcombine_u8(d16, d17); 472 uint8x8_t d15, d16, d17, d18, d19, d20, d21; local 503 d16 = vld1_u8(us); 519 q8 = vcombine_u8(d16, d17);
|