/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_horz.s | 120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 180 vmlsl.u8 q14,d1,d24 211 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 236 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 249 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 267 vmlsl.u8 q14,d1,d24 298 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 309 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 319 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2) [all...] |
ihevc_inter_pred_chroma_horz_w16out.s | 123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 201 vmlsl.u8 q14,d1,d24 232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 278 vmlsl.u8 q14,d1,d24 307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 328 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2) [all...] |
ihevc_inter_pred_chroma_vert_w16inp.s | 240 vqshrn.s32 d24,q12,#6 @right shift 253 vqrshrun.s16 d24,q12,#6 @rounding shift 259 vst1.32 {d24[0]},[r9] @stores the loaded value 294 vqshrn.s32 d24,q12,#6 @right shift 305 vqrshrun.s16 d24,q12,#6 @rounding shift 316 vst1.32 {d24[0]},[r9] @stores the loaded value 331 vqshrn.s32 d24,q12,#6 @right shift 333 vqrshrun.s16 d24,q12,#6 @rounding shift 335 vst1.32 {d24[0]},[r9] @stores the loaded value
|
ihevc_inter_pred_filters_luma_vert_w16inp.s | 125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 184 vmlal.s16 q6,d4,d24 196 vmlal.s16 q7,d5,d24 224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 258 vmlal.s16 q6,d4,d24 281 vmlal.s16 q7,d5,d24 307 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 194 vmlal.s16 q6,d4,d24 207 vmlal.s16 q7,d5,d24 237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 273 vmlal.s16 q6,d4,d24 297 vmlal.s16 q7,d5,d24 324 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2) [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 217 vrshrn.i16 d24, q12, #5 @round shft (row 0) 227 vst1.8 d24, [r2], r3 @st (row 0) 261 vrshrn.i16 d24, q12, #5 @round shft (row 4) 271 vst1.8 d24, [r2], r3 @st (row 4) 339 vst1.8 d24, [r5], r3 @st (row 4) 387 vrshrn.i16 d24, q12, #5 @round shft (row 0) 402 vst1.8 d24, [r2], r3 @st (row 0) 445 vrshrn.i16 d24, q12, #5 @round shft (row 4) 464 vst1.8 d24, [r5], r3 @st (row 4) 465 vrshrn.i16 d24, q11, #5 @round shft (row 5 [all...] |
ihevc_intra_pred_chroma_mode2.s | 154 vrev64.8 d24,d8 180 vst2.8 {d24,d25},[r6],r5 219 vrev64.8 d24,d8 242 vst2.8 {d24,d25},[r6],r5
|
ihevc_inter_pred_filters_luma_vert.s | 133 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 162 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 182 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 205 vmlsl.u8 q6,d4,d24 219 vmlsl.u8 q7,d5,d24 247 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 272 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 298 vmlsl.u8 q6,d4,d24 325 vmlsl.u8 q7,d5,d24 349 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2) [all...] |
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 53 vmlal.s16 q9, d24, d24 100 vmull.s16 q8, d24, d24
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 53 vmlal.s16 q9, d24, d24 100 vmull.s16 q8, d24, d24
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 56 vmlal.s16 q9, d24, d24 126 vmlal.s16 q9, d24, d24 187 vmlal.s16 q9, d24, d24 246 vmlal.s16 q9, d24, d24
|
sixtappredict16x16_neon.asm | 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 73 vdup.8 d1, d24[4] 228 vld1.u8 {d24}, [lr], r2 244 vmlsl.u8 q5, d24, d4 253 vmlal.u8 q4, d24, d5 260 vmull.u8 q10, d24, d3 304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 305 vdup.8 d1, d24[4] 328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2] 339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
vp8_subpixelvariance8x8_neon.asm | 69 vqrshrn.u16 d24, q8, #7 115 vmull.u8 q3, d24, d0 123 vmlal.u8 q2, d24, d1 133 vqrshrn.u16 d24, q3, #7 146 vld1.u8 {d24}, [r0], r1 174 vsubl.u8 q6, d24, d2
|
sixtappredict8x4_neon.asm | 62 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 63 vdup.8 d1, d24[4] 143 vqrshrun.s16 d24, q9, #7 151 vst1.u8 {d24}, [lr]! 256 vmull.u8 q5, d24, d0 260 vmlsl.u8 q4, d24, d1 269 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2]) 310 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 312 vdup.8 d1, d24[4] 387 vqrshrun.s16 d24, q9, # [all...] |
sixtappredict8x8_neon.asm | 65 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 66 vdup.8 d1, d24[4] 149 vqrshrun.s16 d24, q9, #7 156 vst1.u8 {d24}, [lr]! 284 vmlsl.u8 q5, d24, d4 293 vmlal.u8 q4, d24, d5 300 vmull.u8 q10, d24, d3 339 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 340 vdup.8 d1, d24[4] 421 vqrshrun.s16 d24, q9, # [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 111 VEXT.8 d28,d24,d25,#6 113 VEXT.8 d27,d24,d25,#4 116 VEXT.8 d8,d24,d25,#2 117 VADDL.S16 q3,d24,d29
|
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S | 83 VST1.8 {d24},[r0],r1 103 VST1.8 {d24},[r0],r1
|
armVCM4P10_DeblockingChroma_unsafe_s.S | 51 VQMOVUN.S16 d24,q12
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 56 vmlal.s16 q9, d24, d24 126 vmlal.s16 q9, d24, d24 187 vmlal.s16 q9, d24, d24 246 vmlal.s16 q9, d24, d24
|
sixtappredict16x16_neon.asm | 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 73 vdup.8 d1, d24[4] 228 vld1.u8 {d24}, [lr], r2 244 vmlsl.u8 q5, d24, d4 253 vmlal.u8 q4, d24, d5 260 vmull.u8 q10, d24, d3 304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 305 vdup.8 d1, d24[4] 328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2] 339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
vp8_subpixelvariance8x8_neon.asm | 69 vqrshrn.u16 d24, q8, #7 115 vmull.u8 q3, d24, d0 123 vmlal.u8 q2, d24, d1 133 vqrshrn.u16 d24, q3, #7 146 vld1.u8 {d24}, [r0], r1 174 vsubl.u8 q6, d24, d2
|
/external/pixman/pixman/ |
pixman-arm-neon-asm.S | 105 * d24, d25, d26, d27 - contain loading mask pixel data (if mask is used) 584 vmvn.8 d24, d3 /* get inverted alpha */ 586 vmull.u8 q8, d24, d4 587 vmull.u8 q9, d24, d5 588 vmull.u8 q10, d24, d6 589 vmull.u8 q11, d24, d7 712 /* inverted alpha in {d24} */ 714 vmull.u8 q8, d24, d4 715 vmull.u8 q9, d24, d5 716 vmull.u8 q10, d24, d [all...] |
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/system/core/debuggerd/arm/ |
crashglue.S | 44 fconstd d24, #24
|