HomeSort by relevance Sort by last modified time
    Searched refs:d24 (Results 26 - 50 of 147) sorted by null

12 3 4 5 6

  /external/libhevc/common/arm/
ihevc_inter_pred_chroma_horz.s 120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
180 vmlsl.u8 q14,d1,d24
211 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
236 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
249 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
267 vmlsl.u8 q14,d1,d24
298 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
309 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
319 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)
    [all...]
ihevc_inter_pred_chroma_horz_w16out.s 123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
201 vmlsl.u8 q14,d1,d24
232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
278 vmlsl.u8 q14,d1,d24
307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
328 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
259 vst1.32 {d24[0]},[r9] @stores the loaded value
294 vqshrn.s32 d24,q12,#6 @right shift
305 vqrshrun.s16 d24,q12,#6 @rounding shift
316 vst1.32 {d24[0]},[r9] @stores the loaded value
331 vqshrn.s32 d24,q12,#6 @right shift
333 vqrshrun.s16 d24,q12,#6 @rounding shift
335 vst1.32 {d24[0]},[r9] @stores the loaded value
ihevc_inter_pred_filters_luma_vert_w16inp.s 125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
184 vmlal.s16 q6,d4,d24
196 vmlal.s16 q7,d5,d24
224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
258 vmlal.s16 q6,d4,d24
281 vmlal.s16 q7,d5,d24
307 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
ihevc_inter_pred_luma_vert_w16inp_w16out.s 133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
194 vmlal.s16 q6,d4,d24
207 vmlal.s16 q7,d5,d24
237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
273 vmlal.s16 q6,d4,d24
297 vmlal.s16 q7,d5,d24
324 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 217 vrshrn.i16 d24, q12, #5 @round shft (row 0)
227 vst1.8 d24, [r2], r3 @st (row 0)
261 vrshrn.i16 d24, q12, #5 @round shft (row 4)
271 vst1.8 d24, [r2], r3 @st (row 4)
339 vst1.8 d24, [r5], r3 @st (row 4)
387 vrshrn.i16 d24, q12, #5 @round shft (row 0)
402 vst1.8 d24, [r2], r3 @st (row 0)
445 vrshrn.i16 d24, q12, #5 @round shft (row 4)
464 vst1.8 d24, [r5], r3 @st (row 4)
465 vrshrn.i16 d24, q11, #5 @round shft (row 5
    [all...]
ihevc_intra_pred_chroma_mode2.s 154 vrev64.8 d24,d8
180 vst2.8 {d24,d25},[r6],r5
219 vrev64.8 d24,d8
242 vst2.8 {d24,d25},[r6],r5
ihevc_inter_pred_filters_luma_vert.s 133 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
162 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
182 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
205 vmlsl.u8 q6,d4,d24
219 vmlsl.u8 q7,d5,d24
247 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
272 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
298 vmlsl.u8 q6,d4,d24
325 vmlsl.u8 q7,d5,d24
349 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 53 vmlal.s16 q9, d24, d24
100 vmull.s16 q8, d24, d24
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 53 vmlal.s16 q9, d24, d24
100 vmull.s16 q8, d24, d24
  /external/libvpx/libvpx/vp8/common/arm/neon/
variance_neon.asm 56 vmlal.s16 q9, d24, d24
126 vmlal.s16 q9, d24, d24
187 vmlal.s16 q9, d24, d24
246 vmlal.s16 q9, d24, d24
sixtappredict16x16_neon.asm 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
73 vdup.8 d1, d24[4]
228 vld1.u8 {d24}, [lr], r2
244 vmlsl.u8 q5, d24, d4
253 vmlal.u8 q4, d24, d5
260 vmull.u8 q10, d24, d3
304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
305 vdup.8 d1, d24[4]
328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2]
339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4]
    [all...]
vp8_subpixelvariance8x8_neon.asm 69 vqrshrn.u16 d24, q8, #7
115 vmull.u8 q3, d24, d0
123 vmlal.u8 q2, d24, d1
133 vqrshrn.u16 d24, q3, #7
146 vld1.u8 {d24}, [r0], r1
174 vsubl.u8 q6, d24, d2
sixtappredict8x4_neon.asm 62 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
63 vdup.8 d1, d24[4]
143 vqrshrun.s16 d24, q9, #7
151 vst1.u8 {d24}, [lr]!
256 vmull.u8 q5, d24, d0
260 vmlsl.u8 q4, d24, d1
269 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2])
310 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
312 vdup.8 d1, d24[4]
387 vqrshrun.s16 d24, q9, #
    [all...]
sixtappredict8x8_neon.asm 65 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
66 vdup.8 d1, d24[4]
149 vqrshrun.s16 d24, q9, #7
156 vst1.u8 {d24}, [lr]!
284 vmlsl.u8 q5, d24, d4
293 vmlal.u8 q4, d24, d5
300 vmull.u8 q10, d24, d3
339 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
340 vdup.8 d1, d24[4]
421 vqrshrun.s16 d24, q9, #
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 111 VEXT.8 d28,d24,d25,#6
113 VEXT.8 d27,d24,d25,#4
116 VEXT.8 d8,d24,d25,#2
117 VADDL.S16 q3,d24,d29
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S 83 VST1.8 {d24},[r0],r1
103 VST1.8 {d24},[r0],r1
armVCM4P10_DeblockingChroma_unsafe_s.S 51 VQMOVUN.S16 d24,q12
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
variance_neon.asm 56 vmlal.s16 q9, d24, d24
126 vmlal.s16 q9, d24, d24
187 vmlal.s16 q9, d24, d24
246 vmlal.s16 q9, d24, d24
sixtappredict16x16_neon.asm 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
73 vdup.8 d1, d24[4]
228 vld1.u8 {d24}, [lr], r2
244 vmlsl.u8 q5, d24, d4
253 vmlal.u8 q4, d24, d5
260 vmull.u8 q10, d24, d3
304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
305 vdup.8 d1, d24[4]
328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2]
339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4]
    [all...]
vp8_subpixelvariance8x8_neon.asm 69 vqrshrn.u16 d24, q8, #7
115 vmull.u8 q3, d24, d0
123 vmlal.u8 q2, d24, d1
133 vqrshrn.u16 d24, q3, #7
146 vld1.u8 {d24}, [r0], r1
174 vsubl.u8 q6, d24, d2
  /external/pixman/pixman/
pixman-arm-neon-asm.S 105 * d24, d25, d26, d27 - contain loading mask pixel data (if mask is used)
584 vmvn.8 d24, d3 /* get inverted alpha */
586 vmull.u8 q8, d24, d4
587 vmull.u8 q9, d24, d5
588 vmull.u8 q10, d24, d6
589 vmull.u8 q11, d24, d7
712 /* inverted alpha in {d24} */
714 vmull.u8 q8, d24, d4
715 vmull.u8 q9, d24, d5
716 vmull.u8 q10, d24, d
    [all...]
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /system/core/debuggerd/arm/
crashglue.S 44 fconstd d24, #24

Completed in 736 milliseconds

12 3 4 5 6