HomeSort by relevance Sort by last modified time
    Searched refs:d24 (Results 26 - 50 of 168) sorted by null

12 3 4 5 6 7

  /external/libavc/encoder/arm/
ih264e_evaluate_intra16x16_modes_a9q.s 196 vadd.i16 d24, d24, d25 @/DC
204 vpaddl.u16 d24, d24 @/DC
208 vpaddl.u32 d24, d24 @/DC
210 vmov.u32 r10, d24[0] @dc
263 vst1.32 {d24, d25} , [r2], r4 @7
ih264e_evaluate_intra_chroma_modes_a9q.s 242 vadd.i16 d24, d24, d25 @/DC
245 vpaddl.u16 d24, d24 @/DC
248 vpaddl.u32 d24, d24 @/DC
254 vmov.u32 r10, d24[0] @dc
310 vst1.32 {d24, d25} , [r2], r4 @2
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
vp8_mse16x16_neon.asm 53 vmlal.s16 q9, d24, d24
100 vmull.s16 q8, d24, d24
  /external/v8/test/mjsunit/regress/
regress-4800.js 36 var d24 = x + 24.5;
66 result[24] = d24;
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 110 VEXT.8 d28,d24,d25,#6
112 VEXT.8 d27,d24,d25,#4
115 VEXT.8 d8,d24,d25,#2
116 VADDL.S16 q3,d24,d29
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S 82 VST1.8 {d24},[r0],r1
102 VST1.8 {d24},[r0],r1
armVCM4P10_DeblockingChroma_unsafe_s.S 50 VQMOVUN.S16 d24,q12
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
variance_neon.asm 56 vmlal.s16 q9, d24, d24
126 vmlal.s16 q9, d24, d24
187 vmlal.s16 q9, d24, d24
246 vmlal.s16 q9, d24, d24
sixtappredict16x16_neon.asm 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
73 vdup.8 d1, d24[4]
228 vld1.u8 {d24}, [lr], r2
244 vmlsl.u8 q5, d24, d4
253 vmlal.u8 q4, d24, d5
260 vmull.u8 q10, d24, d3
304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
305 vdup.8 d1, d24[4]
328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2]
339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4]
    [all...]
vp8_subpixelvariance8x8_neon.asm 69 vqrshrn.u16 d24, q8, #7
115 vmull.u8 q3, d24, d0
123 vmlal.u8 q2, d24, d1
133 vqrshrn.u16 d24, q3, #7
146 vld1.u8 {d24}, [r0], r1
174 vsubl.u8 q6, d24, d2
sixtappredict8x4_neon.asm 62 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
63 vdup.8 d1, d24[4]
143 vqrshrun.s16 d24, q9, #7
151 vst1.u8 {d24}, [lr]!
256 vmull.u8 q5, d24, d0
260 vmlsl.u8 q4, d24, d1
269 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2])
310 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
312 vdup.8 d1, d24[4]
387 vqrshrun.s16 d24, q9, #
    [all...]
  /external/libhevc/common/arm/
ihevc_inter_pred_chroma_horz_w16out.s 123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
201 vmlsl.u8 q14,d1,d24
232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
278 vmlsl.u8 q14,d1,d24
307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@
328 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
259 vst1.32 {d24[0]},[r9] @stores the loaded value
294 vqshrn.s32 d24,q12,#6 @right shift
305 vqrshrun.s16 d24,q12,#6 @rounding shift
316 vst1.32 {d24[0]},[r9] @stores the loaded value
331 vqshrn.s32 d24,q12,#6 @right shift
333 vqrshrun.s16 d24,q12,#6 @rounding shift
335 vst1.32 {d24[0]},[r9] @stores the loaded value
ihevc_inter_pred_filters_luma_vert_w16inp.s 125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
184 vmlal.s16 q6,d4,d24
196 vmlal.s16 q7,d5,d24
224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
258 vmlal.s16 q6,d4,d24
281 vmlal.s16 q7,d5,d24
307 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
ihevc_inter_pred_luma_vert_w16inp_w16out.s 133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
194 vmlal.s16 q6,d4,d24
207 vmlal.s16 q7,d5,d24
237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@
273 vmlal.s16 q6,d4,d24
297 vmlal.s16 q7,d5,d24
324 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 217 vrshrn.i16 d24, q12, #5 @round shft (row 0)
227 vst1.8 d24, [r2], r3 @st (row 0)
261 vrshrn.i16 d24, q12, #5 @round shft (row 4)
271 vst1.8 d24, [r2], r3 @st (row 4)
339 vst1.8 d24, [r5], r3 @st (row 4)
387 vrshrn.i16 d24, q12, #5 @round shft (row 0)
402 vst1.8 d24, [r2], r3 @st (row 0)
445 vrshrn.i16 d24, q12, #5 @round shft (row 4)
464 vst1.8 d24, [r5], r3 @st (row 4)
465 vrshrn.i16 d24, q11, #5 @round shft (row 5
    [all...]
ihevc_intra_pred_chroma_mode2.s 154 vrev64.8 d24,d8
180 vst2.8 {d24,d25},[r6],r5
219 vrev64.8 d24,d8
242 vst2.8 {d24,d25},[r6],r5
ihevc_inter_pred_filters_luma_vert.s 133 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@
162 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
182 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
205 vmlsl.u8 q6,d4,d24
219 vmlsl.u8 q7,d5,d24
247 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@
272 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@
298 vmlsl.u8 q6,d4,d24
325 vmlsl.u8 q7,d5,d24
349 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)
    [all...]
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s 195 vmlsl.s16 q13, d24, d30
217 vmlsl.s16 q13, d24, d30
272 vmlsl.s16 q13, d24, d30
294 vmlsl.s16 q13, d24, d30
358 vmlsl.s16 q15, d18, d24
360 vmlsl.s16 q11, d19, d24
387 vmlsl.s16 q15, d18, d24
389 vmlsl.s16 q11, d19, d24
397 vmov d25, d24
450 vmlsl.s16 q15, d18, d24
    [all...]
ih264_inter_pred_filters_luma_horz_a9q.s 171 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1)
172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1
185 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
191 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
219 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
224 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s 254 vmlsl.s16 q9, d28, d24
256 vmlsl.s16 q3, d29, d24
287 vmlsl.s16 q9, d28, d24
292 vmlsl.s16 q3, d29, d24
326 vmlsl.s16 q9, d26, d24
331 vmlsl.s16 q3, d27, d24
350 vmlsl.s16 q9, d10, d24
352 vmlsl.s16 q3, d11, d24
484 vmlsl.s16 q9, d28, d24
486 vmlsl.s16 q3, d29, d24
    [all...]
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 74 vpmin.u32 d21, d24, d15
82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a]
90 vpmax.u16 d7, d24, d13
98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
  /system/core/debuggerd/arm/
crashglue.S 44 fconstd d24, #24
  /external/valgrind/none/tests/arm/
vfpv4_fma.c 88 TESTINSN_bin_f64("vfma.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346));
92 TESTINSN_bin_f64("vfma.f64 d23, d24, d5", d23, d24, i32, f2u0(24), f2u1(24), d5, i32, f2u0(1346), f2u1(1346));
98 TESTINSN_bin_f64("vfma.f64 d13, d24, d5", d13, d24, i32, f2u0(874), f2u1(874), d5, i32, f2u0(1384.6), f2u1(1384.6));
138 TESTINSN_bin_f64("vfms.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346));
142 TESTINSN_bin_f64("vfms.f64 d23, d24, d5", d23, d24, i32, f2u0(24), f2u1(24), d5, i32, f2u0(1346), f2u1(1346))
    [all...]

Completed in 1192 milliseconds

12 3 4 5 6 7