/external/libavc/encoder/arm/ |
ih264e_evaluate_intra16x16_modes_a9q.s | 196 vadd.i16 d24, d24, d25 @/DC 204 vpaddl.u16 d24, d24 @/DC 208 vpaddl.u32 d24, d24 @/DC 210 vmov.u32 r10, d24[0] @dc 263 vst1.32 {d24, d25} , [r2], r4 @7
|
ih264e_evaluate_intra_chroma_modes_a9q.s | 242 vadd.i16 d24, d24, d25 @/DC 245 vpaddl.u16 d24, d24 @/DC 248 vpaddl.u32 d24, d24 @/DC 254 vmov.u32 r10, d24[0] @dc 310 vst1.32 {d24, d25} , [r2], r4 @2
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 53 vmlal.s16 q9, d24, d24 100 vmull.s16 q8, d24, d24
|
/external/v8/test/mjsunit/regress/ |
regress-4800.js | 36 var d24 = x + 24.5; 66 result[24] = d24;
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 110 VEXT.8 d28,d24,d25,#6 112 VEXT.8 d27,d24,d25,#4 115 VEXT.8 d8,d24,d25,#2 116 VADDL.S16 q3,d24,d29
|
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S | 82 VST1.8 {d24},[r0],r1 102 VST1.8 {d24},[r0],r1
|
armVCM4P10_DeblockingChroma_unsafe_s.S | 50 VQMOVUN.S16 d24,q12
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
variance_neon.asm | 56 vmlal.s16 q9, d24, d24 126 vmlal.s16 q9, d24, d24 187 vmlal.s16 q9, d24, d24 246 vmlal.s16 q9, d24, d24
|
sixtappredict16x16_neon.asm | 72 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 73 vdup.8 d1, d24[4] 228 vld1.u8 {d24}, [lr], r2 244 vmlsl.u8 q5, d24, d4 253 vmlal.u8 q4, d24, d5 260 vmull.u8 q10, d24, d3 304 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 305 vdup.8 d1, d24[4] 328 vext.8 d24, d6, d7, #4 ;construct src_ptr[2] 339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4] [all...] |
vp8_subpixelvariance8x8_neon.asm | 69 vqrshrn.u16 d24, q8, #7 115 vmull.u8 q3, d24, d0 123 vmlal.u8 q2, d24, d1 133 vqrshrn.u16 d24, q3, #7 146 vld1.u8 {d24}, [r0], r1 174 vsubl.u8 q6, d24, d2
|
sixtappredict8x4_neon.asm | 62 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 63 vdup.8 d1, d24[4] 143 vqrshrun.s16 d24, q9, #7 151 vst1.u8 {d24}, [lr]! 256 vmull.u8 q5, d24, d0 260 vmlsl.u8 q4, d24, d1 269 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2]) 310 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 312 vdup.8 d1, d24[4] 387 vqrshrun.s16 d24, q9, # [all...] |
/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_horz_w16out.s | 123 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 192 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 201 vmlsl.u8 q14,d1,d24 232 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 252 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 265 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 278 vmlsl.u8 q14,d1,d24 307 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 318 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 328 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2) [all...] |
ihevc_inter_pred_chroma_vert_w16inp.s | 240 vqshrn.s32 d24,q12,#6 @right shift 253 vqrshrun.s16 d24,q12,#6 @rounding shift 259 vst1.32 {d24[0]},[r9] @stores the loaded value 294 vqshrn.s32 d24,q12,#6 @right shift 305 vqrshrun.s16 d24,q12,#6 @rounding shift 316 vst1.32 {d24[0]},[r9] @stores the loaded value 331 vqshrn.s32 d24,q12,#6 @right shift 333 vqrshrun.s16 d24,q12,#6 @rounding shift 335 vst1.32 {d24[0]},[r9] @stores the loaded value
|
ihevc_inter_pred_filters_luma_vert_w16inp.s | 125 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 168 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 184 vmlal.s16 q6,d4,d24 196 vmlal.s16 q7,d5,d24 224 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 238 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 258 vmlal.s16 q6,d4,d24 281 vmlal.s16 q7,d5,d24 307 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 133 vdup.16 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 178 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 194 vmlal.s16 q6,d4,d24 207 vmlal.s16 q7,d5,d24 237 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 252 vmlal.s16 q5,d3,d24 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_2)@ 273 vmlal.s16 q6,d4,d24 297 vmlal.s16 q7,d5,d24 324 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2) [all...] |
ihevc_intra_pred_luma_mode_3_to_9.s | 217 vrshrn.i16 d24, q12, #5 @round shft (row 0) 227 vst1.8 d24, [r2], r3 @st (row 0) 261 vrshrn.i16 d24, q12, #5 @round shft (row 4) 271 vst1.8 d24, [r2], r3 @st (row 4) 339 vst1.8 d24, [r5], r3 @st (row 4) 387 vrshrn.i16 d24, q12, #5 @round shft (row 0) 402 vst1.8 d24, [r2], r3 @st (row 0) 445 vrshrn.i16 d24, q12, #5 @round shft (row 4) 464 vst1.8 d24, [r5], r3 @st (row 4) 465 vrshrn.i16 d24, q11, #5 @round shft (row 5 [all...] |
ihevc_intra_pred_chroma_mode2.s | 154 vrev64.8 d24,d8 180 vst2.8 {d24,d25},[r6],r5 219 vrev64.8 d24,d8 242 vst2.8 {d24,d25},[r6],r5
|
ihevc_inter_pred_filters_luma_vert.s | 133 vdup.u8 d24,d0[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2)@ 162 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 182 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 205 vmlsl.u8 q6,d4,d24 219 vmlsl.u8 q7,d5,d24 247 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2)@ 272 vmlsl.u8 q5,d3,d24 @mul_res2 = vmlsl_u8(mul_res2, src_tmp4, coeffabs_2)@ 298 vmlsl.u8 q6,d4,d24 325 vmlsl.u8 q7,d5,d24 349 vmlsl.u8 q4,d2,d24 @mul_res1 = vmlsl_u8(mul_res1, src_tmp3, coeffabs_2) [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 195 vmlsl.s16 q13, d24, d30 217 vmlsl.s16 q13, d24, d30 272 vmlsl.s16 q13, d24, d30 294 vmlsl.s16 q13, d24, d30 358 vmlsl.s16 q15, d18, d24 360 vmlsl.s16 q11, d19, d24 387 vmlsl.s16 q15, d18, d24 389 vmlsl.s16 q11, d19, d24 397 vmov d25, d24 450 vmlsl.s16 q15, d18, d24 [all...] |
ih264_inter_pred_filters_luma_horz_a9q.s | 171 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1) 172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1 185 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 191 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 219 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 224 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
|
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 256 vmlsl.s16 q3, d29, d24 287 vmlsl.s16 q9, d28, d24 292 vmlsl.s16 q3, d29, d24 326 vmlsl.s16 q9, d26, d24 331 vmlsl.s16 q3, d27, d24 350 vmlsl.s16 q9, d10, d24 352 vmlsl.s16 q3, d11, d24 484 vmlsl.s16 q9, d28, d24 486 vmlsl.s16 q3, d29, d24 [all...] |
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/system/core/debuggerd/arm/ |
crashglue.S | 44 fconstd d24, #24
|
/external/valgrind/none/tests/arm/ |
vfpv4_fma.c | 88 TESTINSN_bin_f64("vfma.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 92 TESTINSN_bin_f64("vfma.f64 d23, d24, d5", d23, d24, i32, f2u0(24), f2u1(24), d5, i32, f2u0(1346), f2u1(1346)); 98 TESTINSN_bin_f64("vfma.f64 d13, d24, d5", d13, d24, i32, f2u0(874), f2u1(874), d5, i32, f2u0(1384.6), f2u1(1384.6)); 138 TESTINSN_bin_f64("vfms.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 142 TESTINSN_bin_f64("vfms.f64 d23, d24, d5", d23, d24, i32, f2u0(24), f2u1(24), d5, i32, f2u0(1346), f2u1(1346)) [all...] |