/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 81 VEXT.8 d27,d18,d19,#4 89 VADD.I16 d27,d27,d28 92 VMLAL.S16 q0,d27,d31 93 VEXT.8 d27,d20,d21,#4 99 VADD.I16 d27,d27,d28 102 VMLAL.S16 q1,d27,d31 104 VEXT.8 d27,d22,d23,#4 108 VADD.I16 d27,d27,d2 [all...] |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 52 VLD1.8 {d26,d27},[r0],r1 55 VEXT.8 d10,d26,d27,#5 56 VEXT.8 d12,d26,d27,#1 57 VEXT.8 d18,d26,d27,#2 58 VEXT.8 d19,d26,d27,#3 59 VEXT.8 d13,d26,d27,#4
|
/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 60 d27 = d26 + 1; 61 d28 = d27 + 1; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/aarch64/ |
fp-const0-parse.s | 33 fcmle d3, d27, #0 52 fcmle d3, d27, #0.0
|
fp-const0-parse.d | 16 20: 7ee0db63 fcmle d3, d27, #0.0 31 5c: 7ee0db63 fcmle d3, d27, #0.0
|
/external/libavc/common/arm/ |
ih264_inter_pred_filters_luma_horz_a9q.s | 130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1 [all...] |
ih264_inter_pred_luma_horz_qpel_a9q.s | 137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1 [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_4_neon.asm | 235 vqsub.s8 d27, d5, d16 ; filter = clamp(ps1-qs1) 240 vand d27, d27, d22 ; filter &= hev 243 vaddw.s8 q12, q12, d27 ; filter + 3 * (qs0 - ps0) 248 vqmovn.s16 d27, q12 250 vand d27, d27, d23 ; filter &= mask 252 vqadd.s8 d28, d27, d19 ; filter2 = clamp(filter+3) 253 vqadd.s8 d27, d27, d17 ; filter1 = clamp(filter+4 [all...] |
loopfilter_mb_neon.asm | 99 vst1.u8 {d27}, [r8@64], r1 ; store op2 232 vtrn.32 d16, d27 239 vtrn.16 d27, d19 243 vtrn.8 d26, d27 271 vst1.8 {d27}, [r8@64], r1 338 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 371 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 382 vmax.u8 d27, d24, d2 [all...] |
vpx_convolve8_avg_neon_asm.asm | 79 vld1.8 {d27}, [r0], r8 83 vtrn.8 d26, d27 90 vmovl.u8 q11, d27 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 246 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 251 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
vpx_convolve8_neon_asm.asm | 79 vld1.8 {d27}, [r0], r8 83 vtrn.8 d26, d27 90 vmovl.u8 q11, d27 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 230 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 235 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Convolve.S | 56 vmovl.u8 q3, d27 146 vld1.8 {d27, d28, d29}, [r2], r7 @ y0 ( y - 1 ) 156 vmovl.u8 q12, d27 173 vmlal.s16 q4, d27, d2[0] 184 vmlal.s16 q5, d27, d1[3] 192 vld1.8 {d27, d28, d29}, [r4], r7 @ y0 ( y + 1 ) 202 vmovl.u8 q12, d27 219 vmlal.s16 q4, d27, d4[2] 230 vmlal.s16 q5, d27, d4[1]
|
rsCpuIntrinsics_neon_Blur.S | 294 vmlal.u16 q15, d27, d1[3] 300 vmlal.u16 q15, d27, d1[2] 306 vmlal.u16 q15, d27, d1[1] 318 vmlal.u16 q15, d27, d0[3] 324 vmlal.u16 q15, d27, d0[2] 330 vmlal.u16 q15, d27, d0[1] 375 vmlal.u16 q15, d27, d3[3] 381 vmlal.u16 q15, d27, d3[2] 387 vmlal.u16 q15, d27, d3[1] 399 vmlal.u16 q15, d27, d2[3 [all...] |
rsCpuIntrinsics_neon_Resize.S | 259 vmov.u64 d27, d28 547 vld4.s16 {d25[],d27[],d29[],d31[]}, [r8] 549 vld4.s16 {d25[1],d27[1],d29[1],d31[1]}, [r9] 550 vld4.s16 {d25[2],d27[2],d29[2],d31[2]}, [r10] 551 vld4.s16 {d25[3],d27[3],d29[3],d31[3]}, [r11] 556 vmlsl.s16 q9, d27, d3 583 vld4.u32 {d25[],d27[],d29[],d31[]}, [r10] 587 vld4.u32 {d25[1],d27[1],d29[1],d31[1]}, [r11] 606 vmlsl.s16 q9, d27, d21 617 vld4.u32 {d25[],d27[],d29[],d31[]}, [r10 [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1 [all...] |
/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_horz.s | 129 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 176 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 185 vmlsl.u8 q14,d7,d27 229 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 241 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 259 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 273 vmlsl.u8 q14,d7,d27 301 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 312 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 322 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1) [all...] |
ihevc_intra_pred_chroma_dc.s | 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 144 vpaddl.u8 d3, d27 159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 167 vpaddl.u8 d3, d27 253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 264 vshl.i64 d2,d27,#32
|
ihevc_inter_pred_chroma_horz_w16out.s | 132 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 196 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 206 vmlsl.u8 q14,d7,d27 245 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 258 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 271 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 286 vmlsl.u8 q14,d7,d27 312 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 322 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 332 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1) [all...] |
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/ |
thumb1_unified.d | 12 0[0-9a-f]+ <[^>]+> 2d27 cmp r5, #39.*
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
sixtappredict8x4_neon.asm | 162 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1] 168 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1]) 174 vext.8 d27, d6, d7, #4 ;construct src_ptr[2] 180 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4]) 186 vext.8 d27, d6, d7, #2 ;construct src_ptr[0] 192 vmlal.u8 q8, d27, d2 ;(src_ptr[0] * vp8_filter[2]) 198 vext.8 d27, d6, d7, #5 ;construct src_ptr[3] 204 vmlal.u8 q8, d27, d5 ;(src_ptr[3] * vp8_filter[5]) 210 vext.8 d27, d6, d7, #3 ;construct src_ptr[1] 216 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3] [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 99 vst1.u8 {d27}, [r8@64], r1 ; store op2 232 vtrn.32 d16, d27 239 vtrn.16 d27, d19 243 vtrn.8 d26, d27 271 vst1.8 {d27}, [r8@64], r1 338 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 343 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 371 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 378 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 382 vmax.u8 d27, d24, d2 [all...] |
vp9_convolve8_avg_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
vp9_convolve8_neon.asm | 85 vld1.8 {d27}, [r0], r8 89 vtrn.8 d26, d27 96 vmovl.u8 q11, d27 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d24, d26, d27, d25
|
vp9_iht4x4_add_neon.asm | 38 vqrshrn.s32 d27, q14, #14 216 vld1.32 {d27[0]}, [r1], r2 217 vld1.32 {d27[1]}, [r1] 221 vaddw.u8 q9, q9, d27 225 vqmovun.s16 d27, q9 230 vst1.32 {d27[1]}, [r1], r2 231 vst1.32 {d27[0]}, [r1], r2
|