/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 52 VLD1.8 {d26,d27},[r0],r1 55 VEXT.8 d10,d26,d27,#5 56 VEXT.8 d12,d26,d27,#1 57 VEXT.8 d18,d26,d27,#2 58 VEXT.8 d19,d26,d27,#3 59 VEXT.8 d13,d26,d27,#4 60 VADDL.U8 q13,d26,d10 65 VMLA.I16 d26,d8,d31 73 VSUB.I16 d26,d26,d [all...] |
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S | 59 VMOV.32 d26[0],r6 61 VMOVL.U8 q13,d26 63 VCGT.S16 d27,d26,#0 75 VTST.16 d26,d26,d1 77 VBIT d29,d13,d26 78 VBIT d24,d31,d26
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 77 VEXT.8 d26,d18,d19,#2 91 VADD.I16 d26,d26,d19 96 VMLSL.S16 q0,d26,d30 97 VEXT.8 d26,d20,d21,#2 100 VADD.I16 d26,d26,d21 107 VMLSL.S16 q1,d26,d30 109 VADD.I16 d26,d8,d23 117 VMLSL.S16 q2,d26,d3 [all...] |
omxVCM4P10_InterpolateLuma_s.S | 78 VRHADD.U8 d26,d26,d18 83 VST1.32 {d26[0]},[r12],r3 93 VST1.32 {d26[0]},[r12],r3 102 VRHADD.U8 d26,d26,d19 107 VST1.32 {d26[0]},[r12],r3 133 VRHADD.U8 d26,d26,d4 138 VST1.32 {d26[0]},[r12],r [all...] |
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S | 73 VMOV.32 d26[0],r6 76 VMOVL.U8 q13,d26 78 VCGT.S16 d27,d26,#0 90 VTST.16 d26,d26,d1 92 VBIT d29,d13,d26 93 VBIT d24,d31,d26
|
/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 59 d26 = d25 + 1; 60 d27 = d26 + 1; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/aarch64/ |
fp-const0-parse.s | 34 fcmlt d4, d26, #0 53 fcmlt d4, d26, #0.0
|
fp-const0-parse.d | 17 24: 5ee0eb44 fcmlt d4, d26, #0.0 32 60: 5ee0eb44 fcmlt d4, d26, #0.0
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Convolve.S | 55 vmovl.u8 q2, d26 145 vld1.8 {d24, d25, d26}, [r1], r7 @ y0 ( y - 2 ) 155 vmovl.u8 q11, d26 172 vmlal.s16 q4, d26, d1[3] 183 vmlal.s16 q5, d26, d1[2] 191 vld1.8 {d24, d25, d26}, [r3], r7 @ y0 ( y ) 201 vmovl.u8 q11, d26 218 vmlal.s16 q4, d26, d4[1] 229 vmlal.s16 q5, d26, d4[0] 236 vld1.8 {d24, d25, d26}, [r5], r7 @ y0 ( y + 2 [all...] |
rsCpuIntrinsics_neon_Blur.S | 293 vmlal.u16 q14, d26, d1[3] 299 vmlal.u16 q14, d26, d1[2] 305 vmlal.u16 q14, d26, d1[1] 317 vmlal.u16 q14, d26, d0[3] 323 vmlal.u16 q14, d26, d0[2] 329 vmlal.u16 q14, d26, d0[1] 374 vmlal.u16 q14, d26, d3[3] 380 vmlal.u16 q14, d26, d3[2] 386 vmlal.u16 q14, d26, d3[1] 398 vmlal.u16 q14, d26, d2[3 [all...] |
rsCpuIntrinsics_neon_Resize.S | 258 vmov.u64 d26, d28 532 vld4.s16 {d24[],d26[],d28[],d30[]}, [r8] 535 vld4.s16 {d24[1],d26[1],d28[1],d30[1]}, [r9] 539 vld4.s16 {d24[2],d26[2],d28[2],d30[2]}, [r10] 543 vld4.s16 {d24[3],d26[3],d28[3],d30[3]}, [r11] 555 vmlsl.s16 q8, d26, d2 576 vld4.u32 {d24[],d26[],d28[],d30[]}, [r8] 579 vld4.u32 {d24[1],d26[1],d28[1],d30[1]}, [r9] 605 vmlsl.s16 q8, d26, d2 615 vld4.u32 {d24[],d26[],d28[],d30[]}, [r8 [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_mb_neon.asm | 69 vst1.u8 {d26}, [r8@64], r1 ; store oq1 98 vst1.u8 {d26}, [r8@64], r1 ; store op3 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r [all...] |
vpx_convolve8_avg_neon_asm.asm | 78 vld1.8 {d26}, [r0], r1 83 vtrn.8 d26, d27 89 vmovl.u8 q10, d26 132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 219 vld1.u32 {d26[0]}, [r4], r1 220 vld1.u32 {d26[1]}, [r7], r1 225 vmovl.u8 q13, d26 241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all...] |
vpx_convolve8_neon_asm.asm | 78 vld1.8 {d26}, [r0], r1 83 vtrn.8 d26, d27 89 vmovl.u8 q10, d26 124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 208 vld1.u32 {d26[0]}, [r4], r1 209 vld1.u32 {d26[1]}, [r7], r1 214 vmovl.u8 q13, d26 225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 69 vst1.u8 {d26}, [r8@64], r1 ; store oq1 98 vst1.u8 {d26}, [r8@64], r1 ; store op3 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r [all...] |
vp9_convolve8_avg_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 229 vld1.u32 {d26[0]}, [r4], r1 230 vld1.u32 {d26[1]}, [r7], r1 235 vmovl.u8 q13, d26 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all...] |
vp9_convolve8_neon.asm | 84 vld1.8 {d26}, [r0], r1 89 vtrn.8 d26, d27 95 vmovl.u8 q10, d26 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 218 vld1.u32 {d26[0]}, [r4], r1 219 vld1.u32 {d26[1]}, [r7], r1 224 vmovl.u8 q13, d26 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 [all...] |
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra4x4_modes_a9q.s | 252 vmov.i32 d26[0], r14 259 vbit.32 d14, d30, d26 261 vbit.32 d15, d31, d26 288 vbit.32 d16, d30, d26 290 vbit.32 d17, d30, d26 316 vbit.32 d18, d30, d26 318 vbit.32 d19, d30, d26 358 vbit.32 d8, d30, d26 366 vbit.32 d9, d30, d26 391 vbit.32 d24, d30, d26 [all...] |
ih264e_half_pel.s | 113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1) 117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1) 126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1) 130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1) 139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1) 143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1) 152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1) 156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1) 165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1) 168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1 [all...] |
/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_horz.s | 124 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 174 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 183 vmlal.u8 q14,d5,d26 223 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 238 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 251 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 270 vmlal.u8 q14,d5,d26 299 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 310 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 320 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0) [all...] |
ihevc_intra_pred_chroma_dc.s | 133 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 143 vpaddl.u8 d2, d26 159 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 168 vpaddl.u8 d28, d26 253 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 263 vshl.i64 d3,d26,#32
|
ihevc_intra_pred_luma_vert.s | 190 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15) 195 @vsubl.u8 q0, d26, d22 202 @vaddl.s8 q0, d24, d26 203 vmovl.s8 q0, d26 327 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15) 330 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1 331 @vsubl.u8 q13, d26, d22 336 vmovl.s8 q13, d26 337 @vaddl.s8 q0, d24, d26 [all...] |
ihevc_inter_pred_chroma_horz_w16out.s | 127 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 194 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 204 vmlal.u8 q14,d5,d26 239 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 255 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 268 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 283 vmlal.u8 q14,d5,d26 309 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 320 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 330 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0) [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/ |
vp8_mse16x16_neon.asm | 55 vmlal.s16 q7, d26, d26 101 vmull.s16 q9, d26, d26
|