/external/llvm/test/MC/AArch64/ |
neon-scalar-abs.s | 9 abs d29, d24 11 // CHECK: abs d29, d24 // encoding: [0x1d,0xbb,0xe0,0x5e] 19 fabd d29, d24, d20 23 // CHECK: fabd d29, d24, d20 // encoding: [0x1d,0xd7,0xf4,0x7e]
|
neon-scalar-neg.s | 9 neg d29, d24 11 // CHECK: neg d29, d24 // encoding: [0x1d,0xbb,0xe0,0x7e]
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_luma_vert.s | 202 @vaddl.s8 q0, d24, d26 212 vqmovun.s16 d24, q14 214 @vmovn.u16 d24, q1 221 vbsl d18, d24, d16 @only select row values from q12(predpixel) 231 vshr.s64 d24, d24, #8 237 vbsl d8, d24, d16 241 vshr.s64 d24, d24, #8 262 vbsl d18, d24, d16 @only select row values from q12(predpixel [all...] |
ihevc_inter_pred_chroma_horz.s | 120 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 172 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 180 vmlsl.u8 q14,d1,d24 212 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 235 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 248 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 266 vmlsl.u8 q14,d1,d24 297 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 308 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 318 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2) [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 40 VLD1.8 {d24,d25},[r0],r1 43 VEXT.8 d10,d24,d25,#5 44 VEXT.8 d12,d24,d25,#1 45 VEXT.8 d16,d24,d25,#2 46 VEXT.8 d17,d24,d25,#3 47 VEXT.8 d13,d24,d25,#4 48 VADDL.U8 q12,d24,d10 53 VMLA.I16 d24,d8,d31 61 VSUB.I16 d24,d24,d [all...] |
omxVCM4P10_FilterDeblockingChroma_VerEdge_I_s.S | 93 VBIT d24,d31,d26 98 VBIF d24,d8,d16 110 VST1.8 {d24[0]},[r12],lr 111 VST1.8 {d24[1]},[r10],lr 112 VST1.8 {d24[2]},[r12],lr 113 VST1.8 {d24[3]},[r10],lr 114 VST1.8 {d24[4]},[r12],lr 115 VST1.8 {d24[5]},[r10],lr 116 VST1.8 {d24[6]},[r12],lr 117 VST1.8 {d24[7]},[r10],l [all...] |
omxVCM4P10_InterpolateLuma_s.S | 79 VRHADD.U8 d24,d24,d16 84 VST1.32 {d24[0]},[r2] 94 VST1.32 {d24[0]},[r2] 103 VRHADD.U8 d24,d24,d17 108 VST1.32 {d24[0]},[r2] 134 VRHADD.U8 d24,d24,d2 139 VST1.32 {d24[0]},[r2 [all...] |
armVCM4P10_DeblockingLuma_unsafe_s.S | 39 VRHADD.U8 d24,d4,d8 47 VHADD.U8 d26,d24,d6 51 VHADD.U8 d27,d24,d10 59 VQMOVUN.S16 d24,q12 65 VBIF d24,d8,d16 102 VQRSHRN.U16 d24,q11,#1 106 VBIF d24,d22,d12 108 VBIF d24,d8,d16
|
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S | 92 VZIP.8 d24,d25 96 VZIP.16 d24,d10 99 VTRN.32 d7,d24 104 VST1.8 {d24},[r10],r11 131 VZIP.8 d24,d25 135 VZIP.16 d24,d28 138 VTRN.32 d7,d24 143 VST1.8 {d24},[r10],r11
|
omxVCM4P10_FilterDeblockingChroma_HorEdge_I_s.S | 78 VBIT d24,d31,d26 80 VBIF d24,d8,d16 83 VST1.8 {d24},[r0],r1
|
/external/libhevc/common/arm64/ |
ihevc_intra_pred_luma_vert.s | 204 //vaddl.s8 q0, d24, d26 216 //vmovn.u16 d24, q1 233 sshr d24, d24,#8 243 sshr d24, d24,#8 268 sshr d24, d24,#8 281 sshr d24, d24,# [all...] |
/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 57 d24 = d23 + 1; 58 d25 = d24 + 1; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 174 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1) 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3) 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4) 358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4) 361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4) 366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4) 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5 [all...] |
/toolchain/binutils/binutils-2.25/gas/testsuite/gas/arm/ |
neon-ldst-rm.d | 11 0[0-9a-f]+ <[^>]+> ecd28b10 vldmia r2, {d24-d31} 16 0[0-9a-f]+ <[^>]+> ecd28b10 vldmia r2, {d24-d31} 21 0[0-9a-f]+ <[^>]+> ecf28b10 vldmia r2!, {d24-d31} 26 0[0-9a-f]+ <[^>]+> ed728b10 vldmdb r2!, {d24-d31} 31 0[0-9a-f]+ <[^>]+> ecc28b10 vstmia r2, {d24-d31} 36 0[0-9a-f]+ <[^>]+> ecc28b10 vstmia r2, {d24-d31} 41 0[0-9a-f]+ <[^>]+> ece28b10 vstmia r2!, {d24-d31} 46 0[0-9a-f]+ <[^>]+> ed628b10 vstmdb r2!, {d24-d31}
|
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blur.S | 291 vmlal.u16 q14, d24, d1[3] 297 vmlal.u16 q14, d24, d1[2] 303 vmlal.u16 q14, d24, d1[1] 315 vmlal.u16 q14, d24, d0[3] 321 vmlal.u16 q14, d24, d0[2] 327 vmlal.u16 q14, d24, d0[1] 372 vmlal.u16 q14, d24, d3[3] 378 vmlal.u16 q14, d24, d3[2] 384 vmlal.u16 q14, d24, d3[1] 396 vmlal.u16 q14, d24, d2[3 [all...] |
rsCpuIntrinsics_neon_Convolve.S | 145 vld1.8 {d24, d25, d26}, [r1], r7 @ y0 ( y - 2 ) 153 vmovl.u8 q9, d24 162 d24, d25 170 vmlal.s16 q4, d24, d1[1] 191 vld1.8 {d24, d25, d26}, [r3], r7 @ y0 ( y ) 199 vmovl.u8 q9, d24 208 d24, d25 216 vmlal.s16 q4, d24, d3[3] 236 vld1.8 {d24, d25, d26}, [r5], r7 @ y0 ( y + 2 ) 242 vmovl.u8 q9, d24 [all...] |
rsCpuIntrinsics_neon_Resize.S | 54 .macro vert8, dstlo=d24, dsthi=d25 243 vdup.s16 d24, d25[0] 245 vld1.s16 {d24}, [r8] 246 vst1.s16 {d24}, [r9] 249 vdup.u32 q11, d24[0] 256 vmov.u64 d24, d28 355 vmov.u64 d24, d25 532 vld4.s16 {d24[],d26[],d28[],d30[]}, [r8] 535 vld4.s16 {d24[1],d26[1],d28[1],d30[1]}, [r9] 539 vld4.s16 {d24[2],d26[2],d28[2],d30[2]}, [r10 [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_neon_asm.asm | 76 vld1.8 {d24}, [r0], r1 82 vtrn.8 d24, d25 87 vmovl.u8 q8, d24 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 134 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 218 vld1.u32 {d24[0]}, [r7], r1 221 vld1.u32 {d24[1]}, [r4], r1 224 vmovl.u8 q12, d24 [all...] |
vpx_convolve8_neon_asm.asm | 76 vld1.8 {d24}, [r0], r1 82 vtrn.8 d24, d25 87 vmovl.u8 q8, d24 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 126 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 207 vld1.u32 {d24[0]}, [r7], r1 210 vld1.u32 {d24[1]}, [r4], r1 213 vmovl.u8 q12, d24 [all...] |
loopfilter_mb_neon.asm | 67 vst1.u8 {d24}, [r8@64], r1 ; store op0 96 vst1.u8 {d24}, [r8@64], r1 ; store op5 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r [all...] |
loopfilter_8_neon.asm | 201 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2) 209 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6) 215 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0) 222 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2 235 vqadd.u8 d24, d24, d23 ; a = b + a 240 vcge.u8 d24, d0, d24 ; a > blimi [all...] |
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_convolve8_avg_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 228 vld1.u32 {d24[0]}, [r7], r1 231 vld1.u32 {d24[1]}, [r4], r1 234 vmovl.u8 q12, d24 [all...] |
vp9_convolve8_neon.asm | 82 vld1.8 {d24}, [r0], r1 88 vtrn.8 d24, d25 93 vmovl.u8 q8, d24 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 217 vld1.u32 {d24[0]}, [r7], r1 220 vld1.u32 {d24[1]}, [r4], r1 223 vmovl.u8 q12, d24 [all...] |
vp9_mb_lpf_neon.asm | 67 vst1.u8 {d24}, [r8@64], r1 ; store op0 96 vst1.u8 {d24}, [r8@64], r1 ; store op5 190 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r8], r1 191 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r8], r1 192 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r8], r1 193 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r8], r1 194 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r8], r1 195 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r8], r1 196 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r8], r1 197 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r8], r [all...] |