/device/linaro/bootloader/edk2/ArmVirtPkg/Library/BaseCachingPciExpressLib/ |
BaseCachingPciExpressLib.inf | 22 FILE_GUID = 3f3ffd80-04dc-4a2b-9d25-ecca55c2e520
|
/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 58 d25 = d24 + 1; 59 d26 = d25 + 1; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S | 40 VLD1.8 {d24,d25},[r0],r1 43 VEXT.8 d10,d24,d25,#5 44 VEXT.8 d12,d24,d25,#1 45 VEXT.8 d16,d24,d25,#2 46 VEXT.8 d17,d24,d25,#3 47 VEXT.8 d13,d24,d25,#4
|
omxVCM4P10_FilterDeblockingLuma_VerEdge_I_s.S | 92 VZIP.8 d24,d25 97 VZIP.16 d25,d11 101 VTRN.32 d6,d25 108 VST1.8 {d25},[r10],r11 131 VZIP.8 d24,d25 136 VZIP.16 d25,d11 140 VTRN.32 d31,d25 147 VST1.8 {d25},[r10],r11
|
armVCM4P10_DeblockingLuma_unsafe_s.S | 60 VMAX.U8 d25,d27,d21 62 VMIN.U8 d25,d25,d19 66 VBIF d25,d9,d12 101 VQRSHRN.U16 d25,q12,#2 104 VBIF d25,d9,d12
|
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 110 VEXT.8 d28,d24,d25,#6 112 VEXT.8 d27,d24,d25,#4 113 VEXT.8 d29,d25,d6,#2 115 VEXT.8 d8,d24,d25,#2 119 VADD.I16 d8,d8,d25
|
omxVCM4P10_FilterDeblockingLuma_HorEdge_I_s.S | 84 VST1.8 {d25},[r0] 104 VST1.8 {d25},[r0],r1
|
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 175 vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row1) 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 362 vext.16 d31, d25, d25, #1 @//extract a[5] (set5) ;//here only first element in the row is valid 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 370 vext.16 d29, d24, d25, #3 @//extract a[3] (set5) 372 vext.16 d31, d24, d25, #1 @//extract a[1] (set5) 379 vmlsl.s16 q11, d25, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set5) 458 vext.16 d31, d24, d25, #1 @//extract a[5] (set4 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blur.S | 292 vmlal.u16 q15, d25, d1[3] 298 vmlal.u16 q15, d25, d1[2] 304 vmlal.u16 q15, d25, d1[1] 316 vmlal.u16 q15, d25, d0[3] 322 vmlal.u16 q15, d25, d0[2] 328 vmlal.u16 q15, d25, d0[1] 373 vmlal.u16 q15, d25, d3[3] 379 vmlal.u16 q15, d25, d3[2] 385 vmlal.u16 q15, d25, d3[1] 397 vmlal.u16 q15, d25, d2[3 [all...] |
rsCpuIntrinsics_neon_Convolve.S | 145 vld1.8 {d24, d25, d26}, [r1], r7 @ y0 ( y - 2 ) 154 vmovl.u8 q10, d25 162 d24, d25 171 vmlal.s16 q4, d25, d1[2] 182 vmlal.s16 q5, d25, d1[1] 191 vld1.8 {d24, d25, d26}, [r3], r7 @ y0 ( y ) 200 vmovl.u8 q10, d25 208 d24, d25 217 vmlal.s16 q4, d25, d4[0] 228 vmlal.s16 q5, d25, d3[3 [all...] |
rsCpuIntrinsics_neon_Resize.S | 54 .macro vert8, dstlo=d24, dsthi=d25 80 /* As above, but only four 16-bit results into d25. 95 vqshrn.s32 d25, q12, #8 + 16 - VERTBITS 243 vdup.s16 d24, d25[0] 257 vmov.u64 d25, d28 339 vdup.s16 q13, d25[3] 341 vdup.u32 q13, d25[1] 351 vdup.s16 q12, d25[3] 353 vdup.u32 q12, d25[1] 355 vmov.u64 d24, d25 [all...] |
/external/libhevc/common/arm/ |
ihevc_intra_pred_luma_vert.s | 209 @vaddl.s8 q1, d25, d27 211 vqmovun.s16 d25, q0 213 @vmovn.u16 d25, q0 222 vbsl d10, d25, d16 234 vshr.s64 d25, d25, #8 238 vbsl d6, d25, d16 244 vshr.s64 d25, d25, #8 263 vbsl d10, d25, d1 [all...] |
ihevc_inter_pred_chroma_horz.s | 122 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 170 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 178 vmull.u8 q14,d3,d25 207 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 233 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 245 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q14,d3,d25 292 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 306 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 314 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3) [all...] |
ihevc_inter_pred_chroma_horz_w16out.s | 125 vdup.8 d25,d2[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1) 190 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 198 vmull.u8 q14,d3,d25 221 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 249 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 262 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 274 vmull.u8 q14,d3,d25 302 vmull.u8 q11,d10,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 316 vmull.u8 q10,d11,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 324 vmull.u8 q15,d2,d25 @mul_res = vmull_u8(src[0_3], coeffabs_3) [all...] |
ihevc_inter_pred_filters_luma_vert_w16inp.s | 126 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 170 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 185 vmlal.s16 q6,d5,d25 197 vmlal.s16 q7,d6,d25 225 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 239 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 261 vmlal.s16 q6,d5,d25 284 vmlal.s16 q7,d6,d25 308 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 134 vdup.16 d25,d0[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3)@ 164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 180 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 195 vmlal.s16 q6,d5,d25 208 vmlal.s16 q7,d6,d25 238 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 253 vmlal.s16 q5,d4,d25 @mul_res2 = vmlal_u8(mul_res2, src_tmp1, coeffabs_3)@ 276 vmlal.s16 q6,d5,d25 300 vmlal.s16 q7,d6,d25 325 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3) [all...] |
ihevc_intra_pred_chroma_mode2.s | 155 vrev64.8 d25,d9 180 vst2.8 {d24,d25},[r6],r5 221 vrev64.8 d25,d9 242 vst2.8 {d24,d25},[r6],r5
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
neont2-pairwise-encoding.s | 45 vpadal.u8 d14, d25 58 @ CHECK: vpadal.u8 d14, d25 @ encoding: [0xb0,0xff,0xa9,0xe6] 73 vpmin.u16 d20, d25, d14 81 @ CHECK: vpmin.u16 d20, d25, d14 @ encoding: [0x59,0xff,0x9e,0x4a] 91 vpmax.u32 d8, d25, d12 99 @ CHECK: vpmax.u32 d8, d25, d12 @ encoding: [0x29,0xff,0x8c,0x8a]
|
/art/test/658-fp-read-barrier/src/ |
Main.java | 79 double d25 = main.field25; local 94 d25 + d26 + d27 + d28 + d29 + d30 + d31 + d32;
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_16_neon.asm | 68 vst1.u8 {d25}, [r8@64], r1 ; store op1 99 vst1.u8 {d25}, [r8@64], r1 ; store op4 219 vswp d23, d25 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r [all...] |
/external/valgrind/none/tests/arm/ |
vfpv4_fma.c | 87 TESTINSN_bin_f64("vfma.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687)); 88 TESTINSN_bin_f64("vfma.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 90 TESTINSN_bin_f64("vfma.f64 d19, d25, d27", d19, d25, i32, f2u0(95867.76), f2u1(95867.76), d27, i32, f2u0(17065), f2u1(17065)); 100 TESTINSN_bin_f64("vfma.f64 d29, d25, d7", d29, d25, i32, f2u0(-INFINITY), f2u1(-INFINITY), d7, i32, f2u0(1752), f2u1(1752)); 137 TESTINSN_bin_f64("vfms.f64 d20, d25, d22", d20, d25, i32, f2u0(23.04), f2u1(23.04), d22, i32, f2u0(-45.5687), f2u1(-45.5687)) [all...] |
/external/libhevc/common/arm64/ |
ihevc_intra_pred_luma_vert.s | 211 //vaddl.s8 q1, d25, d27 215 //vmovn.u16 d25, q0 236 sshr d25, d25,#8 246 sshr d25, d25,#8 271 sshr d25, d25,#8 284 sshr d25, d25,# [all...] |
/system/core/debuggerd/crasher/arm/ |
crashglue.S | 45 fconstd d25, #25
|