/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 59 d26 = d25 + 1; 60 d27 = d26 + 1; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/vixl/test/aarch32/ |
test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"}, 112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 144 {{F32, d26, d30, d0}, false, al, "F32 d26 d30 d0", "F32_d26_d30_d0"} [all...] |
test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"}, 112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 144 {{F32, d26, d30, d0}, false, al, "F32 d26 d30 d0", "F32_d26_d30_d0"} [all...] |
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"} [all...] |
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"} [all...] |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 447 {{F64, d27, d26, d30}, 448 "F64 d27 d26 d30", 592 {{F64, d17, d26, d0}, 593 "F64 d17 d26 d0", [all...] |
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
idct4x4_add_neon.asm.S | 99 vrshrn.s32 d26, q13, #14 150 vrshrn.s32 d26, q13, #14 173 vld1.32 {d26[0]}, [r1], r2 174 vld1.32 {d26[1]}, [r1], r2 179 vaddw.u8 q8, q8, d26 183 vqmovun.s16 d26, q8 191 vst1.32 {d26[1]}, [r1], r2 192 vst1.32 {d26[0]}, [r1] @ no post-increment
|
loopfilter_16_neon.asm.S | 81 vst1.u8 {d26}, [r8,:64], r1 @ store oq1 110 vst1.u8 {d26}, [r8,:64], r1 @ store op3 234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 241 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r [all...] |
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra4x4_modes_a9q.s | 252 vmov.i32 d26[0], r14 259 vbit.32 d14, d30, d26 261 vbit.32 d15, d31, d26 288 vbit.32 d16, d30, d26 290 vbit.32 d17, d30, d26 316 vbit.32 d18, d30, d26 318 vbit.32 d19, d30, d26 358 vbit.32 d8, d30, d26 366 vbit.32 d9, d30, d26 391 vbit.32 d24, d30, d26 [all...] |
ih264e_half_pel.s | 113 vext.8 d26, d7, d7, #5 @//extract a[5] (column3,row1) 117 vaddl.u8 q9, d26, d7 @// a0 + a5 (column3,row1) 126 vext.8 d26, d7, d7, #2 @//extract a[2] (column3,row1) 130 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 (column3,row1) 139 vext.8 d26, d7, d7, #3 @//extract a[3] (column3,row1) 143 vmlal.u8 q9, d26, d1 @// a0 + a5 + 20a2 + 20a3 (column3,row1) 152 vext.8 d26, d7, d7, #1 @//extract a[1] (column3,row1) 156 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column3,row1) 165 vext.8 d26, d7, d7, #4 @//extract a[4] (column3,row1) 168 vmlsl.u8 q9, d26, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column3,row1 [all...] |
/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_horz.s | 129 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 179 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 188 vmlal.u8 q14,d5,d26 228 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 243 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 256 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 275 vmlal.u8 q14,d5,d26 304 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 315 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 325 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0) [all...] |
ihevc_intra_pred_chroma_dc.s | 135 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 145 vpaddl.u8 d2, d26 161 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 170 vpaddl.u8 d28, d26 255 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 265 vshl.i64 d3,d26,#32
|
ihevc_intra_pred_luma_vert.s | 192 vld1.8 {d26,d27}, [r6]! @load src[2nt-1-row](rows 0:15) 197 @vsubl.u8 q0, d26, d22 204 @vaddl.s8 q0, d24, d26 205 vmovl.s8 q0, d26 329 vld1.8 d26, [r6]! @load src[2nt-1-row](rows 0:15) 332 vhsub.u8 d26, d26, d22 @(src[2nt-1-row] - src[2nt])>>1 333 @vsubl.u8 q13, d26, d22 338 vmovl.s8 q13, d26 339 @vaddl.s8 q0, d24, d26 [all...] |
ihevc_inter_pred_chroma_horz_w16out.s | 131 vdup.8 d26,d2[2] @coeffabs_2 = vdup_lane_u8(coeffabs, 2) 198 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 208 vmlal.u8 q14,d5,d26 243 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 259 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 272 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 287 vmlal.u8 q14,d5,d26 313 vmlal.u8 q11,d12,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 324 vmlal.u8 q10,d13,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@ 334 vmlal.u8 q15,d4,d26 @mul_res = vmlsl_u8(src[0_0], coeffabs_0) [all...] |
ihevc_inter_pred_chroma_vert_w16inp.s | 232 vqshrn.s32 d26,q13,#6 @right shift 247 vqrshrun.s16 d26,q13,#6 @rounding shift 254 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 285 vqshrn.s32 d26,q13,#6 @right shift 301 vqrshrun.s16 d26,q13,#6 @rounding shift 306 vst1.32 {d26[0]},[r9],r3 @stores the loaded value 332 vqshrn.s32 d26,q13,#6 @right shift 335 vqrshrun.s16 d26,q13,#6 @rounding shift 338 vst1.32 {d26[0]},[r9],r3 @stores the loaded value
|
ihevc_intra_pred_luma_horz.s | 200 vdup.8 d26,d1[7] 201 vmovl.u8 q13,d26 275 vdup.8 d26,d0[7] 279 vmovl.u8 q13,d26 319 vdup.8 d26,d0[3] 320 vmovl.u8 q13,d26
|
ihevc_inter_pred_filters_luma_vert_w16inp.s | 132 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 161 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 177 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 191 vmlal.s16 q6,d6,d26 204 vmlal.s16 q7,d7,d26 231 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 245 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 268 vmlal.s16 q6,d6,d26 291 vmlal.s16 q7,d7,d26 314 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 140 vdup.16 d26,d1[0] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 171 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 187 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 201 vmlal.s16 q6,d6,d26 215 vmlal.s16 q7,d7,d26 244 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 259 vmlal.s16 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 283 vmlal.s16 q6,d6,d26 307 vmlal.s16 q7,d7,d26 331 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4) [all...] |
/art/test/658-fp-read-barrier/src/ |
Main.java | 80 double d26 = main.field26; local 94 d25 + d26 + d27 + d28 + d29 + d30 + d31 + d32;
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_16_neon.asm | 71 vst1.u8 {d26}, [r8@64], r1 ; store oq1 100 vst1.u8 {d26}, [r8@64], r1 ; store op3 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 251 vqrshrun.s16 d26, q13, #5 270 vrhadd.u8 d26, d18, d26 284 vst1.32 d26, [r1], r3 @ store row 0 326 vmlsl.s16 q9, d26, d24 329 vqrshrun.s16 d26, q5, #5 347 vrhadd.u8 d26, d26, d27 354 vst1.32 d26, [r1], r3 @ store row 2 481 vqrshrun.s16 d26, q13, # [all...] |
/external/boringssl/ios-arm/crypto/fipsmodule/ |
ghash-armv4.S | 391 vshr.u64 d26,d6,#63 395 vorr d7,d26 @ H<<<=1 412 vldmia r1,{d26,d27} @ load twisted H 418 veor d28,d26,d27 @ Karatsuba pre-processing 433 vldmia r1,{d26,d27} @ load twisted H 439 veor d28,d26,d27 @ Karatsuba pre-processing 449 vext.8 d16, d26, d26, #1 @ A1 452 vmull.p8 q0, d26, d0 @ E = A*B1 453 vext.8 d18, d26, d26, #2 @ A [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
ghash-armv4.S | 384 vshr.u64 d26,d6,#63 388 vorr d7,d26 @ H<<<=1 403 vldmia r1,{d26,d27} @ load twisted H 409 veor d28,d26,d27 @ Karatsuba pre-processing 422 vldmia r1,{d26,d27} @ load twisted H 428 veor d28,d26,d27 @ Karatsuba pre-processing 438 vext.8 d16, d26, d26, #1 @ A1 441 vmull.p8 q0, d26, d0 @ E = A*B1 442 vext.8 d18, d26, d26, #2 @ A [all...] |