/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 60 d27 = d26 + 1; 61 d28 = d27 + 1; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libavc/common/arm/ |
ih264_inter_pred_filters_luma_horz_a9q.s | 130 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 133 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 138 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 146 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 149 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 154 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 157 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 162 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1 [all...] |
ih264_inter_pred_luma_horz_qpel_a9q.s | 137 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 140 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 145 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 148 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 153 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 156 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 161 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 164 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 169 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 171 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1 [all...] |
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
idct4x4_add_neon.asm.S | 100 vrshrn.s32 d27, q14, #14 151 vrshrn.s32 d27, q14, #14 175 vld1.32 {d27[1]}, [r1], r2 176 vld1.32 {d27[0]}, [r1] @ no post-increment 180 vaddw.u8 q9, q9, d27 184 vqmovun.s16 d27, q9 189 vst1.32 {d27[0]}, [r1], r2 190 vst1.32 {d27[1]}, [r1], r2
|
loopfilter_4_neon.asm.S | 221 vqsub.s8 d27, d5, d16 @ filter = clamp(ps1-qs1) 226 vand d27, d27, d22 @ filter &= hev 229 vaddw.s8 q12, q12, d27 @ filter + 3 * (qs0 - ps0) 234 vqmovn.s16 d27, q12 236 vand d27, d27, d23 @ filter &= mask 238 vqadd.s8 d28, d27, d19 @ filter2 = clamp(filter+3) 239 vqadd.s8 d27, d27, d17 @ filter1 = clamp(filter+4 [all...] |
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 111 vext.8 d27, d6, d7, #5 @//extract a[5] (column2,row1) 115 vaddl.u8 q8, d27, d6 @// a0 + a5 (column2,row1) 124 vext.8 d27, d6, d7, #2 @//extract a[2] (column2,row1) 128 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 (column2,row1) 137 vext.8 d27, d6, d7, #3 @//extract a[3] (column2,row1) 141 vmlal.u8 q8, d27, d1 @// a0 + a5 + 20a2 + 20a3 (column2,row1) 150 vext.8 d27, d6, d7, #1 @//extract a[1] (column2,row1) 154 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2,row1) 163 vext.8 d27, d6, d7, #4 @//extract a[4] (column2,row1) 167 vmlsl.u8 q8, d27, d0 @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column2,row1 [all...] |
/external/libhevc/common/arm/ |
ihevc_inter_pred_chroma_horz.s | 134 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 181 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 190 vmlsl.u8 q14,d7,d27 234 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 246 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 264 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 278 vmlsl.u8 q14,d7,d27 306 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 317 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 327 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1) [all...] |
ihevc_intra_pred_chroma_dc.s | 135 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 146 vpaddl.u8 d3, d27 161 vld2.s8 {d26,d27}, [r8]! @load from src[2nt+1] 169 vpaddl.u8 d3, d27 255 vld2.s8 {d26,d27},[r8] @load from src[2nt+1] 266 vshl.i64 d2,d27,#32
|
ihevc_inter_pred_chroma_horz_w16out.s | 136 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 200 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 210 vmlsl.u8 q14,d7,d27 249 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 262 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 275 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 290 vmlsl.u8 q14,d7,d27 316 vmlsl.u8 q11,d14,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 326 vmlsl.u8 q10,d15,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1)@ 336 vmlsl.u8 q15,d6,d27 @mul_res = vmlal_u8(src[0_1], coeffabs_1) [all...] |
ihevc_inter_pred_filters_luma_vert_w16inp.s | 133 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 163 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 179 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 192 vmlal.s16 q6,d7,d27 206 vmlal.s16 q7,d16,d27 232 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 246 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 271 vmlal.s16 q6,d7,d27 293 vmlal.s16 q7,d16,d27 315 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5) [all...] |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 141 vdup.16 d27,d1[1] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 173 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 189 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 202 vmlal.s16 q6,d7,d27 217 vmlal.s16 q7,d16,d27 245 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 260 vmlal.s16 q5,d6,d27 @mul_res2 = vmlal_u8(mul_res2, src_tmp3, coeffabs_5)@ 286 vmlal.s16 q6,d7,d27 309 vmlal.s16 q7,d16,d27 332 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5) [all...] |
ihevc_intra_pred_chroma_mode2.s | 163 vrev64.8 d27,d11 185 vst2.8 {d26,d27},[r7],r5 228 vrev64.8 d27,d11 246 vst2.8 {d26,d27},[r7],r5
|
ihevc_intra_pred_chroma_mode_27_to_33.s | 185 vdup.8 d27,d4[2] @(iii) 200 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 208 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 232 vdup.8 d27,d4[6] @(vii) 266 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 272 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 327 vdup.8 d27,d4[2] @(iii) 345 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 352 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 367 vdup.8 d27,d4[6] @(vii [all...] |
ihevc_intra_pred_filters_chroma_mode_19_to_25.s | 293 vdup.8 d27,d4[2] @(iii) 308 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 316 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 339 vdup.8 d27,d4[6] @(vii) 374 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 380 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 438 vdup.8 d27,d4[2] @(iii) 455 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 462 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 479 vdup.8 d27,d4[6] @(vii [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 187 vdup.8 d27,d4[2] @(iii) 202 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 210 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 233 vdup.8 d27,d4[6] @(vii) 267 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 273 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 327 vdup.8 d27,d4[2] @(iii) 345 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 352 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 367 vdup.8 d27,d4[6] @(vii [all...] |
ihevc_inter_pred_filters_luma_vert.s | 142 vdup.u8 d27,d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 5)@ 174 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 195 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 214 vmlsl.u8 q6,d7,d27 230 vmlsl.u8 q7,d16,d27 262 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5)@ 287 vmlsl.u8 q5,d6,d27 @mul_res2 = vmlsl_u8(mul_res2, src_tmp3, coeffabs_5)@ 313 vmlsl.u8 q6,d7,d27 337 vmlsl.u8 q7,d16,d27 358 vmlsl.u8 q4,d5,d27 @mul_res1 = vmlsl_u8(mul_res1, src_tmp2, coeffabs_5) [all...] |
/art/test/658-fp-read-barrier/src/ |
Main.java | 81 double d27 = main.field27; local 94 d25 + d26 + d27 + d28 + d29 + d30 + d31 + d32;
|
/external/vixl/test/aarch32/ |
test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"} [all...] |
test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 114 {{F32, d30, d6, d27}, false, al, "F32 d30 d6 d27", "F32_d30_d6_d27"}, 125 {{F32, d27, d13, d30}, false, al, "F32 d27 d13 d30", "F32_d27_d13_d30"}, 130 {{F32, d27, d3, d3}, false, al, "F32 d27 d3 d3", "F32_d27_d3_d3"}, 150 {{F32, d30, d27, d9}, false, al, "F32 d30 d27 d9", "F32_d30_d27_d9"}, 175 {{F32, d0, d27, d19}, false, al, "F32 d0 d27 d19", "F32_d0_d27_d19"} [all...] |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 397 {{F64, d3, d27, d4}, 398 "F64 d3 d27 d4", 447 {{F64, d27, d26, d30}, 448 "F64 d27 d26 d30", 462 {{F64, d27, d30, d22}, 463 "F64 d27 d30 d22", 467 {{F64, d27, d25, d7}, 468 "F64 d27 d25 d7", 502 {{F64, d1, d27, d16}, 503 "F64 d1 d27 d16" [all...] |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 397 {{F64, d3, d27, d4}, 398 "F64 d3 d27 d4", 447 {{F64, d27, d26, d30}, 448 "F64 d27 d26 d30", 462 {{F64, d27, d30, d22}, 463 "F64 d27 d30 d22", 467 {{F64, d27, d25, d7}, 468 "F64 d27 d25 d7", 502 {{F64, d1, d27, d16}, 503 "F64 d1 d27 d16" [all...] |