/external/llvm/test/MC/AArch64/ |
neon-scalar-abs.s | 9 abs d29, d24 11 // CHECK: abs d29, d24 // encoding: [0x1d,0xbb,0xe0,0x5e] 19 fabd d29, d24, d20 23 // CHECK: fabd d29, d24, d20 // encoding: [0x1d,0xd7,0xf4,0x7e]
|
neon-scalar-neg.s | 9 neg d29, d24 11 // CHECK: neg d29, d24 // encoding: [0x1d,0xbb,0xe0,0x7e]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/AArch64/ |
neon-scalar-abs.s | 9 abs d29, d24 11 // CHECK: abs d29, d24 // encoding: [0x1d,0xbb,0xe0,0x5e] 19 fabd d29, d24, d20 23 // CHECK: fabd d29, d24, d20 // encoding: [0x1d,0xd7,0xf4,0x7e]
|
neon-scalar-neg.s | 9 neg d29, d24 11 // CHECK: neg d29, d24 // encoding: [0x1d,0xbb,0xe0,0x7e]
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_luma_vert.s | 204 @vaddl.s8 q0, d24, d26 214 vqmovun.s16 d24, q14 216 @vmovn.u16 d24, q1 223 vbsl d18, d24, d16 @only select row values from q12(predpixel) 233 vshr.s64 d24, d24, #8 239 vbsl d8, d24, d16 243 vshr.s64 d24, d24, #8 264 vbsl d18, d24, d16 @only select row values from q12(predpixel [all...] |
ihevc_inter_pred_chroma_horz.s | 125 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 177 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 185 vmlsl.u8 q14,d1,d24 217 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 240 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 253 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 271 vmlsl.u8 q14,d1,d24 302 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 313 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 323 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2) [all...] |
ihevc_inter_pred_chroma_horz_w16out.s | 127 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0) 196 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 205 vmlsl.u8 q14,d1,d24 236 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 256 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 269 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 282 vmlsl.u8 q14,d1,d24 311 vmlsl.u8 q11,d8,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 322 vmlsl.u8 q10,d9,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2)@ 332 vmlsl.u8 q15,d0,d24 @mul_res = vmlsl_u8(src[0_2], coeffabs_2) [all...] |
ihevc_inter_pred_chroma_vert_w16inp.s | 246 vqshrn.s32 d24,q12,#6 @right shift 259 vqrshrun.s16 d24,q12,#6 @rounding shift 265 vst1.32 {d24[0]},[r9] @stores the loaded value 300 vqshrn.s32 d24,q12,#6 @right shift 311 vqrshrun.s16 d24,q12,#6 @rounding shift 322 vst1.32 {d24[0]},[r9] @stores the loaded value 337 vqshrn.s32 d24,q12,#6 @right shift 339 vqrshrun.s16 d24,q12,#6 @rounding shift 341 vst1.32 {d24[0]},[r9] @stores the loaded value
|
/external/capstone/suite/MC/AArch64/ |
neon-scalar-abs.s.cs | 2 0x1d,0xbb,0xe0,0x5e = abs d29, d24 4 0x1d,0xd7,0xf4,0x7e = fabd d29, d24, d20 package
|
neon-scalar-neg.s.cs | 2 0x1d,0xbb,0xe0,0x7e = neg d29, d24
|
/external/libhevc/common/arm64/ |
ihevc_intra_pred_luma_vert.s | 204 //vaddl.s8 q0, d24, d26 216 //vmovn.u16 d24, q1 233 sshr d24, d24,#8 243 sshr d24, d24,#8 268 sshr d24, d24,#8 281 sshr d24, d24,# [all...] |
/art/test/705-register-conflict/src/ |
Main.java | 31 double d24 = 0, d25 = 0, d26 = 0, d27 = 0, d28 = 0, d29 = 0, d30 = 0, d31 = 0; local 57 d24 = d23 + 1; 58 d25 = d24 + 1; 71 + d24 + d25 + d26 + d27 + d28 + d29 + d30 + d31;
|
/external/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libavc/encoder/arm/ |
ih264e_half_pel.s | 174 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1) 178 vst1.8 {d23, d24, d25}, [r1], r3 @//Store dest row1 338 vext.16 d31, d23, d24, #1 @//extract a[5] (set3) 353 vext.16 d31, d24, d25, #1 @//extract a[5] (set4) 356 vext.16 d30, d23, d24, #2 @//extract a[2] (set4) 358 vext.16 d29, d23, d24, #3 @//extract a[3] (set4) 361 vext.16 d28, d23, d24, #1 @//extract a[1] (set4) 366 vmlsl.s16 q13, d24, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set4) 367 vext.16 d30, d24, d25, #2 @//extract a[2] (set5) 369 vaddl.s16 q11, d31, d24 @// a0 + a5 (set5 [all...] |
ih264e_evaluate_intra16x16_modes_a9q.s | 196 vadd.i16 d24, d24, d25 @/DC 204 vpaddl.u16 d24, d24 @/DC 208 vpaddl.u32 d24, d24 @/DC 210 vmov.u32 r10, d24[0] @dc 263 vst1.32 {d24, d25} , [r2], r4 @7
|
ih264e_evaluate_intra_chroma_modes_a9q.s | 242 vadd.i16 d24, d24, d25 @/DC 245 vpaddl.u16 d24, d24 @/DC 248 vpaddl.u32 d24, d24 @/DC 254 vmov.u32 r10, d24[0] @dc 310 vst1.32 {d24, d25} , [r2], r4 @2
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
loopfilter_16_neon.asm.S | 79 vst1.u8 {d24}, [r8,:64], r1 @ store op0 108 vst1.u8 {d24}, [r8,:64], r1 @ store op5 234 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 235 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 236 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 237 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 238 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 239 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 240 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 241 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r [all...] |
loopfilter_8_neon.asm.S | 255 vabd.u8 d24, d18, d17 @ m6 = abs(q3 - q2) 263 vmax.u8 d23, d23, d24 @ m3 = max(m5, m6) 269 vabd.u8 d24, d6, d7 @ m9 = abs(p0 - q0) 276 vqadd.u8 d24, d24, d24 @ b = abs(p0 - q0) * 2 289 vqadd.u8 d24, d24, d23 @ a = b + a 294 vcge.u8 d24, d0, d24 @ a > blimi [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
loopfilter_16_neon.asm | 69 vst1.u8 {d24}, [r8@64], r1 ; store op0 98 vst1.u8 {d24}, [r8@64], r1 ; store op5 221 vst4.8 {d23[0], d24[0], d25[0], d26[0]}, [r0], r1 222 vst4.8 {d23[1], d24[1], d25[1], d26[1]}, [r0], r1 223 vst4.8 {d23[2], d24[2], d25[2], d26[2]}, [r0], r1 224 vst4.8 {d23[3], d24[3], d25[3], d26[3]}, [r0], r1 225 vst4.8 {d23[4], d24[4], d25[4], d26[4]}, [r0], r1 226 vst4.8 {d23[5], d24[5], d25[5], d26[5]}, [r0], r1 227 vst4.8 {d23[6], d24[6], d25[6], d26[6]}, [r0], r1 228 vst4.8 {d23[7], d24[7], d25[7], d26[7]}, [r0], r [all...] |
loopfilter_8_neon.asm | 241 vabd.u8 d24, d18, d17 ; m6 = abs(q3 - q2) 249 vmax.u8 d23, d23, d24 ; m3 = max(m5, m6) 255 vabd.u8 d24, d6, d7 ; m9 = abs(p0 - q0) 262 vqadd.u8 d24, d24, d24 ; b = abs(p0 - q0) * 2 275 vqadd.u8 d24, d24, d23 ; a = b + a 280 vcge.u8 d24, d0, d24 ; a > blimi [all...] |
/art/test/658-fp-read-barrier/src/ |
Main.java | 78 double d24 = main.field24; local 93 d13 + d14 + d15 + d16 + d17 + d18 + d19 + d20 + d21 + d22 + d23 + d24 +
|
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 195 vmlsl.s16 q13, d24, d30 217 vmlsl.s16 q13, d24, d30 272 vmlsl.s16 q13, d24, d30 294 vmlsl.s16 q13, d24, d30 358 vmlsl.s16 q15, d18, d24 360 vmlsl.s16 q11, d19, d24 387 vmlsl.s16 q15, d18, d24 389 vmlsl.s16 q11, d19, d24 397 vmov d25, d24 450 vmlsl.s16 q15, d18, d24 [all...] |
ih264_inter_pred_filters_luma_horz_a9q.s | 171 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1) 172 vst1.8 {d23, d24}, [r1], r3 @//Store dest row1 185 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 191 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1) 219 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1) 224 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
|
/external/vixl/test/aarch32/ |
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 123 {{F64, d24, d16, d28}, false, al, "F64 d24 d16 d28", "F64_d24_d16_d28"}, 135 {{F64, d10, d22, d24}, false, al, "F64 d10 d22 d24", "F64_d10_d22_d24"}, 138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d24", "F32_d5_d26_d24"}, 148 {{F32, d4, d24, d28}, false, al, "F32 d4 d24 d28", "F32_d4_d24_d28"}, 179 {{F64, d25, d23, d24}, false, al, "F64 d25 d23 d24", "F64_d25_d23_d24"} [all...] |