/external/libhevc/common/arm/ |
ihevc_inter_pred_luma_vert_w16inp_w16out.s | 142 vdup.16 d28,d1[2] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 174 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 190 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 203 vmlal.s16 q6,d16,d28 219 vmlal.s16 q7,d17,d28 246 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 263 vmlal.s16 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 289 vmlal.s16 q6,d16,d28 311 vmlal.s16 q7,d17,d28 333 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6) [all...] |
ihevc_intra_pred_chroma_dc.s | 158 vpaddl.u8 d28, d30 164 vpaddl.u16 d29, d28 170 vpaddl.u8 d28, d26 173 vpaddl.u16 d29, d28
|
ihevc_intra_pred_chroma_mode2.s | 165 vrev64.8 d28,d12 186 vst2.8 {d28,d29},[r9],r5 230 vrev64.8 d28,d12 247 vst2.8 {d28,d29},[r9],r5
|
ihevc_inter_pred_filters_luma_vert.s | 143 vdup.u8 d28,d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 6)@ 176 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 198 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 215 vmlal.u8 q6,d16,d28 232 vmlal.u8 q7,d17,d28 264 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 290 vmlal.u8 q5,d7,d28 @mul_res2 = vmlal_u8(mul_res2, src_tmp4, coeffabs_6)@ 316 vmlal.u8 q6,d16,d28 339 vmlal.u8 q7,d17,d28 359 vmlal.u8 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6) [all...] |
/external/llvm/test/MC/ARM/ |
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_vert_filter_type1_neon.asm | 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs, 100 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 128 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 148 vmlsl.u8 q6, d16, d28 167 vmlsl.u8 q7, d17, d28 200 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 228 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 251 vmlsl.u8 q6, d16, d28 271 vmlsl.u8 q7, d17, d28 296 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm | 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs, 101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 129 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 149 vmlal.u8 q6, d16, d28 168 vmlal.u8 q7, d17, d28 201 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 229 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 252 vmlal.u8 q6, d16, d28 271 vmlal.u8 q7, d17, d28 296 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type1_neon.asm | 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs, 101 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 128 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 146 vmlsl.u8 q6, d16, d28 164 vmlsl.u8 q7, d17, d28 195 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 221 vmlsl.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 241 vmlsl.u8 q6, d16, d28 259 vmlsl.u8 q7, d17, d28 282 vmlsl.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type2_neon.asm | 60 vdup.u8 d28, d0[6] ;coeffabs_6 = vdup_lane_u8(coeffabs, 101 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 128 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 147 vmlal.u8 q6, d16, d28 165 vmlal.u8 q7, d17, d28 196 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1, 222 vmlal.u8 q5, d7, d28 ;mul_res2 = vmlal_u8(mul_res2, 242 vmlal.u8 q6, d16, d28 260 vmlal.u8 q7, d17, d28 282 vmlal.u8 q4, d6, d28 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_avg_horiz_filter_type1_neon.asm | 57 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 139 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4], 209 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 232 vmlal.u8 q10, d13, d28 258 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 281 vmlal.u8 q11, d13, d28 322 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 406 vmlal.u8 q4, d4, d28
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm | 57 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 120 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 140 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4], 210 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 233 vmlal.u8 q10, d13, d28 259 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 282 vmlal.u8 q11, d13, d28 323 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 407 vmlal.u8 q4, d4, d28
|
vpx_convolve8_horiz_filter_type1_neon.asm | 56 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 139 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4], 205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 228 vmlal.u8 q10, d13, d28 251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 275 vmlal.u8 q11, d13, d28 307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 386 vmlal.u8 q4, d4, d28
|
vpx_convolve8_horiz_filter_type2_neon.asm | 57 vdup.8 d28, d2[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 119 vmlal.u8 q4, d4, d28 ;mul_res = vmlal_u8(src[0_4], 139 vmlal.u8 q5, d16, d28 ;mul_res = vmlal_u8(src[0_4], 205 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 228 vmlal.u8 q10, d13, d28 251 vmlal.u8 q5, d12, d28 ;mul_res = vmlal_u8(src[0_4], 275 vmlal.u8 q11, d13, d28 307 vmlal.u8 q4, d12, d28 ;mul_res = vmlal_u8(src[0_4], 386 vmlal.u8 q4, d4, d28
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
vpx_convolve8_avg_vert_filter_type1_neon.asm.S | 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 107 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 135 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 155 vmlsl.u8 q6, d16, d28 174 vmlsl.u8 q7, d17, d28 207 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 235 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 258 vmlsl.u8 q6, d16, d28 278 vmlsl.u8 q7, d17, d28 303 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm.S | 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 136 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 156 vmlal.u8 q6, d16, d28 175 vmlal.u8 q7, d17, d28 208 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 236 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 259 vmlal.u8 q6, d16, d28 278 vmlal.u8 q7, d17, d28 303 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type1_neon.asm.S | 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 108 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 135 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 153 vmlsl.u8 q6, d16, d28 171 vmlsl.u8 q7, d17, d28 202 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 228 vmlsl.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 248 vmlsl.u8 q6, d16, d28 266 vmlsl.u8 q7, d17, d28 289 vmlsl.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type2_neon.asm.S | 67 vdup.u8 d28, d0[6] @coeffabs_6 = vdup_lane_u8(coeffabs, 108 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 135 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 154 vmlal.u8 q6, d16, d28 172 vmlal.u8 q7, d17, d28 203 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1, 229 vmlal.u8 q5, d7, d28 @mul_res2 = vmlal_u8(mul_res2, 249 vmlal.u8 q6, d16, d28 267 vmlal.u8 q7, d17, d28 289 vmlal.u8 q4, d6, d28 @mul_res1 = vmlal_u8(mul_res1 [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 254 vmlsl.s16 q9, d28, d24 287 vmlsl.s16 q9, d28, d24 289 vqrshrun.s16 d28, q4, #5 308 vrhadd.u8 d28, d28, d18 314 vst1.32 d28, [r1], r3 @ store row 1 344 vaddl.s16 q9, d12, d28 484 vmlsl.s16 q9, d28, d24 516 vmlsl.s16 q9, d28, d24 518 vqrshrun.s16 d28, q4, # [all...] |
ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 194 vmlal.s16 q13, d0, d28 198 vmlal.s16 q11, d1, d28 216 vmlal.s16 q13, d18, d28 220 vmlal.s16 q11, d19, d28 271 vmlal.s16 q13, d2, d28 275 vmlal.s16 q11, d3, d28 293 vmlal.s16 q13, d18, d28 297 vmlal.s16 q11, d19, d28 375 vaddl.s16 q15, d28, d22 465 vaddl.s16 q15, d28, d2 [all...] |
/external/vixl/test/aarch32/ |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 392 {{F64, d31, d28, d30}, 393 "F64 d31 d28 d30", 432 {{F64, d28, d10, d8}, 433 "F64 d28 d10 d8", 437 {{F64, d8, d28, d11}, 438 "F64 d8 d28 d11", 477 {{F64, d28, d17, d14}, 478 "F64 d28 d17 d14", 507 {{F64, d6, d28, d7}, 508 "F64 d6 d28 d7" [all...] |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 392 {{F64, d31, d28, d30}, 393 "F64 d31 d28 d30", 432 {{F64, d28, d10, d8}, 433 "F64 d28 d10 d8", 437 {{F64, d8, d28, d11}, 438 "F64 d8 d28 d11", 477 {{F64, d28, d17, d14}, 478 "F64 d28 d17 d14", 507 {{F64, d6, d28, d7}, 508 "F64 d6 d28 d7" [all...] |
/external/boringssl/ios-arm/crypto/fipsmodule/ |
ghash-armv4.S | 418 veor d28,d26,d27 @ Karatsuba pre-processing 439 veor d28,d26,d27 @ Karatsuba pre-processing 487 vext.8 d16, d28, d28, #1 @ A1 490 vmull.p8 q1, d28, d2 @ E = A*B1 491 vext.8 d18, d28, d28, #2 @ A2 494 vmull.p8 q11, d28, d22 @ G = A*B2 495 vext.8 d20, d28, d28, #3 @ A [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
ghash-armv4.S | 409 veor d28,d26,d27 @ Karatsuba pre-processing 428 veor d28,d26,d27 @ Karatsuba pre-processing 476 vext.8 d16, d28, d28, #1 @ A1 479 vmull.p8 q1, d28, d2 @ E = A*B1 480 vext.8 d18, d28, d28, #2 @ A2 483 vmull.p8 q11, d28, d22 @ G = A*B2 484 vext.8 d20, d28, d28, #3 @ A [all...] |
/external/boringssl/src/crypto/curve25519/asm/ |
x25519-asm-arm.S | 267 vld1.8 {d28-d29},[r7,: 128]! 521 vld1.8 {d28-d29},[r2,: 128]! 551 vmlal.s32 q8,d28,d2 572 vmlal.s32 q7,d28,d1 589 vmlal.s32 q4,d28,d0 601 vmlal.s32 q8,d28,d20 617 vmlal.s32 q7,d28,d27 620 vld1.8 {d28-d29},[r2,: 128] 623 vmlal.s32 q8,d24,d28 625 vmlal.s32 q7,d23,d28 [all...] |