/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_vert_filter_type1_neon.asm | 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs, 97 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 147 vmlal.u8 q6, d7, d27 165 vmlal.u8 q7, d16, d27 198 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 225 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 248 vmlal.u8 q6, d7, d27 269 vmlal.u8 q7, d16, d27 294 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm | 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs, 98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 126 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 148 vmlsl.u8 q6, d7, d27 166 vmlsl.u8 q7, d16, d27 199 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 226 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 249 vmlsl.u8 q6, d7, d27 269 vmlsl.u8 q7, d16, d27 294 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type1_neon.asm | 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs, 98 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 125 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 145 vmlal.u8 q6, d7, d27 162 vmlal.u8 q7, d16, d27 193 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 218 vmlal.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 239 vmlal.u8 q6, d7, d27 257 vmlal.u8 q7, d16, d27 280 vmlal.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type2_neon.asm | 58 vdup.u8 d27, d0[5] ;coeffabs_5 = vdup_lane_u8(coeffabs, 98 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 125 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 146 vmlsl.u8 q6, d7, d27 163 vmlsl.u8 q7, d16, d27 194 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1, 219 vmlsl.u8 q5, d6, d27 ;mul_res2 = vmlsl_u8(mul_res2, 240 vmlsl.u8 q6, d7, d27 258 vmlsl.u8 q7, d16, d27 280 vmlsl.u8 q4, d5, d27 ;mul_res1 = vmlsl_u8(mul_res1 [all...] |
vpx_convolve8_avg_horiz_filter_type1_neon.asm | 54 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs, 110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 206 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 229 vmlal.u8 q10, d7, d27 254 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3], 280 vmlal.u8 q11, d7, d27 319 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 405 vmlal.u8 q4, d3, d27
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm | 54 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs, 111 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 133 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 207 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 230 vmlal.u8 q10, d7, d27 255 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3], 281 vmlal.u8 q11, d7, d27 320 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 406 vmlal.u8 q4, d3, d27
|
vpx_convolve8_horiz_filter_type1_neon.asm | 53 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs, 110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 202 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 225 vmlal.u8 q10, d7, d27 247 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3], 272 vmlal.u8 q11, d7, d27 304 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 385 vmlal.u8 q4, d3, d27
|
vpx_convolve8_horiz_filter_type2_neon.asm | 54 vdup.8 d27, d2[3] ;coeffabs_3 = vdup_lane_u8(coeffabs, 110 vmlal.u8 q4, d3, d27 ;mul_res = vmull_u8(src[0_3], 132 vmlal.u8 q5, d15, d27 ;mul_res = vmull_u8(src[0_3], 202 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 225 vmlal.u8 q10, d7, d27 247 vmlal.u8 q5, d6, d27 ;mul_res = vmull_u8(src[0_3], 272 vmlal.u8 q11, d7, d27 304 vmlal.u8 q4, d6, d27 ;mul_res = vmull_u8(src[0_3], 385 vmlal.u8 q4, d3, d27
|
loopfilter_16_neon.asm | 101 vst1.u8 {d27}, [r8@64], r1 ; store op2 264 vtrn.32 d16, d27 271 vtrn.16 d27, d19 275 vtrn.8 d26, d27 303 vst1.8 {d27}, [r8@64], r1 398 vabd.u8 d27, d4, d7 ; abs(p3 - p0) 403 vmax.u8 d26, d27, d28 ; max(abs(p3 - p0), abs(q3 - q0)) 431 vabd.u8 d27, d14, d8 ; abs(q6 - q0) 438 vmax.u8 d24, d26, d27 ; max(abs(p6 - p0), abs(q6 - q0)) 442 vmax.u8 d27, d24, d2 [all...] |
/external/boringssl/ios-arm/crypto/fipsmodule/ |
ghash-armv4.S | 412 vldmia r1,{d26,d27} @ load twisted H 418 veor d28,d26,d27 @ Karatsuba pre-processing 433 vldmia r1,{d26,d27} @ load twisted H 439 veor d28,d26,d27 @ Karatsuba pre-processing 524 vext.8 d16, d27, d27, #1 @ A1 527 vmull.p8 q2, d27, d4 @ E = A*B1 528 vext.8 d18, d27, d27, #2 @ A2 531 vmull.p8 q11, d27, d22 @ G = A*B [all...] |
/external/boringssl/linux-arm/crypto/fipsmodule/ |
ghash-armv4.S | 403 vldmia r1,{d26,d27} @ load twisted H 409 veor d28,d26,d27 @ Karatsuba pre-processing 422 vldmia r1,{d26,d27} @ load twisted H 428 veor d28,d26,d27 @ Karatsuba pre-processing 513 vext.8 d16, d27, d27, #1 @ A1 516 vmull.p8 q2, d27, d4 @ E = A*B1 517 vext.8 d18, d27, d27, #2 @ A2 520 vmull.p8 q11, d27, d22 @ G = A*B [all...] |
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
vpx_convolve8_avg_vert_filter_type1_neon.asm.S | 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 104 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 154 vmlal.u8 q6, d7, d27 172 vmlal.u8 q7, d16, d27 205 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 232 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 255 vmlal.u8 q6, d7, d27 276 vmlal.u8 q7, d16, d27 301 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm.S | 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 105 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 133 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 155 vmlsl.u8 q6, d7, d27 173 vmlsl.u8 q7, d16, d27 206 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 233 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 256 vmlsl.u8 q6, d7, d27 276 vmlsl.u8 q7, d16, d27 301 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type1_neon.asm.S | 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 105 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 132 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 152 vmlal.u8 q6, d7, d27 169 vmlal.u8 q7, d16, d27 200 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 225 vmlal.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 246 vmlal.u8 q6, d7, d27 264 vmlal.u8 q7, d16, d27 287 vmlal.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type2_neon.asm.S | 65 vdup.u8 d27, d0[5] @coeffabs_5 = vdup_lane_u8(coeffabs, 105 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 132 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 153 vmlsl.u8 q6, d7, d27 170 vmlsl.u8 q7, d16, d27 201 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1, 226 vmlsl.u8 q5, d6, d27 @mul_res2 = vmlsl_u8(mul_res2, 247 vmlsl.u8 q6, d7, d27 265 vmlsl.u8 q7, d16, d27 287 vmlsl.u8 q4, d5, d27 @mul_res1 = vmlsl_u8(mul_res1 [all...] |
loopfilter_16_neon.asm.S | 111 vst1.u8 {d27}, [r8,:64], r1 @ store op2 277 vtrn.32 d16, d27 284 vtrn.16 d27, d19 288 vtrn.8 d26, d27 316 vst1.8 {d27}, [r8,:64], r1 414 vabd.u8 d27, d4, d7 @ abs(p3 - p0) 419 vmax.u8 d26, d27, d28 @ max(abs(p3 - p0), abs(q3 - q0)) 447 vabd.u8 d27, d14, d8 @ abs(q6 - q0) 454 vmax.u8 d24, d26, d27 @ max(abs(p6 - p0), abs(q6 - q0)) 458 vmax.u8 d27, d24, d2 [all...] |
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S | 61 vdup.8 d27, d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 117 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3], 139 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3], 213 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3], 236 vmlal.u8 q10, d7, d27 261 vmlal.u8 q5, d6, d27 @mul_res = vmull_u8(src[0_3], 287 vmlal.u8 q11, d7, d27 326 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3], 412 vmlal.u8 q4, d3, d27
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S | 61 vdup.8 d27, d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 118 vmlal.u8 q4, d3, d27 @mul_res = vmull_u8(src[0_3], 140 vmlal.u8 q5, d15, d27 @mul_res = vmull_u8(src[0_3], 214 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3], 237 vmlal.u8 q10, d7, d27 262 vmlal.u8 q5, d6, d27 @mul_res = vmull_u8(src[0_3], 288 vmlal.u8 q11, d7, d27 327 vmlal.u8 q4, d6, d27 @mul_res = vmull_u8(src[0_3], 413 vmlal.u8 q4, d3, d27
|
/external/vixl/test/aarch32/ |
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"}, 147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"}, 151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"}, 169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"}, 175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"} [all...] |
test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 115 {{F64, d1, d27, d15}, false, al, "F64 d1 d27 d15", "F64_d1_d27_d15"}, 147 {{F64, d10, d26, d27}, false, al, "F64 d10 d26 d27", "F64_d10_d26_d27"}, 151 {{F32, d14, d5, d27}, false, al, "F32 d14 d5 d27", "F32_d14_d5_d27"}, 169 {{F64, d27, d11, d2}, false, al, "F64 d27 d11 d2", "F64_d27_d11_d2"}, 175 {{F32, d27, d19, d10}, false, al, "F32 d27 d19 d10", "F32_d27_d19_d10"} [all...] |
/external/libhevc/common/arm/ |
ihevc_deblk_luma_horz.s | 129 vdup.32 d27,r9 @ 1value 209 vaddw.u8 q4,q3,d27 211 vqadd.u8 d16,d27,d1 217 vqsub.u8 d17,d27,d1 289 vaddl.u8 q5,d23,d27 428 @ vdup.32 d27,r11 @ 1value 444 vsubl.u8 q6,d27,d24 527 vmov d18, d27 532 vsubl.u8 q7,d14,d27 538 vmovl.u8 q8,d27 [all...] |
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 296 vdup.8 d27,d4[2] @(iii) 311 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 319 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 341 vdup.8 d27,d4[6] @(vii) 373 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract) 379 vmlal.u8 q9,d17,d27 @(vii)vmull_u8(ref_main_idx_1, dup_const_fract) 435 vdup.8 d27,d4[2] @(iii) 452 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract) 458 vmlal.u8 q9,d17,d27 @(iii)vmull_u8(ref_main_idx_1, dup_const_fract) 475 vdup.8 d27,d4[6] @(vii [all...] |
ihevc_inter_pred_filters_luma_horz.s | 149 vdup.8 d27,d2[3] @coeffabs_3 = vdup_lane_u8(coeffabs, 3) 223 vmlal.u8 q4,d3,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 238 vmull.u8 q5,d15,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 305 vmlal.u8 q4,d6,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 326 vmlal.u8 q10,d7,d27 350 vmlal.u8 q5,d6,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 378 vmlal.u8 q11,d7,d27 405 vmlal.u8 q4,d6,d27 @mul_res = vmull_u8(src[0_3], coeffabs_3)@ 518 vmlal.u8 q4,d3,d27
|
/external/boringssl/src/crypto/curve25519/asm/ |
x25519-asm-arm.S | 265 vld1.8 {d26-d27},[r6,: 128]! 519 vld1.8 {d26-d27},[r2,: 128]! 549 vmlal.s32 q8,d27,d3 570 vmlal.s32 q7,d27,d2 587 vmlal.s32 q4,d27,d1 593 vmlal.s32 q8,d27,d0 611 vmlal.s32 q7,d27,d20 613 vld1.8 {d26-d27},[r2,: 128] 614 vmlal.s32 q4,d25,d27 615 vmlal.s32 q8,d29,d27 [all...] |
/external/libmpeg2/common/arm/ |
icv_variance_a9.s | 97 vaddl.u16 q13, d26, d27
|