/external/vixl/test/aarch32/ |
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 447 {{F64, d27, d26, d30}, 448 "F64 d27 d26 d30", 592 {{F64, d17, d26, d0}, 593 "F64 d17 d26 d0", [all...] |
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
neon-shiftaccum-encoding.s | 72 vrsra.s8 d5, d26, #8 90 vrsra.s8 d26, #8 107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2] 124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2] 151 vsri.16 d26, d12, #16 186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
|
neont2-shiftaccum-encoding.s | 75 vrsra.s8 d5, d26, #8 93 vrsra.s8 d26, #8 110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53] 127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3] 154 vsri.16 d26, d12, #16 189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
|
/external/swiftshader/third_party/LLVM/test/MC/ARM/ |
neont2-pairwise-encoding.s | 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
/external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 72 vpmin.u8 d19, d26, d13 80 @ CHECK: vpmin.u8 d19, d26, d13 @ encoding: [0x4a,0xff,0x9d,0x3a] 92 vpmax.f32 d9, d26, d11 100 @ CHECK: vpmax.f32 d9, d26, d11 @ encoding: [0x0a,0xff,0x8b,0x9f]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
neon-shiftaccum-encoding.s | 72 vrsra.s8 d5, d26, #8 90 vrsra.s8 d26, #8 107 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x3a,0x53,0x88,0xf2] 124 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0x3a,0xa3,0xc8,0xf2] 151 vsri.16 d26, d12, #16 186 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0x1c,0xa4,0xd0,0xf3]
|
neont2-shiftaccum-encoding.s | 75 vrsra.s8 d5, d26, #8 93 vrsra.s8 d26, #8 110 @ CHECK: vrsra.s8 d5, d26, #8 @ encoding: [0x88,0xef,0x3a,0x53] 127 @ CHECK: vrsra.s8 d26, d26, #8 @ encoding: [0xc8,0xef,0x3a,0xa3] 154 vsri.16 d26, d12, #16 189 @ CHECK: vsri.16 d26, d12, #16 @ encoding: [0xd0,0xff,0x1c,0xa4]
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_chroma_mode2.s | 160 vrev64.8 d26,d10 185 vst2.8 {d26,d27},[r7],r5 226 vrev64.8 d26,d10 246 vst2.8 {d26,d27},[r7],r5
|
ihevc_inter_pred_filters_luma_vert.s | 141 vdup.u8 d26,d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 4)@ 172 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 193 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 213 vmlal.u8 q6,d6,d26 228 vmlal.u8 q7,d7,d26 259 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 284 vmlal.u8 q5,d5,d26 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_4)@ 309 vmlal.u8 q6,d6,d26 335 vmlal.u8 q7,d7,d26 357 vmlal.u8 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4) [all...] |
ihevc_intra_pred_chroma_horz.s | 208 @vmovl.u8 q13,d26 285 vdup.16 d26,d0[3] 289 vmovl.u8 q13,d26 329 vdup.8 d26,d0[3] 330 vmovl.u8 q13,d26
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve8_avg_vert_filter_type1_neon.asm | 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 94 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 145 vmlal.u8 q6, d6, d26 163 vmlal.u8 q7, d7, d26 195 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 222 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 245 vmlal.u8 q6, d6, d26 267 vmlal.u8 q7, d7, d26 292 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm | 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 123 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 146 vmlal.u8 q6, d6, d26 164 vmlal.u8 q7, d7, d26 196 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 223 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 246 vmlal.u8 q6, d6, d26 267 vmlal.u8 q7, d7, d26 292 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type1_neon.asm | 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 144 vmlal.u8 q6, d6, d26 160 vmlal.u8 q7, d7, d26 190 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 215 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 236 vmlal.u8 q6, d6, d26 255 vmlal.u8 q7, d7, d26 278 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type2_neon.asm | 56 vdup.u8 d26, d0[4] ;coeffabs_4 = vdup_lane_u8(coeffabs, 95 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 122 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 145 vmlal.u8 q6, d6, d26 161 vmlal.u8 q7, d7, d26 191 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1, 216 vmlal.u8 q5, d5, d26 ;mul_res2 = vmlal_u8(mul_res2, 237 vmlal.u8 q6, d6, d26 256 vmlal.u8 q7, d7, d26 278 vmlal.u8 q4, d4, d26 ;mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_avg_horiz_filter_type1_neon.asm | 51 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs, 116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], 203 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 225 vmlal.u8 q10, d5, d26 251 vmlal.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 274 vmlal.u8 q11, d5, d26 312 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 404 vmlal.u8 q4, d2, d26
|
vpx_convolve8_avg_horiz_filter_type2_neon.asm | 51 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs, 117 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 136 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], 204 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 226 vmlsl.u8 q10, d5, d26 252 vmlsl.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 275 vmlsl.u8 q11, d5, d26 313 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 405 vmlsl.u8 q4, d2, d26
|
vpx_convolve8_horiz_filter_type1_neon.asm | 50 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs, 116 vmlal.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 135 vmlal.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], 199 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 221 vmlal.u8 q10, d5, d26 245 vmlal.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 266 vmlal.u8 q11, d5, d26 300 vmlal.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 384 vmlal.u8 q4, d2, d26
|
vpx_convolve8_horiz_filter_type2_neon.asm | 51 vdup.8 d26, d2[2] ;coeffabs_2 = vdup_lane_u8(coeffabs, 116 vmlsl.u8 q4, d2, d26 ;mul_res = vmlsl_u8(src[0_2], 135 vmlsl.u8 q5, d14, d26 ;mul_res = vmlsl_u8(src[0_2], 199 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 221 vmlsl.u8 q10, d5, d26 245 vmlsl.u8 q5, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 266 vmlsl.u8 q11, d5, d26 300 vmlsl.u8 q4, d4, d26 ;mul_res = vmlsl_u8(src[0_2], 384 vmlsl.u8 q4, d2, d26
|
/external/libvpx/config/arm-neon/vpx_dsp/arm/ |
vpx_convolve8_avg_vert_filter_type1_neon.asm.S | 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 101 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 152 vmlal.u8 q6, d6, d26 170 vmlal.u8 q7, d7, d26 202 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 229 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 252 vmlal.u8 q6, d6, d26 274 vmlal.u8 q7, d7, d26 299 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_avg_vert_filter_type2_neon.asm.S | 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 130 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 153 vmlal.u8 q6, d6, d26 171 vmlal.u8 q7, d7, d26 203 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 230 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 253 vmlal.u8 q6, d6, d26 274 vmlal.u8 q7, d7, d26 299 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type1_neon.asm.S | 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 151 vmlal.u8 q6, d6, d26 167 vmlal.u8 q7, d7, d26 197 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 222 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 243 vmlal.u8 q6, d6, d26 262 vmlal.u8 q7, d7, d26 285 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1 [all...] |
vpx_convolve8_vert_filter_type2_neon.asm.S | 63 vdup.u8 d26, d0[4] @coeffabs_4 = vdup_lane_u8(coeffabs, 102 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 129 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 152 vmlal.u8 q6, d6, d26 168 vmlal.u8 q7, d7, d26 198 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1, 223 vmlal.u8 q5, d5, d26 @mul_res2 = vmlal_u8(mul_res2, 244 vmlal.u8 q6, d6, d26 263 vmlal.u8 q7, d7, d26 285 vmlal.u8 q4, d4, d26 @mul_res1 = vmlal_u8(mul_res1 [all...] |