/external/llvm/test/MC/AArch64/ |
neon-scalar-shift-imm.s | 29 urshr d20, d23, #31 31 // CHECK: urshr d20, d23, #31 // encoding: [0xf4,0x26,0x61,0x7f]
|
/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 75 vpmin.f32 d22, d23, d16 83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f] 89 vpmax.u8 d6, d23, d14 97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
|
eh-directive-vsave.s | 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
fp-armv8.s | 34 vcvtn.s32.f64 s6, d23 35 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xe7,0x3b,0xbd,0xfe] 51 vcvtn.u32.f64 s6, d23 52 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0x67,0x3b,0xbd,0xfe] 66 vselge.f64 d30, d31, d23 67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe]
|
thumb-fp-armv8.s | 37 vcvtn.s32.f64 s6, d23 38 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xbd,0xfe,0xe7,0x3b] 54 vcvtn.u32.f64 s6, d23 55 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0xbd,0xfe,0x67,0x3b] 69 vselge.f64 d30, d31, d23 70 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0x6f,0xfe,0xa7,0xeb]
|
neon-vst-encoding.s | 105 vst4.8 {d17, d19, d21, d23}, [r5:256] 106 vst4.16 {d17, d19, d21, d23}, [r7] 112 vst4.u8 {d17, d19, d21, d23}, [r5:256]! 113 vst4.u16 {d17, d19, d21, d23}, [r7]! 121 vst4.i32 {d17, d19, d21, d23}, [r9], r4 126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x45,0xf4] 127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4] 132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x45,0xf4] 133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4] 140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x49,0xf4 [all...] |
/system/core/libpixelflinger/ |
col32cb16blend_neon.S | 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels 111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_chroma_mode2.s | 152 vrev64.8 d23,d7 179 vst2.8 {d22,d23},[r14],r5 217 vrev64.8 d23,d7 241 vst2.8 {d22,d23},[r14],r5
|
ihevc_inter_pred_filters_luma_vert.s | 132 vdup.u8 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@ 158 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 176 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 201 vmull.u8 q6,d3,d23 216 vmull.u8 q7,d4,d23 241 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 267 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 292 vmull.u8 q6,d3,d23 319 vmull.u8 q7,d4,d23 347 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1) [all...] |
/system/core/debuggerd/arm/ |
crashglue.S | 43 fconstd d23, #23
|
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
vp9_convolve8_avg_neon.asm | 100 vmov d23, d21 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 168 vmov d20, d23
|
vp9_convolve8_neon.asm | 100 vmov d23, d21 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 157 vmov d20, d23
|
/external/libvpx/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance8x8_neon.asm | 67 vqrshrn.u16 d23, q7, #7 114 vmull.u8 q2, d23, d0 122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1]) 132 vqrshrn.u16 d23, q2, #7 145 vld1.u8 {d23}, [r0], r1 173 vsubl.u8 q5, d23, d1
|
sixtappredict16x16_neon.asm | 227 vld1.u8 {d23}, [lr], r2 ;load src data 243 vmlsl.u8 q4, d23, d4 250 vmlal.u8 q6, d23, d2 252 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 259 vmull.u8 q9, d23, d3 327 vext.8 d23, d10, d11, #1 338 vmlsl.u8 q9, d23, d1 349 vext.8 d23, d9, d10, #2 361 vmlal.u8 q8, d23, d2 417 vld1.u8 {d23}, [r0], r1 ;load src dat [all...] |
sixtappredict8x8_neon.asm | 148 vqrshrun.s16 d23, q8, #7 154 vst1.u8 {d23}, [lr]! 283 vmlsl.u8 q4, d23, d4 290 vmlal.u8 q6, d23, d2 292 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 299 vmull.u8 q9, d23, d3 420 vqrshrun.s16 d23, q8, #7 425 vst1.u8 {d23}, [r4], r5 448 vld1.u8 {d23}, [r0], r1 475 vmlsl.u8 q4, d23, d [all...] |
sixtappredict4x4_neon.asm | 149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] 180 vext.8 d31, d22, d23, #4 ;construct src_ptr[2] 190 vext.8 d31, d22, d23, #2 ;construct src_ptr[0] 198 vext.8 d31, d22, d23, #3 ;construct src_ptr[1] 209 vext.8 d23, d27, d28, #4 240 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1]) 378 vext.8 d23, d27, d28, #4 392 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_convolve8_avg_neon.asm | 100 vmov d23, d21 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 168 vmov d20, d23
|
vp9_convolve8_neon.asm | 100 vmov d23, d21 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 157 vmov d20, d23
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/ |
vp8_subpixelvariance8x8_neon.asm | 67 vqrshrn.u16 d23, q7, #7 114 vmull.u8 q2, d23, d0 122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1]) 132 vqrshrn.u16 d23, q2, #7 145 vld1.u8 {d23}, [r0], r1 173 vsubl.u8 q5, d23, d1
|
sixtappredict16x16_neon.asm | 227 vld1.u8 {d23}, [lr], r2 ;load src data 243 vmlsl.u8 q4, d23, d4 250 vmlal.u8 q6, d23, d2 252 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 259 vmull.u8 q9, d23, d3 327 vext.8 d23, d10, d11, #1 338 vmlsl.u8 q9, d23, d1 349 vext.8 d23, d9, d10, #2 361 vmlal.u8 q8, d23, d2 417 vld1.u8 {d23}, [r0], r1 ;load src dat [all...] |
sixtappredict8x8_neon.asm | 148 vqrshrun.s16 d23, q8, #7 154 vst1.u8 {d23}, [lr]! 283 vmlsl.u8 q4, d23, d4 290 vmlal.u8 q6, d23, d2 292 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5]) 299 vmull.u8 q9, d23, d3 420 vqrshrun.s16 d23, q8, #7 425 vst1.u8 {d23}, [r4], r5 448 vld1.u8 {d23}, [r0], r1 475 vmlsl.u8 q4, d23, d [all...] |
sixtappredict4x4_neon.asm | 149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3] 170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1] 180 vext.8 d31, d22, d23, #4 ;construct src_ptr[2] 190 vext.8 d31, d22, d23, #2 ;construct src_ptr[0] 198 vext.8 d31, d22, d23, #3 ;construct src_ptr[1] 209 vext.8 d23, d27, d28, #4 240 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1]) 378 vext.8 d23, d27, d28, #4 392 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
|
/hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/ |
vp9_convolve8_avg_neon.asm | 100 vmov d23, d21 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 168 vmov d20, d23
|
vp9_convolve8_neon.asm | 100 vmov d23, d21 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 157 vmov d20, d23
|
/external/chromium_org/third_party/boringssl/src/crypto/poly1305/ |
poly1305_arm_asm.S | 120 # qhasm: reg128 d23 403 # asm 2: vst1.8 {<5y12=d22-<5y12=d23},[<ptr=r1,: 128] 404 vst1.8 {d22-d23},[r1,: 128] 579 # asm 2: vld1.8 {>d01=d22->d01=d23},[<input_2=r1]! 580 vld1.8 {d22-d23},[r1]! 652 # qhasm: d23 = mem128[input_2];input_2+=16 653 # asm 1: vld1.8 {>d23=reg128#2%bot->d23=reg128#2%top},[<input_2=int32#2]! 654 # asm 2: vld1.8 {>d23=d2->d23=d3},[<input_2=r1] [all...] |