HomeSort by relevance Sort by last modified time
    Searched refs:d23 (Results 26 - 50 of 139) sorted by null

12 3 4 5 6

  /external/llvm/test/MC/AArch64/
neon-scalar-shift-imm.s 29 urshr d20, d23, #31
31 // CHECK: urshr d20, d23, #31 // encoding: [0xf4,0x26,0x61,0x7f]
  /external/llvm/test/MC/ARM/
neont2-pairwise-encoding.s 75 vpmin.f32 d22, d23, d16
83 @ CHECK: vpmin.f32 d22, d23, d16 @ encoding: [0x67,0xff,0xa0,0x6f]
89 vpmax.u8 d6, d23, d14
97 @ CHECK: vpmax.u8 d6, d23, d14 @ encoding: [0x07,0xff,0x8e,0x6a]
eh-directive-vsave.s 116 .vsave {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
117 vpush {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
118 vpop {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
fp-armv8.s 34 vcvtn.s32.f64 s6, d23
35 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xe7,0x3b,0xbd,0xfe]
51 vcvtn.u32.f64 s6, d23
52 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0x67,0x3b,0xbd,0xfe]
66 vselge.f64 d30, d31, d23
67 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0xa7,0xeb,0x6f,0xfe]
thumb-fp-armv8.s 37 vcvtn.s32.f64 s6, d23
38 @ CHECK: vcvtn.s32.f64 s6, d23 @ encoding: [0xbd,0xfe,0xe7,0x3b]
54 vcvtn.u32.f64 s6, d23
55 @ CHECK: vcvtn.u32.f64 s6, d23 @ encoding: [0xbd,0xfe,0x67,0x3b]
69 vselge.f64 d30, d31, d23
70 @ CHECK: vselge.f64 d30, d31, d23 @ encoding: [0x6f,0xfe,0xa7,0xeb]
neon-vst-encoding.s 105 vst4.8 {d17, d19, d21, d23}, [r5:256]
106 vst4.16 {d17, d19, d21, d23}, [r7]
112 vst4.u8 {d17, d19, d21, d23}, [r5:256]!
113 vst4.u16 {d17, d19, d21, d23}, [r7]!
121 vst4.i32 {d17, d19, d21, d23}, [r9], r4
126 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256] @ encoding: [0x3f,0x11,0x45,0xf4]
127 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7] @ encoding: [0x4f,0x11,0x47,0xf4]
132 @ CHECK: vst4.8 {d17, d19, d21, d23}, [r5:256]! @ encoding: [0x3d,0x11,0x45,0xf4]
133 @ CHECK: vst4.16 {d17, d19, d21, d23}, [r7]! @ encoding: [0x4d,0x11,0x47,0xf4]
140 @ CHECK: vst4.32 {d17, d19, d21, d23}, [r9], r4 @ encoding: [0x84,0x11,0x49,0xf4
    [all...]
  /system/core/libpixelflinger/
col32cb16blend_neon.S 77 vld1.16 {d20, d21, d22, d23}, [r0] // load 16 dest pixels
111 vst1.16 {d20, d21, d22, d23}, [r0]! // write 16 pixels back to dst
  /external/libhevc/common/arm/
ihevc_intra_pred_chroma_mode2.s 152 vrev64.8 d23,d7
179 vst2.8 {d22,d23},[r14],r5
217 vrev64.8 d23,d7
241 vst2.8 {d22,d23},[r14],r5
ihevc_inter_pred_filters_luma_vert.s 132 vdup.u8 d23,d0[1] @coeffabs_1 = vdup_lane_u8(coeffabs, 1)@
158 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
176 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
201 vmull.u8 q6,d3,d23
216 vmull.u8 q7,d4,d23
241 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
267 vmull.u8 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
292 vmull.u8 q6,d3,d23
319 vmull.u8 q7,d4,d23
347 vmull.u8 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)
    [all...]
  /system/core/debuggerd/arm/
crashglue.S 43 fconstd d23, #23
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_convolve8_avg_neon.asm 100 vmov d23, d21
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
168 vmov d20, d23
vp9_convolve8_neon.asm 100 vmov d23, d21
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
157 vmov d20, d23
  /external/libvpx/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance8x8_neon.asm 67 vqrshrn.u16 d23, q7, #7
114 vmull.u8 q2, d23, d0
122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1])
132 vqrshrn.u16 d23, q2, #7
145 vld1.u8 {d23}, [r0], r1
173 vsubl.u8 q5, d23, d1
sixtappredict16x16_neon.asm 227 vld1.u8 {d23}, [lr], r2 ;load src data
243 vmlsl.u8 q4, d23, d4
250 vmlal.u8 q6, d23, d2
252 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
259 vmull.u8 q9, d23, d3
327 vext.8 d23, d10, d11, #1
338 vmlsl.u8 q9, d23, d1
349 vext.8 d23, d9, d10, #2
361 vmlal.u8 q8, d23, d2
417 vld1.u8 {d23}, [r0], r1 ;load src dat
    [all...]
sixtappredict8x8_neon.asm 148 vqrshrun.s16 d23, q8, #7
154 vst1.u8 {d23}, [lr]!
283 vmlsl.u8 q4, d23, d4
290 vmlal.u8 q6, d23, d2
292 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
299 vmull.u8 q9, d23, d3
420 vqrshrun.s16 d23, q8, #7
425 vst1.u8 {d23}, [r4], r5
448 vld1.u8 {d23}, [r0], r1
475 vmlsl.u8 q4, d23, d
    [all...]
sixtappredict4x4_neon.asm 149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3]
170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1]
180 vext.8 d31, d22, d23, #4 ;construct src_ptr[2]
190 vext.8 d31, d22, d23, #2 ;construct src_ptr[0]
198 vext.8 d31, d22, d23, #3 ;construct src_ptr[1]
209 vext.8 d23, d27, d28, #4
240 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
378 vext.8 d23, d27, d28, #4
392 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_convolve8_avg_neon.asm 100 vmov d23, d21
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
168 vmov d20, d23
vp9_convolve8_neon.asm 100 vmov d23, d21
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
157 vmov d20, d23
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance8x8_neon.asm 67 vqrshrn.u16 d23, q7, #7
114 vmull.u8 q2, d23, d0
122 vmlal.u8 q1, d23, d1 ;(src_ptr[pixel_step] * Filter[1])
132 vqrshrn.u16 d23, q2, #7
145 vld1.u8 {d23}, [r0], r1
173 vsubl.u8 q5, d23, d1
sixtappredict16x16_neon.asm 227 vld1.u8 {d23}, [lr], r2 ;load src data
243 vmlsl.u8 q4, d23, d4
250 vmlal.u8 q6, d23, d2
252 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
259 vmull.u8 q9, d23, d3
327 vext.8 d23, d10, d11, #1
338 vmlsl.u8 q9, d23, d1
349 vext.8 d23, d9, d10, #2
361 vmlal.u8 q8, d23, d2
417 vld1.u8 {d23}, [r0], r1 ;load src dat
    [all...]
sixtappredict8x8_neon.asm 148 vqrshrun.s16 d23, q8, #7
154 vst1.u8 {d23}, [lr]!
283 vmlsl.u8 q4, d23, d4
290 vmlal.u8 q6, d23, d2
292 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
299 vmull.u8 q9, d23, d3
420 vqrshrun.s16 d23, q8, #7
425 vst1.u8 {d23}, [r4], r5
448 vld1.u8 {d23}, [r0], r1
475 vmlsl.u8 q4, d23, d
    [all...]
sixtappredict4x4_neon.asm 149 vext.8 d31, d22, d23, #5 ;construct src_ptr[3]
170 vext.8 d31, d22, d23, #1 ;construct src_ptr[-1]
180 vext.8 d31, d22, d23, #4 ;construct src_ptr[2]
190 vext.8 d31, d22, d23, #2 ;construct src_ptr[0]
198 vext.8 d31, d22, d23, #3 ;construct src_ptr[1]
209 vext.8 d23, d27, d28, #4
240 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
378 vext.8 d23, d27, d28, #4
392 vmlsl.u8 q5, d23, d1 ;-(src_ptr[-1] * vp8_filter[1])
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_convolve8_avg_neon.asm 100 vmov d23, d21
137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
168 vmov d20, d23
vp9_convolve8_neon.asm 100 vmov d23, d21
129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24
130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26
131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27
132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25
157 vmov d20, d23
  /external/chromium_org/third_party/boringssl/src/crypto/poly1305/
poly1305_arm_asm.S 120 # qhasm: reg128 d23
403 # asm 2: vst1.8 {<5y12=d22-<5y12=d23},[<ptr=r1,: 128]
404 vst1.8 {d22-d23},[r1,: 128]
579 # asm 2: vld1.8 {>d01=d22->d01=d23},[<input_2=r1]!
580 vld1.8 {d22-d23},[r1]!
652 # qhasm: d23 = mem128[input_2];input_2+=16
653 # asm 1: vld1.8 {>d23=reg128#2%bot->d23=reg128#2%top},[<input_2=int32#2]!
654 # asm 2: vld1.8 {>d23=d2->d23=d3},[<input_2=r1]
    [all...]

Completed in 340 milliseconds

12 3 4 5 6