HomeSort by relevance Sort by last modified time
    Searched refs:d24 (Results 51 - 75 of 148) sorted by null

1 23 4 5 6

  /external/llvm/test/MC/ARM/
neon-shiftaccum-encoding.s 74 vrsra.s32 d7, d24, #32
92 vrsra.s32 d24, #32
109 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0x38,0x73,0xa0,0xf2]
126 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0x38,0x83,0xe0,0xf2]
152 vsri.32 d24, d13, #32
187 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0x1d,0x84,0xe0,0xf3]
neont2-shiftaccum-encoding.s 77 vrsra.s32 d7, d24, #32
95 vrsra.s32 d24, #32
112 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0xa0,0xef,0x38,0x73]
129 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0xe0,0xef,0x38,0x83]
155 vsri.32 d24, d13, #32
190 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0xe0,0xff,0x1d,0x84]
  /external/swiftshader/third_party/llvm-7.0/llvm/test/MC/ARM/
neon-shiftaccum-encoding.s 74 vrsra.s32 d7, d24, #32
92 vrsra.s32 d24, #32
109 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0x38,0x73,0xa0,0xf2]
126 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0x38,0x83,0xe0,0xf2]
152 vsri.32 d24, d13, #32
187 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0x1d,0x84,0xe0,0xf3]
neont2-shiftaccum-encoding.s 77 vrsra.s32 d7, d24, #32
95 vrsra.s32 d24, #32
112 @ CHECK: vrsra.s32 d7, d24, #32 @ encoding: [0xa0,0xef,0x38,0x73]
129 @ CHECK: vrsra.s32 d24, d24, #32 @ encoding: [0xe0,0xef,0x38,0x83]
155 vsri.32 d24, d13, #32
190 @ CHECK: vsri.32 d24, d13, #32 @ encoding: [0xe0,0xff,0x1d,0x84]
  /external/libvpx/libvpx/vpx_dsp/arm/
vpx_convolve8_avg_horiz_filter_type1_neon.asm 45 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs,
113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
153 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
197 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
220 vmlsl.u8 q10, d1, d24
243 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
271 vmlsl.u8 q11, d1, d24
301 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
403 vmlsl.u8 q4, d0, d24
vpx_convolve8_avg_horiz_filter_type2_neon.asm 45 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs,
114 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
154 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
198 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
221 vmlsl.u8 q10, d1, d24
244 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
272 vmlsl.u8 q11, d1, d24
302 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
404 vmlsl.u8 q4, d0, d24
vpx_convolve8_horiz_filter_type1_neon.asm 44 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs,
113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
193 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
216 vmlsl.u8 q10, d1, d24
238 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
262 vmlsl.u8 q11, d1, d24
293 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
383 vmlsl.u8 q4, d0, d24
vpx_convolve8_horiz_filter_type2_neon.asm 45 vdup.8 d24, d2[0] ;coeffabs_0 = vdup_lane_u8(coeffabs,
113 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
150 vmlsl.u8 q5, d12, d24 ;mul_res = vmlsl_u8(src[0_0],
193 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
216 vmlsl.u8 q10, d1, d24
238 vmlsl.u8 q5, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
262 vmlsl.u8 q11, d1, d24
293 vmlsl.u8 q4, d0, d24 ;mul_res = vmlsl_u8(src[0_0],
383 vmlsl.u8 q4, d0, d24
  /external/vixl/test/aarch32/
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc 457 {{F64, d3, d19, d24},
458 "F64 d3 d19 d24",
482 {{F64, d1, d5, d24},
483 "F64 d1 d5 d24",
562 {{F64, d14, d18, d24},
563 "F64 d14 d18 d24",
577 {{F64, d29, d27, d24},
578 "F64 d29 d27 d24",
602 {{F64, d0, d3, d24},
603 "F64 d0 d3 d24",
    [all...]
test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc 457 {{F64, d3, d19, d24},
458 "F64 d3 d19 d24",
482 {{F64, d1, d5, d24},
483 "F64 d1 d5 d24",
562 {{F64, d14, d18, d24},
563 "F64 d14 d18 d24",
577 {{F64, d29, d27, d24},
578 "F64 d29 d27 d24",
602 {{F64, d0, d3, d24},
603 "F64 d0 d3 d24",
    [all...]
  /external/libhevc/common/arm/
ihevc_intra_pred_filters_chroma_mode_11_to_17.s 332 vrshrn.i16 d24, q12, #5 @round shft (row 0)
342 vst1.8 d24, [r2], r3 @st (row 0)
378 vrshrn.i16 d24, q12, #5 @round shft (row 4)
388 vst1.8 d24, [r2], r3 @st (row 4)
462 vst1.8 d24, [r5], r3 @st (row 4)
463 vrshrn.i16 d24, q11, #5 @round shft (row 5)
491 vst1.8 d24, [r5], r3 @(from previous loop)st (row 5)
518 vrshrn.i16 d24, q12, #5 @round shft (row 0)
534 vst1.8 d24, [r2], r3 @st (row 0)
579 vrshrn.i16 d24, q12, #5 @round shft (row 4
    [all...]
ihevc_intra_pred_luma_mode_3_to_9.s 220 vrshrn.i16 d24, q12, #5 @round shft (row 0)
230 vst1.8 d24, [r2], r3 @st (row 0)
264 vrshrn.i16 d24, q12, #5 @round shft (row 4)
274 vst1.8 d24, [r2], r3 @st (row 4)
342 vst1.8 d24, [r5], r3 @st (row 4)
390 vrshrn.i16 d24, q12, #5 @round shft (row 0)
405 vst1.8 d24, [r2], r3 @st (row 0)
448 vrshrn.i16 d24, q12, #5 @round shft (row 4)
467 vst1.8 d24, [r5], r3 @st (row 4)
468 vrshrn.i16 d24, q11, #5 @round shft (row 5
    [all...]
ihevc_inter_pred_chroma_vert.s 293 vqrshrun.s16 d24,q12,#6
300 vst1.8 {d24},[r7],r3 @stores the loaded value
354 vqrshrun.s16 d24,q12,#6
361 vst1.8 {d24},[r7],r3 @stores the loaded value
383 vqrshrun.s16 d24,q12,#6
384 vst1.8 {d24},[r7],r3 @stores the loaded value
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 243 vqshrn.s32 d24,q12,#6 @right shift
260 vst1.32 {d24},[r9] @stores the loaded value
293 vqshrn.s32 d24,q12,#6 @right shift
312 vst1.32 {d24},[r9] @stores the loaded value
325 vqshrn.s32 d24,q12,#6 @right shift
328 vst1.32 {d24},[r9] @stores the loaded value
ihevc_inter_pred_filters_luma_horz.s 143 vdup.8 d24,d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)
225 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
249 vmlsl.u8 q5,d12,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
307 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
323 vmlsl.u8 q10,d1,d24
356 vmlsl.u8 q5,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
375 vmlsl.u8 q11,d1,d24
407 vmlsl.u8 q4,d0,d24 @mul_res = vmlsl_u8(src[0_0], coeffabs_0)@
516 vmlsl.u8 q4,d0,d24
ihevc_deblk_luma_vert.s 119 vld1.8 {d24},[r7],r1
128 vtrn.8 d24,d1
135 vtrn.16 d24,d2
147 vdup.32 d4,d24[1]
402 vdup.32 d7,d24[0]
438 vmov.i8 d24,#0x1
496 vaddw.u8 q8,q8,d24
554 vaddw.u8 q1,q1,d24
ihevc_intra_pred_chroma_mode_27_to_33.s 219 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
222 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
296 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
301 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
360 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
364 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract)
439 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
440 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract)
  /external/boringssl/src/crypto/curve25519/asm/
x25519-asm-arm.S 107 vld1.8 {d24},[r2]
263 vld1.8 {d24-d25},[r5,: 128]!
516 vld1.8 {d24},[r2,: 64]
532 vtrn.32 d24,d25
554 vmlal.s32 q8,d24,d6
564 vmlal.s32 q2,d24,d0
596 vmlal.s32 q7,d24,d21
602 vmlal.s32 q5,d24,d20
621 vmlal.s32 q4,d24,d29
623 vmlal.s32 q8,d24,d2
    [all...]
  /external/capstone/suite/MC/ARM/
neont2-pairwise-encoding.s.cs 35 0x68,0xff,0x9f,0x5a = vpmin.u32 d21, d24, d15 package
41 0x18,0xff,0x8d,0x7a = vpmax.u16 d7, d24, d13 package
  /external/libavc/common/arm/
ih264_inter_pred_luma_horz_qpel_a9q.s 197 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
203 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
233 vext.8 d24, d5, d6, #3 @//extract a[3] (column1,row1)
238 vmlal.u8 q7, d24, d1 @// a0 + a5 + 20a2 + 20a3 (column1,row1)
  /external/libmpeg2/common/arm/
icv_variance_a9.s 96 vaddl.u16 q12, d24, d25
  /external/libvpx/config/arm-neon/vpx_dsp/arm/
vpx_convolve8_avg_horiz_filter_type1_neon.asm.S 52 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs,
120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
160 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
204 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
227 vmlsl.u8 q10, d1, d24
250 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0],
278 vmlsl.u8 q11, d1, d24
308 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
410 vmlsl.u8 q4, d0, d24
vpx_convolve8_avg_horiz_filter_type2_neon.asm.S 52 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs,
121 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
161 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
205 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
228 vmlsl.u8 q10, d1, d24
251 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0],
279 vmlsl.u8 q11, d1, d24
309 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
411 vmlsl.u8 q4, d0, d24
vpx_convolve8_horiz_filter_type1_neon.asm.S 51 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs,
120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
200 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
223 vmlsl.u8 q10, d1, d24
245 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0],
269 vmlsl.u8 q11, d1, d24
300 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
390 vmlsl.u8 q4, d0, d24
vpx_convolve8_horiz_filter_type2_neon.asm.S 52 vdup.8 d24, d2[0] @coeffabs_0 = vdup_lane_u8(coeffabs,
120 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
157 vmlsl.u8 q5, d12, d24 @mul_res = vmlsl_u8(src[0_0],
200 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
223 vmlsl.u8 q10, d1, d24
245 vmlsl.u8 q5, d0, d24 @mul_res = vmlsl_u8(src[0_0],
269 vmlsl.u8 q11, d1, d24
300 vmlsl.u8 q4, d0, d24 @mul_res = vmlsl_u8(src[0_0],
390 vmlsl.u8 q4, d0, d24

Completed in 1759 milliseconds

1 23 4 5 6