HomeSort by relevance Sort by last modified time
    Searched refs:vsub (Results 26 - 50 of 85) sorted by null

12 3 4

  /external/libhevc/common/arm/
ihevc_deblk_chroma_horz.s 92 vsub.i16 q3,q0,q1
108 vsub.i16 q3,q2,q8
136 vsub.i16 q0,q0,q2
ihevc_intra_pred_chroma_mode_27_to_33.s 171 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
182 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
196 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
215 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
232 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
249 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
262 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
292 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
309 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
324 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract
    [all...]
ihevc_intra_pred_filters_chroma_mode_19_to_25.s 280 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
290 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
304 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
323 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
338 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
354 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
370 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
401 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
418 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
435 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract
    [all...]
ihevc_intra_pred_filters_luma_mode_19_to_25.s 283 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
293 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
307 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
325 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
340 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
356 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
369 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
398 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
415 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
432 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract
    [all...]
ihevc_intra_pred_luma_mode_27_to_33.s 174 vsub.u8 d30,d1,d31 @32-fract(dup_const_32_fract)
185 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract)
199 vsub.u8 d26,d1,d27 @(iii)32-fract(dup_const_32_fract)
217 vsub.u8 d24,d1,d25 @(iv)32-fract(dup_const_32_fract)
234 vsub.u8 d30,d1,d31 @(v)32-fract(dup_const_32_fract)
251 vsub.u8 d28,d1,d29 @(vi)32-fract(dup_const_32_fract)
264 vsub.u8 d26,d1,d27 @(vii)32-fract(dup_const_32_fract)
293 vsub.u8 d24,d1,d25 @(viii)32-fract(dup_const_32_fract)
310 vsub.u8 d30,d1,d31 @(i)32-fract(dup_const_32_fract)
325 vsub.u8 d28,d1,d29 @(ii)32-fract(dup_const_32_fract
    [all...]
ihevc_intra_pred_chroma_planar.s 171 vsub.s8 d30, d2, d8 @[nt-1-col]
172 vsub.s8 d31, d2, d9
197 vsub.s8 d19, d6, d7 @[nt-1-row]--
217 vsub.s8 d6, d19, d7 @[nt-1-row]--
239 vsub.s8 d19, d6, d7 @[nt-1-row]--
264 vsub.s8 d6, d19, d7 @[nt-1-row]--
319 vsub.s8 d30, d2, d8 @[nt-1-col]
320 vsub.s8 d31, d2, d9
336 vsub.s8 d9, d2, d8 @[nt-1-col]
350 vsub.s8 d6, d6, d7 @[nt-1-row]-
    [all...]
ihevc_itrans_recon_4x4.s 165 vsub.s32 q9,q6,q4 @((e[1] - o[1])
166 vsub.s32 q10,q5,q3 @((e[0] - o[0])
196 vsub.s32 q9,q6,q4 @((e[1] - o[1])
197 vsub.s32 q10,q5,q3 @((e[0] - o[0])
ihevc_inter_pred_luma_vert_w16inp_w16out.s 187 vsub.s32 q4, q4, q15
201 vsub.s32 q5, q5, q15
220 vsub.s32 q6, q6, q15
245 vsub.s32 q7, q7, q15
263 vsub.s32 q4, q4, q15
290 vsub.s32 q5, q5, q15
311 vsub.s32 q6, q6, q15
332 vsub.s32 q7, q7, q15
347 vsub.s32 q4, q4, q15
361 vsub.s32 q5, q5, q1
    [all...]
ihevc_itrans_recon_16x16.s 371 vsub.s32 q11,q6,q12
374 vsub.s32 q12,q7,q13
377 vsub.s32 q13,q8,q14
381 vsub.s32 q14,q9,q15
543 vsub.s32 q11,q11,q12
546 vsub.s32 q12,q10,q13
549 vsub.s32 q13,q8,q14
553 vsub.s32 q14,q9,q15
829 vsub.s32 q11,q6,q12
832 vsub.s32 q12,q7,q1
    [all...]
ihevc_itrans_recon_32x32.s 485 vsub.s32 q5,q10,q12
488 vsub.s32 q12,q11,q13
491 vsub.s32 q13,q8,q14
495 vsub.s32 q14,q9,q15
824 vsub.s32 q5,q10,q12
827 vsub.s32 q12,q11,q13
830 vsub.s32 q13,q8,q14
834 vsub.s32 q14,q9,q15
1133 vsub.s32 q5,q10,q12
1136 vsub.s32 q12,q11,q1
    [all...]
ihevc_deblk_chroma_vert.s 140 vsub.i16 q1,q9,q1
  /external/jpeg/
jsimd_arm_neon.S 117 vsub.s16 \t10, \x0, \x4
120 vsub.s16 \t11, \x2, \x6
123 vsub.s16 \t10, \x3, \x5
126 vsub.s16 \t11, \x1, \x7
134 vsub.s16 \t10, \x1, \x3
137 vsub.s16 \t11, \x7, \x5
143 vsub.s16 \x2, \x6, \x2
144 vsub.s16 \t14, \x0, \x2
147 vsub.s16 \x4, \x4, \x6
150 vsub.s16 \t12, \t13, \t1
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0)
457 vsub.i16 q15, q10
463 vsub.i16 q15, q10
515 vsub.i16 q15, q14, q12
519 vsub.i16 q15, q13
527 vsub.i16 q15, q13
528 vsub.i16 q14, q15, q14
537 vsub.i16 q15, q14
544 vsub.i16 q15, q14
551 vsub.i16 q15, q1
    [all...]
vp9_iht4x4_add_neon.asm 27 vsub.s16 d24, d16, d18 ; (input[0] - input[2])
48 vsub.s16 q9, q13, q14
72 vsub.s32 q11, q11, q14 ; x1 = s1 - s4 - s6
74 vsub.s32 q11, q11, q9
80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0)
457 vsub.i16 q15, q10
463 vsub.i16 q15, q10
515 vsub.i16 q15, q14, q12
519 vsub.i16 q15, q13
527 vsub.i16 q15, q13
528 vsub.i16 q14, q15, q14
537 vsub.i16 q15, q14
544 vsub.i16 q15, q14
551 vsub.i16 q15, q1
    [all...]
vp9_iht4x4_add_neon.asm 27 vsub.s16 d24, d16, d18 ; (input[0] - input[2])
48 vsub.s16 q9, q13, q14
72 vsub.s32 q11, q11, q14 ; x1 = s1 - s4 - s6
74 vsub.s32 q11, q11, q9
80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 406 vsub.s8 d28, d23, d24 ; ( qs0 - ps0)
457 vsub.i16 q15, q10
463 vsub.i16 q15, q10
515 vsub.i16 q15, q14, q12
519 vsub.i16 q15, q13
527 vsub.i16 q15, q13
528 vsub.i16 q14, q15, q14
537 vsub.i16 q15, q14
544 vsub.i16 q15, q14
551 vsub.i16 q15, q1
    [all...]
vp9_iht4x4_add_neon.asm 27 vsub.s16 d24, d16, d18 ; (input[0] - input[2])
48 vsub.s16 q9, q13, q14
72 vsub.s32 q11, q11, q14 ; x1 = s1 - s4 - s6
74 vsub.s32 q11, q11, q9
80 vsub.s32 q10, q10, q12 ; s3 = x0 + x1 - x3
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 79 vsub.s16 q4, q2 ; x1=(y^sz)-sz = (y^sz)-(-1) (2's complement)
80 vsub.s16 q5, q3
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
94 vsub.s16 q11, q13
208 vsub.s16 q12, q2 ; x1=(y^sz)-sz = (y^sz)-(-1) (2's complement)
209 vsub.s16 q13, q3
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 79 vsub.s16 q4, q2 ; x1=(y^sz)-sz = (y^sz)-(-1) (2's complement)
80 vsub.s16 q5, q3
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
94 vsub.s16 q11, q13
208 vsub.s16 q12, q2 ; x1=(y^sz)-sz = (y^sz)-(-1) (2's complement)
209 vsub.s16 q13, q3
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 79 vsub.s16 q4, q2 ; x1=(y^sz)-sz = (y^sz)-(-1) (2's complement)
80 vsub.s16 q5, q3
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
94 vsub.s16 q11, q13
208 vsub.s16 q12, q2 ; x1=(y^sz)-sz = (y^sz)-(-1) (2's complement)
209 vsub.s16 q13, q3
  /external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/
lpc_masking_model_neon.S 81 vsub.s64 q11, q10
98 vsub.s64 q11, q10
123 vsub.s64 q11, q10
142 vsub.s64 q11, q10
  /external/libvpx/libvpx/vp8/common/arm/neon/
variance_neon.asm 87 vsub.u32 d0, d1, d10
149 vsub.u32 d0, d1, d10
204 vsub.u32 d0, d1, d10
269 vsub.u32 d0, d1, d10
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
variance_neon.asm 87 vsub.u32 d0, d1, d10
149 vsub.u32 d0, d1, d10
204 vsub.u32 d0, d1, d10
269 vsub.u32 d0, d1, d10
  /system/core/libpixelflinger/
col32cb16blend_neon.S 64 vsub.u16 q3, q15, q3 // invert alpha

Completed in 1560 milliseconds

12 3 4