HomeSort by relevance Sort by last modified time
    Searched refs:vsub (Results 1 - 25 of 85) sorted by null

1 2 3 4

  /external/compiler-rt/lib/builtins/arm/
subdf3vfp.S 23 vsub.f64 d6, d6, d7
subsf3vfp.S 24 vsub.f32 s14, s14, s15
  /external/llvm/test/MC/ARM/
neon-sub-encoding.s 3 vsub.i8 d16, d17, d16
4 vsub.i16 d16, d17, d16
5 vsub.i32 d16, d17, d16
6 vsub.i64 d16, d17, d16
7 vsub.f32 d16, d16, d17
8 vsub.i8 q8, q8, q9
9 vsub.i16 q8, q8, q9
10 vsub.i32 q8, q8, q9
11 vsub.i64 q8, q8, q9
12 vsub.f32 q8, q8, q
    [all...]
  /external/chromium_org/third_party/openmax_dl/dl/sp/src/arm/armv7/
armSP_FFT_CToC_FC32_Radix8_fs_unsafe_s.S 149 vsub.f32 x2r,x0r,sr @// u1
150 vsub.f32 x2i,x0i,si
160 vsub.f32 x3r,x1r,sr @// u5
161 vsub.f32 x3i,x1i,si
183 vsub.f32 x2r,x0r,sr @// u3
184 vsub.f32 x2i,x0i,si
193 vsub.f32 x3r,x1r,sr @// u7
194 vsub.f32 x3i,x1i,si
210 vsub.f32 x1r,x0r,sr @// v6
211 vsub.f32 x1i,x0i,s
    [all...]
armSP_FFT_CToC_FC32_Radix4_fs_unsafe_s.S 134 vsub.f32 x2r,x0r,sr @// x2 = x0 - x2
135 vsub.f32 x2i,x0i,si
142 vsub.f32 x3r,x1r,sr @// x3 = x1 - x3
143 vsub.f32 x3i,x1i,si
154 vsub.f32 x1r,x0r,sr @// x1 = x0 - x1
155 vsub.f32 x1i,x0i,si
161 vsub.f32 x2i,x2i,x3r
165 vsub.f32 t3r, x2r, si
armSP_FFTInv_CCSToR_F32_preTwiddleRadix2_unsafe_s.S 147 vsub.f32 st1, x0r, x1r @// a-c
150 vsub.f32 st0, x0i, x1i @// b-d
155 vsub.f32 x0r,x0r,x1i @// Z(0).r
183 vsub.f32 st2,x0r,x1r @// a-c
186 vsub.f32 st1,x0i,x1i @// b-d
194 vsub.f32 y1i,x1r,st1 @// y1r,y1i same as w1r, w1i
204 vsub.f32 st5,st1,x0r
omxSP_FFTFwd_RToCCS_F32_Sfs_s.S 223 vsub.f32 x0r,x0r,x0i @// F(N/2) = (2(Z0.r-Z0.i) , 0)
224 vsub.f32 y0i, y0i @ y0i and x0i set to 0.0
225 vsub.f32 x0i, x0i
261 vsub.f32 st2,x0r,x1r @// a-c
264 vsub.f32 st1,x0i,x1i @// b-d
272 vsub.f32 y1r, st0, x1i
281 vsub.f32 st4,st0,x0i @// F(1)
armSP_FFT_CToC_FC32_Radix2_fs_unsafe_s.S 107 vsub.f32 y1r,x0r,x1r
108 vsub.f32 y1i,x0i,x1i
armSP_FFT_CToC_FC32_Radix4_unsafe_s.S 220 vsub.f32 x2r,x0r,sr @// x2 = x0 - x2 (u1)
221 vsub.f32 x2i,x0i,si
228 vsub.f32 x3r,x1r,sr @// x3 = x1/2 - x3/2 (u3/2)
229 vsub.f32 x3i,x1i,si
235 vsub.f32 x2r,x2r,x1r
236 vsub.f32 x2i,x2i,x1i
244 vsub.f32 x0r,x0r,x3i @// y3 = u0+ju3
250 vsub.f32 t2i,x0i,sr @// t2 will be same as x2r reg
  /external/libhevc/common/arm/
ihevc_intra_pred_luma_mode_3_to_9.s 198 vsub.s8 d8, d8, d2 @ref_main_idx (sub row)
199 vsub.s8 d8, d26, d8 @ref_main_idx (row 0)
201 vsub.s8 d9, d8, d2 @ref_main_idx + 1 (row 0)
203 vsub.s8 d7, d28, d6 @32-fract
206 vsub.s8 d4, d8, d2 @ref_main_idx (row 1)
207 vsub.s8 d5, d9, d2 @ref_main_idx + 1 (row 1)
214 vsub.s8 d8, d8, d3 @ref_main_idx (row 2)
215 vsub.s8 d9, d9, d3 @ref_main_idx + 1 (row 2)
224 vsub.s8 d4, d4, d3 @ref_main_idx (row 3)
225 vsub.s8 d5, d5, d3 @ref_main_idx + 1 (row 3
    [all...]
ihevc_itrans_recon_8x8.s 243 vsub.s32 q10,q10,q11 @// c1 = y0 * cos4 - y4 * cos4(part of a0 and a1)
251 vsub.s32 q5,q5,q3 @// a3 = c0 - d0(part of r3,r4)
252 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
259 vsub.s32 q11,q11,q14 @// a2 - b2(part of r5)
262 vsub.s32 q9,q9,q13 @// a1 - b1(part of r6)
265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
319 vsub.s32 q5,q10,q3 @// a3 = c0 - d0(part of r3,r4)
320 vsub.s32 q11,q10,q9 @// a2 = c1 - d1(part of r2,r5)
324 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7
    [all...]
ihevc_intra_pred_chroma_mode_3_to_9.s 193 vsub.s8 d8, d8, d27 @ref_main_idx (sub row)
194 vsub.s8 d8, d26, d8 @ref_main_idx (row 0)
196 vsub.s8 d9, d8, d29 @ref_main_idx + 1 (row 0)
198 vsub.s8 d7, d28, d6 @32-fract
201 vsub.s8 d4, d8, d29 @ref_main_idx (row 1)
202 vsub.s8 d5, d9, d29 @ref_main_idx + 1 (row 1)
211 vsub.s8 d8, d8, d29 @ref_main_idx (row 2)
212 vsub.s8 d9, d9, d29 @ref_main_idx + 1 (row 2)
221 vsub.s8 d4, d4, d29 @ref_main_idx (row 3)
222 vsub.s8 d5, d5, d29 @ref_main_idx + 1 (row 3
    [all...]
ihevc_intra_pred_luma_planar.s 185 vsub.s8 d9, d2, d8 @(1-8)[nt-1-col]
202 vsub.s8 d6, d6, d7 @(1)
216 vsub.s8 d6, d6, d7 @(2)
233 vsub.s8 d6, d6, d7 @(3)
250 vsub.s8 d6, d6, d7 @(4)
266 vsub.s8 d6, d6, d7 @(5)
283 vsub.s8 d6, d6, d7 @(6)
300 vsub.s8 d6, d6, d7 @(7)
337 vsub.s8 d9, d2, d8 @(1n)(1-8)[nt-1-col]
340 vsub.s8 d6, d2, d
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_idct32x32_add_neon.asm 264 vsub.s32 q8, q8, q10
265 vsub.s32 q9, q9, q11
482 vsub.s16 q13, q0, q1
484 vsub.s16 q14, q2, q3
516 vsub.s16 q13, q3, q2
518 vsub.s16 q14, q1, q0
541 vsub.s16 q13, q5, q0
542 vsub.s16 q14, q7, q1
557 vsub.s16 q13, q4, q2
558 vsub.s16 q14, q6, q
    [all...]
vp9_idct16x16_add_neon.asm 170 vsub.s32 q13, q2, q0
171 vsub.s32 q1, q11, q1
206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5];
208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7];
218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2];
219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3];
232 vsub.s32 q6, q9, q11
233 vsub.s32 q13, q10, q12
252 vsub.s16 q12, q3, q4 ; step2[4] = step1[3] - step1[4];
253 vsub.s16 q13, q2, q5 ; step2[5] = step1[2] - step1[5]
    [all...]
vp9_iht8x8_add_neon.asm 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2]
235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3]
241 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
243 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]
275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
276 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5];
277 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6];
278 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7];
333 vsub.s32 q1, q1, q5
334 vsub.s32 q2, q2, q
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_idct32x32_add_neon.asm 264 vsub.s32 q8, q8, q10
265 vsub.s32 q9, q9, q11
482 vsub.s16 q13, q0, q1
484 vsub.s16 q14, q2, q3
516 vsub.s16 q13, q3, q2
518 vsub.s16 q14, q1, q0
541 vsub.s16 q13, q5, q0
542 vsub.s16 q14, q7, q1
557 vsub.s16 q13, q4, q2
558 vsub.s16 q14, q6, q
    [all...]
vp9_idct16x16_add_neon.asm 170 vsub.s32 q13, q2, q0
171 vsub.s32 q1, q11, q1
206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5];
208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7];
218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2];
219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3];
232 vsub.s32 q6, q9, q11
233 vsub.s32 q13, q10, q12
252 vsub.s16 q12, q3, q4 ; step2[4] = step1[3] - step1[4];
253 vsub.s16 q13, q2, q5 ; step2[5] = step1[2] - step1[5]
    [all...]
vp9_iht8x8_add_neon.asm 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2]
235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3]
241 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
243 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]
275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
276 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5];
277 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6];
278 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7];
333 vsub.s32 q1, q1, q5
334 vsub.s32 q2, q2, q
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_idct32x32_add_neon.asm 264 vsub.s32 q8, q8, q10
265 vsub.s32 q9, q9, q11
482 vsub.s16 q13, q0, q1
484 vsub.s16 q14, q2, q3
516 vsub.s16 q13, q3, q2
518 vsub.s16 q14, q1, q0
541 vsub.s16 q13, q5, q0
542 vsub.s16 q14, q7, q1
557 vsub.s16 q13, q4, q2
558 vsub.s16 q14, q6, q
    [all...]
vp9_idct16x16_add_neon.asm 170 vsub.s32 q13, q2, q0
171 vsub.s32 q1, q11, q1
206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5];
208 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7];
218 vsub.s16 q2, q9, q10 ; step1[2] = step2[1] - step2[2];
219 vsub.s16 q3, q8, q11 ; step1[3] = step2[0] - step2[3];
232 vsub.s32 q6, q9, q11
233 vsub.s32 q13, q10, q12
252 vsub.s16 q12, q3, q4 ; step2[4] = step1[3] - step1[4];
253 vsub.s16 q13, q2, q5 ; step2[5] = step1[2] - step1[5]
    [all...]
vp9_iht8x8_add_neon.asm 234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2]
235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3]
241 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
243 vsub.s16 q14, q7, q6 ; step2[6] = -step1[6] + step1[7]
275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
276 vsub.s16 q13, q2, q5 ; output[5] = step1[2] - step1[5];
277 vsub.s16 q14, q1, q6 ; output[6] = step1[1] - step1[6];
278 vsub.s16 q15, q0, q7 ; output[7] = step1[0] - step1[7];
333 vsub.s32 q1, q1, q5
334 vsub.s32 q2, q2, q
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
shortfdct_neon.asm 52 vsub.s16 d6, d1, d2 ; c1 = ip[1] - ip[2]
53 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[3]
59 vsub.s16 d2, d4, d5 ; op[2] = a1 - b1
82 vsub.s16 d6, d1, d2 ; c1 = ip[4] - ip[8]
84 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[12]
87 vsub.s16 d2, d4, d5 ; op[8] = a1 - b1 + 7
102 vsub.s16 d1, d1, d4 ; op[4] += (d1!=0)
132 vsub.s16 q13, q1, q2 ; c1 = ip[1] - ip[2]
133 vsub.s16 q14, q0, q3 ; d1 = ip[0] - ip[3]
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
shortfdct_neon.asm 52 vsub.s16 d6, d1, d2 ; c1 = ip[1] - ip[2]
53 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[3]
59 vsub.s16 d2, d4, d5 ; op[2] = a1 - b1
82 vsub.s16 d6, d1, d2 ; c1 = ip[4] - ip[8]
84 vsub.s16 d7, d0, d3 ; d1 = ip[0] - ip[12]
87 vsub.s16 d2, d4, d5 ; op[8] = a1 - b1 + 7
102 vsub.s16 d1, d1, d4 ; op[4] += (d1!=0)
132 vsub.s16 q13, q1, q2 ; c1 = ip[1] - ip[2]
133 vsub.s16 q14, q0, q3 ; d1 = ip[0] - ip[3]
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b
    [all...]
  /external/chromium_org/third_party/libjpeg_turbo/simd/
jsimd_arm_neon.S 292 vsub.s32 q1, q1, q6
297 vsub.s32 q1, q1, q6
301 vsub.s32 q3, q3, q2
307 vsub.s32 q3, q3, q5
319 vsub.s32 q1, q5, q6
322 vsub.s32 q2, q2, q7
325 vsub.s32 q3, q1, q4
365 vsub.s32 q1, q1, q6
368 vsub.s32 q1, q1, q6
371 vsub.s32 q3, q3, q
    [all...]

Completed in 295 milliseconds

1 2 3 4