HomeSort by relevance Sort by last modified time
    Searched refs:q13 (Results 1 - 25 of 66) sorted by null

1 2 3

  /system/core/libpixelflinger/
col32cb16blend_neon.S 73 // q13 = dst red1
86 vshr.u16 q13, q11, #11 // shift dst red1 to low 5 bits
91 vmul.u16 q13, q13, q3 // multiply dst red1 by src alpha
97 vadd.u16 q13, q13, q0 // add src red to dst red1
103 vshr.u16 q13, q13, #8 // shift down red1
109 vsli.u16 q11, q13, #11 // shift & insert red1 into blue1
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 60 vshr.s16 q13, q1, #15
88 veor.s16 q11, q13
94 vsub.s16 q11, q13
108 vmul.s16 q13, q7, q11
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
171 vabs.s16 q13, q1
182 vadd.s16 q13, q15
187 vqdmulh.s16 q13, q9
196 vshr.s16 q13, #1
206 veor.s16 q13, q
    [all...]
vp8_memcpy_neon.asm 44 vld1.8 {q12, q13}, [r1]!
47 vst1.8 {q12, q13}, [r0]!
subtract_neon.asm 48 vsubl.u8 q13, d6, d7
88 vsubl.u8 q13, d9, d11
97 vst1.16 {q13}, [r5], r6
145 vsubl.u8 q13, d10, d11
154 vst1.16 {q13}, [r7], r12
181 vsubl.u8 q13, d10, d11
190 vst1.16 {q13}, [r7], r12
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_short_idct16x16_add_neon.asm 31 vtrn.32 q13, q15
34 vtrn.16 q12, q13
57 vld2.s16 {q12,q13}, [r0]!
58 vld2.s16 {q13,q14}, [r0]!
170 vsub.s32 q13, q2, q0
178 vqrshrn.s32 d18, q13, #14 ; >> 14
188 vmull.s16 q13, d21, d30
196 vmlsl.s16 q13, d29, d31
204 vqrshrn.s32 d21, q13, #14 ; >> 14
206 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5]
    [all...]
vp9_short_idct32x32_1_add_neon.asm 26 vld1.8 {q13}, [$src], $stride
38 vqadd.u8 q13, q13, $diff
50 vqsub.u8 q13, q13, $diff
62 vst1.8 {q13},[$dst], $stride
vp9_short_iht8x8_add_neon.asm 111 vtrn.32 q13, q15
114 vtrn.16 q12, q13
160 vmull.s16 q13, d27, d3
168 vmlal.s16 q13, d23, d2
179 vqrshrn.s32 d13, q13, #14 ; >> 14
186 vmull.s16 q13, d16, d0
194 vmlsl.s16 q13, d24, d0
205 vqrshrn.s32 d22, q13, #14 ; >> 14
233 vadd.s16 q1, q11, q13 ; output[1] = step[1] + step[2]
234 vsub.s16 q2, q11, q13 ; output[2] = step[1] - step[2
    [all...]
vp9_short_iht4x4_add_neon.asm 31 vmull.s16 q13, d23, d1 ; (input[0] + input[2]) * cospi_16_64
37 vqrshrn.s32 d26, q13, #14
47 vadd.s16 q8, q13, q14
48 vsub.s16 q9, q13, q14
55 ; stored back into d16-d19 registers. This macro will touch q11,q12,q13,
62 vmull.s16 q13, d5, d18 ; s3 = sinpi_4_9 * x2
70 vadd.s32 q10, q10, q13 ; x0 = s0 + s3 + s5
77 vadd.s32 q13, q10, q12 ; s0 = x0 + x3
83 vqrshrn.s32 d16, q13, #14
vp9_short_idct32x32_add_neon.asm 57 ; q13 = transposed_buffer[first_offset]
67 vld1.s16 {q13}, [r0]
68 ; (used) two registers (q14, q13)
238 ; Touches q8-q12, q15 (q13-q14 are preserved)
283 ; Touches q8-q12, q15 (q13-q14 are preserved)
375 vld1.s16 {q13}, [r3]!
396 vtrn.32 q13, q15
403 vtrn.16 q12, q13
417 vst1.16 {q13}, [r0]!
482 vsub.s16 q13, q0, q
    [all...]
  /external/jpeg/
jsimd_arm_neon.S 203 vmul.s16 q5, q5, q13
211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
342 vmull.s16 q13, \x16, d1[2]
343 vmlal.s16 q13, \x12, d1[3]
344 vmlal.s16 q13, \x10, d2[0]
345 vmlal.s16 q13, \x6, d2[1]
356 vadd.s32 q10, q14, q13
357 vsub.s32 q14, q14, q13
427 vmul.s16 q6, q6, q13
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingLuma_unsafe_s.S 69 VADDL.U8 q13,d7,d6
72 VSRA.U16 q13,q12,#1
80 VQRSHRN.U16 d31,q13,#2
81 VADDL.U8 q13,d11,d10
88 VSRA.U16 q13,q12,#1
95 VQRSHRN.U16 d28,q13,#2
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 46 VADDL.U8 q13,d26,d10
66 VQRSHRUN.S16 d26,q13,#5
  /hardware/samsung_slsi/exynos5/libswconverter/
csc_interleave_memcpy_neon.s 90 vld1.8 {q13}, [r12]!
99 vst2.8 {q12, q13}, [r10]!
  /external/webrtc/src/modules/audio_coding/codecs/isac/fix/source/
lattice_neon.S 69 vmull.s32 q13, d1, d29 @ input1 * (*ptr0)
88 vrshrn.i64 d1, q13, #15
108 vmull.s32 q13, d0, d29 @ input1 * (*ptr0)
120 vrshrn.i64 d0, q13, #15
lpc_masking_model_neon.S 38 vmov.s64 q13, #0 @ Initialize sum64.
96 vqadd.s64 q0, q13, q15 @ Sum and test overflow.
98 vshr.s64 q13, #1
100 vadd.s64 q0, q13, q15
104 vmov.s64 q13, q0 @ update sum64.
123 vshr.s64 q13, #1
143 vshr.s64 q13, #1
  /external/llvm/test/MC/ARM/
neon-cmp-encoding.s 116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2
    [all...]
neon-v8.s 9 vminnm.f32 q0, q13, q2
10 @ CHECK: vminnm.f32 q0, q13, q2 @ encoding: [0xd4,0x0f,0x2a,0xf3]
27 vcvtm.u32.f32 q13, q1
28 @ CHECK: vcvtm.u32.f32 q13, q1 @ encoding: [0xc2,0xa3,0xfb,0xf3]
thumb-neon-v8.s 9 vminnm.f32 q0, q13, q2
10 @ CHECK: vminnm.f32 q0, q13, q2 @ encoding: [0x2a,0xff,0xd4,0x0f]
27 vcvtm.u32.f32 q13, q1
28 @ CHECK: vcvtm.u32.f32 q13, q1 @ encoding: [0xfb,0xff,0xc2,0xa3]
  /external/pixman/pixman/
pixman-arm-neon-asm.S 169 vrshr.u16 q13, q10, #8
172 vraddhn.u16 d20, q10, q13
279 vrshr.u16 q13, q10, #8
286 vraddhn.u16 d20, q10, q13
367 vrshr.u16 q13, q10, #8
370 vraddhn.u16 d20, q10, q13
596 vrshr.u16 q13, q11, #8
600 vraddhn.u16 d31, q13, q11
610 vrshr.u16 q13, q11, #8
617 vraddhn.u16 d31, q13, q1
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
vp8_subpixelvariance16x16s_neon.asm 48 vld1.8 {q13}, [r2], r3
161 vsubl.u8 q13, d4, d6
177 vpadal.s16 q8, q13
234 vmov.i8 q13, #0 ;q8 - sum
283 vpadal.s16 q13, q9 ;sum
287 vpadal.s16 q13, q10 ;sum
291 vpadal.s16 q13, q11 ;sum
295 vpadal.s16 q13, q12 ;sum
301 vpadal.s16 q13, q0 ;sum
305 vpadal.s16 q13, q1 ;su
    [all...]
vp8_subpixelvariance16x16_neon.asm 76 vmull.u8 q13, d11, d0
87 vmlal.u8 q13, d11, d1
107 vqrshrn.u16 d20, q13, #7
127 vmull.u8 q13, d8, d0
136 vmlal.u8 q13, d8, d1
167 vqrshrn.u16 d14, q13, #7
264 vmull.u8 q13, d11, d0
275 vmlal.u8 q13, d11, d1
295 vqrshrn.u16 d20, q13, #7
383 vsubl.u8 q13, d2, d
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_ColorMatrix.S 302 vmovl.u8 q13, d1 /* G */
309 vmovl.u8 q13, d1 /* G */
316 vmovl.u8 q13, d1 /* G */
323 veor q13, q13
334 vqmovun.s16 d1, q13
344 vqmovun.s16 d1, q13
352 vqmovun.s16 d1, q13
  /external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
sha512-armv4.S 1046 vshr.u64 q13,q7,#61
1050 vsli.64 q13,q7,#3
1053 veor q15,q13 @ sigma1(X[i+14])
1054 vshr.u64 q13,q14,#8
1058 vsli.64 q13,q14,#56
1064 veor q15,q13 @ sigma0(X[i+1])
1136 vshr.u64 q13,q0,#61
1140 vsli.64 q13,q0,#3
1143 veor q15,q13 @ sigma1(X[i+14])
1144 vshr.u64 q13,q14,#
    [all...]
  /external/openssl/crypto/sha/asm/
sha512-armv4.S 1046 vshr.u64 q13,q7,#61
1050 vsli.64 q13,q7,#3
1053 veor q15,q13 @ sigma1(X[i+14])
1054 vshr.u64 q13,q14,#8
1058 vsli.64 q13,q14,#56
1064 veor q15,q13 @ sigma0(X[i+1])
1136 vshr.u64 q13,q0,#61
1140 vsli.64 q13,q0,#3
1143 veor q15,q13 @ sigma1(X[i+14])
1144 vshr.u64 q13,q14,#
    [all...]
  /external/chromium_org/third_party/openssl/openssl/crypto/
armv4cpuid.S 109 .word 0xf34aa1fa @ veor q13, q13, q13

Completed in 9013 milliseconds

1 2 3