HomeSort by relevance Sort by last modified time
    Searched refs:q12 (Results 1 - 25 of 70) sorted by null

1 2 3

  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingLuma_unsafe_s.S 41 VMOVL.U8 q12,d8
43 VSUBW.S8 q12,q12,d20
45 VQMOVUN.S16 d24,q12
64 VADDW.U8 q12,q10,d5
67 VHADD.U16 q11,q12,q11
68 VADDW.U8 q12,q12,d6
72 VSRA.U16 q13,q12,#1
76 VQRSHRN.U16 d30,q12,#
    [all...]
armVCM4P10_DeblockingChroma_unsafe_s.S 32 VMOVL.U8 q12,d8
34 VSUBW.S8 q12,q12,d20
36 VQMOVUN.S16 d24,q12
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S 53 VADDL.U8 q12,d6,d16
58 VMLAL.U8 q12,d10,d31
62 VMLAL.U8 q12,d12,d31
66 VMLSL.U8 q12,d8,d30
70 VMLSL.U8 q12,d14,d30
omxVCM4P10_PredictIntra_16x16_s.S 199 VMULL.S16 q12,d16,d20
201 VMLAL.S16 q12,d17,d21
205 VSHL.I64 q12,q11,#2
206 VADD.I64 q11,q11,q12
208 VSHL.I64 q12,q11,#3
209 VSUB.I64 q12,q12,q11
221 VMUL.I16 q6,q6,q12
armVCM4P10_Interpolate_Chroma_s.S 65 VMULL.U8 q12,d18,d12
69 VMLAL.U8 q12,d19,d13
73 VMLAL.U8 q12,d0,d14
77 VMLAL.U8 q12,d1,d15
82 VQRSHRN.U16 d21,q12,#6
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 34 VADDL.U8 q12,d24,d10
65 VQRSHRUN.S16 d24,q12,#5
  /system/core/libpixelflinger/
col32cb16blend_neon.S 74 // q12 = dst green1
84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits
88 vshr.u16 q12, q12, #10 // shift dst green1 to low 6 bits
93 vmul.u16 q12, q12, q3 // multiply dst green1 by src alpha
99 vadd.u16 q12, q12, q1 // add src green to dst green1
105 vshr.u16 q12, q12, #8 // shift down green
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
shortfdct_neon.asm 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000
90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000
98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000
103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
136 vshl.s16 q12, q12, #3 ; b1 << 3
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b
    [all...]
fastquantizeb_neon.asm 59 vshr.s16 q12, q0, #15 ; sz2
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
170 vabs.s16 q12, q0 ; calculate x = abs(z)
181 vadd.s16 q12, q14 ; x + Round
186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16
195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh
205 veor.s16 q12, q2 ; y^s
    [all...]
vp8_memcpy_neon.asm 44 vld1.8 {q12, q13}, [r1]!
47 vst1.8 {q12, q13}, [r0]!
subtract_neon.asm 47 vsubl.u8 q12, d4, d5
87 vsubl.u8 q12, d8, d10
96 vst1.16 {q12}, [r0], r6
144 vsubl.u8 q12, d8, d9
153 vst1.16 {q12}, [r0], r12
180 vsubl.u8 q12, d8, d9
189 vst1.16 {q12}, [r0], r12
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_short_idct16x16_add_neon.asm 30 vtrn.32 q12, q14
34 vtrn.16 q12, q13
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
167 vadd.s32 q12, q11, q1
175 vqrshrn.s32 d17, q12, #14 ; >> 14
187 vmull.s16 q12, d20, d30
195 vmlsl.s16 q12, d28, d31
203 vqrshrn.s32 d20, q12, #14 ; >> 14
225 vmull.s16 q12, d27, d1
    [all...]
vp9_short_idct32x32_1_add_neon.asm 25 vld1.8 {q12}, [$src], $stride
37 vqadd.u8 q12, q12, $diff
49 vqsub.u8 q12, q12, $diff
61 vst1.8 {q12},[$dst], $stride
vp9_short_iht8x8_add_neon.asm 110 vtrn.32 q12, q14
114 vtrn.16 q12, q13
214 vmull.s16 q12, d21, d1
222 vmlal.s16 q12, d29, d0
230 vqrshrn.s32 d31, q12, #14 ; >> 14
252 vmull.s16 q12, d29, d16
260 vmlal.s16 q12, d27, d16
268 vqrshrn.s32 d13, q12, #14 ; >> 14
275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4];
327 vadd.s32 q12, q2, q
    [all...]
  /external/llvm/test/MC/ARM/
neon-cmp-encoding.s 116 vclt.s8 q12, q13, q3
117 vclt.s16 q12, q13, q3
118 vclt.s32 q12, q13, q3
119 vclt.u8 q12, q13, q3
120 vclt.u16 q12, q13, q3
121 vclt.u32 q12, q13, q3
122 vclt.f32 q12, q13, q3
132 @ CHECK: vcgt.s8 q12, q3, q13 @ encoding: [0x6a,0x83,0x46,0xf2]
133 @ CHECK: vcgt.s16 q12, q3, q13 @ encoding: [0x6a,0x83,0x56,0xf2]
134 @ CHECK: vcgt.s32 q12, q3, q13 @ encoding: [0x6a,0x83,0x66,0xf2
    [all...]
neon-mul-accum-encoding.s 11 vmla.i32 q12, q8, d3[0]
21 @ CHECK: vmla.i32 q12, q8, d3[0] @ encoding: [0xc3,0x80,0xe0,0xf3]
62 vmls.i16 q4, q12, d6[2]
72 @ CHECK: vmls.i16 q4, q12, d6[2] @ encoding: [0xe6,0x84,0x98,0xf3]
  /external/pixman/pixman/
pixman-arm-neon-asm.S 168 vmull.u8 q12, d3, d30
171 vrshr.u16 q15, q12, #8
174 vraddhn.u16 d22, q12, q15
274 vmull.u8 q12, d3, d30
282 vrshr.u16 q15, q12, #8
289 vraddhn.u16 d22, q12, q15
366 vmull.u8 q12, d3, d30
369 vrshr.u16 q15, q12, #8
372 vraddhn.u16 d22, q12, q15
595 vrshr.u16 q12, q10, #
    [all...]
pixman-arm-neon-asm-bilinear.S 527 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
528 vadd.u16 q12, q12, q13
554 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
564 vadd.u16 q12, q12, q13
570 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
573 vadd.u16 q12, q12, q13
687 vdup.u16 q12,
    [all...]
  /hardware/samsung_slsi/exynos5/libswconverter/
csc_interleave_memcpy_neon.s 82 vld1.8 {q12}, [r11]!
99 vst2.8 {q12, q13}, [r10]!
  /external/jpeg/
jsimd_arm_neon.S 201 vmul.s16 q4, q4, q12
211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14
351 vmull.s16 q12, \x16, d0[2]
352 vmlal.s16 q12, \x12, d0[3]
353 vmlal.s16 q12, \x10, d1[0]
354 vmlal.s16 q12, \x6, d1[1]
369 vadd.s32 q10, q15, q12
370 vsub.s32 q15, q15, q12
426 vmul.s16 q5, q5, q12
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
variance_neon.asm 42 vsubl.u8 q12, d1, d5
55 vpadal.s16 q8, q12
115 vsubl.u8 q12, d1, d5
125 vpadal.s16 q8, q12
178 vsubl.u8 q12, d2, d6
186 vpadal.s16 q8, q12
235 vsubl.u8 q12, d1, d5
245 vpadal.s16 q8, q12
vp8_subpixelvariance16x16_neon.asm 75 vmull.u8 q12, d9, d0
96 vmlal.u8 q12, d9, d1
106 vqrshrn.u16 d19, q12, #7
126 vmull.u8 q12, d6, d0
143 vmlal.u8 q12, d6, d1
166 vqrshrn.u16 d13, q12, #7
263 vmull.u8 q12, d9, d0
284 vmlal.u8 q12, d9, d1
294 vqrshrn.u16 d19, q12, #7
382 vsubl.u8 q12, d1, d
    [all...]
  /external/valgrind/main/none/tests/arm/
neon128.c 361 TESTINSN_imm("vmov.i32 q12", q12, 0x7000000);
421 TESTINSN_bin("vadd.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
434 TESTINSN_bin("vsub.i32 q10, q11, q12", q10, q11, i32, 24, q12, i32, 120);
440 TESTINSN_bin("vand q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed);
446 TESTINSN_bin("vbic q10, q11, q12", q10, q11, i8, 0xfe, q12, i8, 0xed)
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_ColorMatrix.S 301 vmovl.u8 q12, d0 /* R */
308 vmovl.u8 q12, d0 /* R */
315 vmovl.u8 q12, d0 /* R */
322 vmovl.u8 q12, d0 /* R */
333 vqmovun.s16 d0, q12
343 vqmovun.s16 d0, q12
351 vqmovun.s16 d0, q12
357 vqmovun.s16 d0, q12
  /external/chromium_org/third_party/openssl/openssl/crypto/sha/asm/
sha512-armv4.S 1045 vshr.u64 q12,q7,#19
1048 vsli.64 q12,q7,#45
1051 veor q15,q12
1052 vshr.u64 q12,q14,#1
1057 vsli.64 q12,q14,#63
1060 veor q15,q12
1135 vshr.u64 q12,q0,#19
1138 vsli.64 q12,q0,#45
1141 veor q15,q12
1142 vshr.u64 q12,q14,#
    [all...]

Completed in 630 milliseconds

1 2 3