HomeSort by relevance Sort by last modified time
    Searched refs:q12 (Results 1 - 25 of 153) sorted by null

1 2 3 4 5 6 7

  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
sad_neon.c 19 uint16x8_t q12; local
29 q12 = vabdl_u8(d0, d8);
36 q12 = vabal_u8(q12, d0, d8);
39 q1 = vpaddlq_u16(q12);
53 uint16x8_t q12; local
63 q12 = vabdl_u8(d0, d8);
70 q12 = vabal_u8(q12, d0, d8);
73 q1 = vpaddlq_u16(q12);
87 uint16x8_t q12; local
118 uint16x8_t q12, q13; local
155 uint16x8_t q12, q13; local
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_DeblockingLuma_unsafe_s.S 56 VMOVL.U8 q12,d8
58 VSUBW.S8 q12,q12,d20
60 VQMOVUN.S16 d24,q12
79 VADDW.U8 q12,q10,d5
82 VHADD.U16 q11,q12,q11
83 VADDW.U8 q12,q12,d6
87 VSRA.U16 q13,q12,#1
91 VQRSHRN.U16 d30,q12,#
    [all...]
armVCM4P10_DeblockingChroma_unsafe_s.S 47 VMOVL.U8 q12,d8
49 VSUBW.S8 q12,q12,d20
51 VQMOVUN.S16 d24,q12
  /system/core/libpixelflinger/
col32cb16blend_neon.S 74 // q12 = dst green1
84 vshl.u16 q12, q11, #5 // shift dst green1 to top 6 bits
88 vshr.u16 q12, q12, #10 // shift dst green1 to low 6 bits
93 vmul.u16 q12, q12, q3 // multiply dst green1 by src alpha
99 vadd.u16 q12, q12, q1 // add src green to dst green1
105 vshr.u16 q12, q12, #8 // shift down green
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
234 vmlal.s16 q12,d14,d1[1] @// y1 * cos1 + y3 * cos3 + y5 * sin3(part of b0)
245 vmlal.s16 q12,d15,d1[3] @// b0 = y1 * cos1 + y3 * cos3 + y5 * sin3 + y7 * sin1(part of r0,r7)
255 vadd.s32 q10,q7,q12 @// a0 + b0(part of r0)
256 vsub.s32 q3,q7,q12 @// a0 - b0(part of r7)
258 vadd.s32 q12,q11,q14 @// a2 + b2(part of r2)
269 vqrshrn.s32 d3,q12,#shift_stage1_idct @// r2 = (a2 + b2 + rnd) >> 7(shift_stage1_idct)
302 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
307 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0
    [all...]
ihevc_itrans_recon_32x32.s 211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0)
216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
251 vmlal.s16 q12,d14,d1[1]
257 vmlal.s16 q12,d15,d1[3]
281 vmlal.s16 q12,d8,d2[1] @// y1 * cos1(part of b0)
286 vmlal.s16 q12,d9,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
325 vmlal.s16 q12,d14,d3[1]
331 vmlal.s16 q12,d15,d3[3]
357 vmlal.s16 q12,d8,d4[1] @// y1 * cos1(part of b0)
362 vmlal.s16 q12,d9,d4[3] @// y1 * cos1 + y3 * cos3(part of b0
    [all...]
ihevc_intra_pred_chroma_horz.s 207 @vsubl.u8 q12,d30,d28
210 @vshr.s16 q12,q12,#1
213 @vqadd.s16 q11,q13,q12
221 @vsubl.u8 q12,d31,d28
224 @vshr.s16 q12,q12,#1
227 @vqadd.s16 q11,q13,q12
287 vsubl.u8 q12,d30,d28
290 vshr.s16 q12,q12,#
    [all...]
ihevc_intra_pred_luma_horz.s 202 vsubl.u8 q12,d30,d28
205 vshr.s16 q12,q12,#1
208 vqadd.s16 q11,q13,q12
216 vsubl.u8 q12,d31,d28
219 vshr.s16 q12,q12,#1
222 vqadd.s16 q11,q13,q12
280 vsubl.u8 q12,d30,d28
283 vshr.s16 q12,q12,#
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 217 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
219 vmlal.s16 q12,d4,d13
221 vmlal.s16 q12,d5,d14
223 vmlal.s16 q12,d6,d15
240 vqshrn.s32 d24,q12,#6 @right shift
253 vqrshrun.s16 d24,q12,#6 @rounding shift
269 vmull.s16 q12,d3,d12 @vmull_s16(src_tmp2, coeff_0)
272 vmlal.s16 q12,d4,d13
274 vmlal.s16 q12,d5,d14
277 vmlal.s16 q12,d6,d1
    [all...]
ihevc_itrans_recon_16x16.s 242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
269 vmlal.s16 q12,d8,d1[1]
275 vmlal.s16 q12,d9,d1[3]
317 vmlal.s16 q12,d6,d2[1] @// y1 * cos1(part of b0)
322 vmlal.s16 q12,d7,d2[3] @// y1 * cos1 + y3 * cos3(part of b0)
329 vmlal.s16 q12,d8,d3[1]
335 vmlal.s16 q12,d9,d3[3]
370 vadd.s32 q10,q6,q12
371 vsub.s32 q11,q6,q12
    [all...]
  /external/libvpx/libvpx/vp8/encoder/arm/neon/
shortfdct_neon.asm 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000
90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000
98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000
103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
136 vshl.s16 q12, q12, #3 ; b1 << 3
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b
    [all...]
fastquantizeb_neon.asm 59 vshr.s16 q12, q0, #15 ; sz2
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
170 vabs.s16 q12, q0 ; calculate x = abs(z)
181 vadd.s16 q12, q14 ; x + Round
186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16
195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh
205 veor.s16 q12, q2 ; y^s
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/encoder/arm/neon/
shortfdct_neon.asm 46 vld1.32 {q11,q12}, [r12@128] ; q11=12000, q12=51000
90 vmlal.s16 q12, d7, d17 ; d1*2217 + 51000
98 vmlsl.s16 q12, d6, d16 ; d1*2217 - c1*5352 + 51000
103 vshrn.s32 d3, q12, #16 ; op[12]= (d1*2217 - c1*5352 + 51000)>>16
131 vadd.s16 q12, q1, q2 ; b1 = ip[1] + ip[2]
136 vshl.s16 q12, q12, #3 ; b1 << 3
140 vadd.s16 q0, q11, q12 ; [A0 | B0] = a1 + b1
141 vsub.s16 q2, q11, q12 ; [A2 | B2] = a1 - b
    [all...]
fastquantizeb_neon.asm 59 vshr.s16 q12, q0, #15 ; sz2
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
170 vabs.s16 q12, q0 ; calculate x = abs(z)
181 vadd.s16 q12, q14 ; x + Round
186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16
195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh
205 veor.s16 q12, q2 ; y^s
    [all...]
  /external/openssl/crypto/modes/asm/
ghashv8-armx.S 36 vld1.64 {q12},[r1] @ load twisted H
41 vext.8 q13,q12,q12,#8
45 veor q13,q13,q12 @ Karatsuba pre-processing
58 vld1.64 {q12},[r1] @ load twisted H
63 vext.8 q13,q12,q12,#8
68 veor q13,q13,q12 @ Karatsuba pre-processing
79 .byte 0x86,0x0e,0xa8,0xf2 @ pmull q0,q12,q3 @ H.lo·Xi.lo
81 .byte 0x87,0x4e,0xa9,0xf2 @ pmull2 q2,q12,q3 @ H.hi·Xi.h
    [all...]
  /external/pixman/pixman/
pixman-android-neon.S 142 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
143 vadd.u16 q12, q12, q13
160 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
168 vadd.u16 q12, q12, q13
173 vshr.u16 q15, q12, #(16 - BILINEAR_INTERPOLATION_BITS)
176 vadd.u16 q12, q12, q13
248 vdup.u16 q12,
    [all...]
  /external/chromium_org/third_party/webrtc/common_audio/signal_processing/
min_max_operations_neon.S 39 vmov.i16 q12, #0
46 vmax.u16 q12, q13 @ Use u16 so we don't lose the value -32768.
84 vmov.i32 q12, #0
96 vmax.u32 q12, q14
100 vmax.u32 q12, q11
132 vmov.i16 q12, #0x8000
141 vmax.s16 q12, q13
172 vmov.i32 q12, #0x80000000
182 vmax.s32 q12, q14
186 vmax.s32 q12, q1
    [all...]
  /external/openssl/crypto/sha/asm/
sha1-armv4-large.S 509 vext.8 q12,q3,q15,#4
516 veor q12,q12,q2
519 veor q12,q12,q8
526 vext.8 q13,q15,q12,#4
529 vadd.i32 q8,q12,q12
532 vsri.32 q8,q12,#31
536 vshr.u32 q12,q13,#3
    [all...]
  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blend.S 84 vmull.u8 q12, d15, d1
94 vrshrn.u16 d9, q12, #8
103 vaddw.u8 q12, d9
112 vrshrn.u16 d1, q12, #8
130 vmull.u8 q12, d15, d17
140 vrshrn.u16 d9, q12, #8
149 vaddw.u8 q12, d9
158 vrshrn.u16 d17, q12, #8
174 vmull.u8 q12, d7, d17
184 vrshrn.u16 d9, q12, #
    [all...]
  /external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/
bsaes-armv7.S 92 veor q12, q2, q9
96 vtbl.8 d4, {q12}, d16
97 vtbl.8 d5, {q12}, d17
240 veor q12, q5, q2
244 vand q14, q11, q12
245 vorr q11, q11, q12
246 veor q12, q12, q9
249 vand q15, q15, q12
252 veor q12, q1, q
    [all...]
  /external/openssl/crypto/aes/asm/
bsaes-armv7.S 91 veor q12, q2, q9
95 vtbl.8 d4, {q12}, d16
96 vtbl.8 d5, {q12}, d17
239 veor q12, q5, q2
243 vand q14, q11, q12
244 vorr q11, q11, q12
245 veor q12, q12, q9
248 vand q15, q15, q12
251 veor q12, q1, q
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/encoder/arm/neon/
fastquantizeb_neon.asm 59 vshr.s16 q12, q0, #15 ; sz2
87 veor.s16 q10, q12 ; y2^sz2
93 vsub.s16 q10, q12 ; x2=(y^sz)-sz = (y^sz)-(-1) (2's complement)
107 vmul.s16 q12, q6, q10 ; x2 * Dequant
122 vst1.s16 {q12, q13}, [r7] ; store dqcoeff = x * Dequant
170 vabs.s16 q12, q0 ; calculate x = abs(z)
181 vadd.s16 q12, q14 ; x + Round
186 vqdmulh.s16 q12, q8 ; y = ((Round+abs(z)) * Quant) >> 16
195 vshr.s16 q12, #1 ; right shift 1 after vqdmulh
205 veor.s16 q12, q2 ; y^s
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_idct16x16_add_neon.asm 30 vtrn.32 q12, q14
34 vtrn.16 q12, q13
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
167 vadd.s32 q12, q11, q1
175 vqrshrn.s32 d17, q12, #14 ; >> 14
187 vmull.s16 q12, d20, d30
195 vmlsl.s16 q12, d28, d31
203 vqrshrn.s32 d20, q12, #14 ; >> 14
225 vmull.s16 q12, d27, d1
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_idct16x16_add_neon.asm 30 vtrn.32 q12, q14
34 vtrn.16 q12, q13
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
167 vadd.s32 q12, q11, q1
175 vqrshrn.s32 d17, q12, #14 ; >> 14
187 vmull.s16 q12, d20, d30
195 vmlsl.s16 q12, d28, d31
203 vqrshrn.s32 d20, q12, #14 ; >> 14
225 vmull.s16 q12, d27, d1
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_idct16x16_add_neon.asm 30 vtrn.32 q12, q14
34 vtrn.16 q12, q13
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
167 vadd.s32 q12, q11, q1
175 vqrshrn.s32 d17, q12, #14 ; >> 14
187 vmull.s16 q12, d20, d30
195 vmlsl.s16 q12, d28, d31
203 vqrshrn.s32 d20, q12, #14 ; >> 14
225 vmull.s16 q12, d27, d1
    [all...]

Completed in 536 milliseconds

1 2 3 4 5 6 7