HomeSort by relevance Sort by last modified time
    Searched refs:q15 (Results 1 - 25 of 132) sorted by null

1 2 3 4 5 6

  /frameworks/rs/cpu_ref/
rsCpuIntrinsics_neon_Blur.S 70 * q12-q15 = temporary sums
80 vmovl.u8 q15, d31
94 vmull.u16 q15, d31, d0[0]
127 vmlal.u16 q15, d23, d\dreg[\lane]
141 vqrshrn.u32 d23, q15, #16 - FRACTION_BITS
169 * q14-q15 -- intermediate sums
174 vmull.u16 q15, d19, d0[0]
188 vmlal.u16 q15, d17, d2[0]
190 vmlal.u16 q15, d21, d2[0]
194 vmlal.u16 q15, d25, d1[3
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0)
414 vqmovn.s16 d28, q15
449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0
450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2
453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2
455 vqrshrn.u16 d18, q15, #3 ; r_op2
457 vsub.i16 q15, q1
    [all...]
vp9_idct32x32_1_add_neon.asm 28 vld1.8 {q15}, [$src], $stride
40 vqadd.u8 q15, q15, $diff
52 vqsub.u8 q15, q15, $diff
64 vst1.8 {q15},[$dst], $stride
vp9_iht4x4_add_neon.asm 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use
29 vmull.s16 q15, d17, d2 ; input[1] * cospi_24_64
33 vmlsl.s16 q15, d19, d0 ; input[1] * cospi_24_64 - input[3] * cospi_8_64
39 vqrshrn.s32 d29, q15, #14
56 ; q14,q15 registers and use them as buffer during calculation.
64 vmovl.s16 q15, d16 ; expand x0 from 16 bit to 32 bit
65 vaddw.s16 q15, q15, d19 ; x0 + x3
67 vsubw.s16 q15, q15, d18 ; s7 = x0 + x3 - x
    [all...]
vp9_iht8x8_add_neon.asm 101 ; Transpose a 8x8 16bits data matrix. Datas are loaded in q8-q15.
111 vtrn.32 q13, q15
115 vtrn.16 q14, q15
119 ; loaded in q8-q15. The IDCT constants are loaded in r3 - r9. The output
120 ; will be stored back into q8-q15 registers. This macro will touch q0-q7
187 vmull.s16 q15, d17, d0
195 vmlsl.s16 q15, d25, d0
206 vqrshrn.s32 d23, q15, #14 ; >> 14
232 vadd.s16 q0, q9, q15 ; output[0] = step[0] + step[3]
235 vsub.s16 q3, q9, q15 ; output[3] = step[0] - step[3
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0)
414 vqmovn.s16 d28, q15
449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0
450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2
453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2
455 vqrshrn.u16 d18, q15, #3 ; r_op2
457 vsub.i16 q15, q1
    [all...]
vp9_idct32x32_1_add_neon.asm 28 vld1.8 {q15}, [$src], $stride
40 vqadd.u8 q15, q15, $diff
52 vqsub.u8 q15, q15, $diff
64 vst1.8 {q15},[$dst], $stride
vp9_iht4x4_add_neon.asm 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use
29 vmull.s16 q15, d17, d2 ; input[1] * cospi_24_64
33 vmlsl.s16 q15, d19, d0 ; input[1] * cospi_24_64 - input[3] * cospi_8_64
39 vqrshrn.s32 d29, q15, #14
56 ; q14,q15 registers and use them as buffer during calculation.
64 vmovl.s16 q15, d16 ; expand x0 from 16 bit to 32 bit
65 vaddw.s16 q15, q15, d19 ; x0 + x3
67 vsubw.s16 q15, q15, d18 ; s7 = x0 + x3 - x
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_mb_lpf_neon.asm 408 vmull.s8 q15, d28, d27 ; 3 * ( qs0 - ps0)
410 vaddw.s8 q15, q15, d29 ; filter + 3 * (qs0 - ps0)
414 vqmovn.s16 d28, q15
449 vaddl.u8 q15, d7, d8 ; op2 = p0 + q0
450 vmlal.u8 q15, d4, d27 ; op2 = p0 + q0 + p3 * 3
451 vmlal.u8 q15, d5, d29 ; op2 = p0 + q0 + p3 * 3 + p2 * 2
453 vaddw.u8 q15, d6 ; op2=p1 + p0 + q0 + p3 * 3 + p2 *2
455 vqrshrn.u16 d18, q15, #3 ; r_op2
457 vsub.i16 q15, q1
    [all...]
vp9_idct32x32_1_add_neon.asm 28 vld1.8 {q15}, [$src], $stride
40 vqadd.u8 q15, q15, $diff
52 vqsub.u8 q15, q15, $diff
64 vst1.8 {q15},[$dst], $stride
vp9_iht4x4_add_neon.asm 21 ; into d16-d19 registers. This macro will touch q10- q15 registers and use
29 vmull.s16 q15, d17, d2 ; input[1] * cospi_24_64
33 vmlsl.s16 q15, d19, d0 ; input[1] * cospi_24_64 - input[3] * cospi_8_64
39 vqrshrn.s32 d29, q15, #14
56 ; q14,q15 registers and use them as buffer during calculation.
64 vmovl.s16 q15, d16 ; expand x0 from 16 bit to 32 bit
65 vaddw.s16 q15, q15, d19 ; x0 + x3
67 vsubw.s16 q15, q15, d18 ; s7 = x0 + x3 - x
    [all...]
  /external/libhevc/common/arm/
ihevc_itrans_recon_8x8.s 198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
206 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3)
237 vmlal.s16 q15,d14,d0[3] @// y1 * sin1 - y3 * sin3 + y5 * cos3(part of b3)
248 vmlsl.s16 q15,d15,d0[1] @// b3 = y1 * sin1 - y3 * sin3 + y5 * cos3 - y7 * cos1(part of r3,r4)
264 vadd.s32 q13,q5,q15 @// a3 + b3(part of r3)
265 vsub.s32 q15,q5,q15 @// a3 - b3(part of r4)
274 vqrshrn.s32 d10,q15,#shift_stage1_idct @// r4 = (a3 - b3 + rnd) >> 7(shift_stage1_idct)
305 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
310 vmlsl.s16 q15,d7,d1[1] @// y1 * sin1 - y3 * sin3(part of b3
    [all...]
ihevc_itrans_recon_32x32.s 214 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3)
219 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3)
254 vmlsl.s16 q15,d14,d7[1]
260 vmlsl.s16 q15,d15,d3[3]
284 vmlsl.s16 q15,d8,d0[1] @// y1 * sin1(part of b3)
289 vmlsl.s16 q15,d9,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
328 vmlsl.s16 q15,d14,d6[3]
334 vmlal.s16 q15,d15,d5[3]
360 vmlal.s16 q15,d8,d2[1] @// y1 * sin1(part of b3)
365 vmlal.s16 q15,d9,d1[1] @// y1 * sin1 - y3 * sin3(part of b3
    [all...]
ihevc_inter_pred_chroma_vert_w16inp.s 156 vqrshrun.s16 d30,q15,#6 @rounding shift
187 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
189 vmlal.s16 q15,d1,d13
190 vmlal.s16 q15,d2,d14
192 vmlal.s16 q15,d3,d15
204 vqshrn.s32 d30,q15,#6 @right shift
213 vqrshrun.s16 d30,q15,#6 @rounding shift
233 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
235 vmlal.s16 q15,d1,d13
237 vmlal.s16 q15,d2,d1
    [all...]
ihevc_itrans_recon_16x16.s 245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
250 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3)
272 vmlsl.s16 q15,d8,d0[3]
278 vmlal.s16 q15,d9,d3[3]
320 vmlal.s16 q15,d6,d0[1] @// y1 * sin1(part of b3)
325 vmlal.s16 q15,d7,d3[1] @// y1 * sin1 - y3 * sin3(part of b3)
332 vmlsl.s16 q15,d8,d1[1]
338 vmlsl.s16 q15,d9,d2[1]
380 vadd.s32 q8,q9,q15
381 vsub.s32 q14,q9,q15
    [all...]
ihevc_inter_pred_chroma_vert.s 232 vmull.u8 q15,d5,d1 @mul with coeff 1
234 vmlsl.u8 q15,d4,d0
236 vmlal.u8 q15,d6,d2
237 vmlsl.u8 q15,d7,d3
247 vqrshrun.s16 d30,q15,#6
279 vmull.u8 q15,d5,d1 @mul with coeff 1
281 vmlsl.u8 q15,d4,d0
283 vmlal.u8 q15,d6,d2
285 vmlsl.u8 q15,d7,d3
299 vqrshrun.s16 d30,q15,#
    [all...]
ihevc_inter_pred_chroma_vert_w16inp_w16out.s 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
188 vmlal.s16 q15,d1,d13
189 vmlal.s16 q15,d2,d14
191 vmlal.s16 q15,d3,d15
202 vqshrn.s32 d30,q15,#6 @right shift
230 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
232 vmlal.s16 q15,d1,d13
234 vmlal.s16 q15,d2,d14
235 vmlal.s16 q15,d3,d15
248 vqshrn.s32 d30,q15,#6 @right shif
    [all...]
ihevc_inter_pred_chroma_vert_w16out.s 232 vmull.u8 q15,d5,d1 @mul with coeff 1
234 vmlsl.u8 q15,d4,d0
236 vmlal.u8 q15,d6,d2
237 vmlsl.u8 q15,d7,d3
252 vst1.8 {q15},[r1]! @stores the loaded value
275 vmull.u8 q15,d5,d1 @mul with coeff 1
277 vmlsl.u8 q15,d4,d0
279 vmlal.u8 q15,d6,d2
281 vmlsl.u8 q15,d7,d3
306 vst1.8 {q15},[r1]! @stores the loaded valu
    [all...]
  /external/jpeg/
jsimd_arm_neon.S 206 vmul.s16 q7, q7, q15
248 vmov.s16 q15, #(0x80 << 5)
249 vqadd.s16 q2, q2, q15
250 vqadd.s16 q3, q3, q15
251 vqadd.s16 q4, q4, q15
252 vqadd.s16 q5, q5, q15
253 vqadd.s16 q6, q6, q15
254 vqadd.s16 q7, q7, q15
255 vqadd.s16 q8, q8, q15
256 vqadd.s16 q9, q9, q15
    [all...]
  /external/libhevc/decoder/arm/
ihevcd_itrans_recon_dc_chroma.s 105 vaddw.u8 q15,q0,d2
115 vqmovun.s16 d2,q15
120 vaddw.u8 q15,q0,d16
125 vqmovun.s16 d16,q15
167 vaddw.u8 q15,q0,d2
174 vqmovun.s16 d2,q15
  /external/valgrind/main/none/tests/arm/
neon128.c 364 TESTINSN_imm("vmov.i64 q15", q15, 0xFF0000FF00FFFF00);
378 TESTINSN_imm("vmvn.i64 q15", q15, 0xFF0000FF00FFFF00);
386 TESTINSN_imm("vorr.i32 q15", q15, 0x7000000);
394 TESTINSN_imm("vbic.i32 q15", q15, 0x7000000);
398 TESTINSN_un("vmvn q10, q15", q10, q15, i32, 24)
    [all...]
  /external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/
transform_neon.S 53 vmov.u32 q15, #0 @ Initialize the maximum values for tmpInRe.
89 vmax.u32 q15, q12
91 vmax.u32 q15, q13
164 vneg.s32 q15, q8 @ -sh
166 vsub.s32 q15, q15, q0 @ -sh - 23
205 vshl.s32 q12, q12, q15
206 vshl.s32 q13, q13, q15
207 vshl.s32 q9, q9, q15
208 vshl.s32 q10, q10, q15
    [all...]
  /external/chromium_org/third_party/boringssl/src/crypto/chacha/
chacha_vec_arm.S 136 vmov q15, q13 @ v4si
213 vadd.i32 q15, q15, q8
217 veor q3, q15, q3
263 vadd.i32 q15, q15, q14
268 veor q6, q15, q6
315 vext.32 q15, q15, q15, #
    [all...]
  /external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/
bsaes-armv7.S 101 veor q15, q5, q9
105 vtbl.8 d10, {q15}, d16
106 vtbl.8 d11, {q15}, d17
243 veor q15, q11, q8
249 vand q15, q15, q12
257 veor q11, q11, q15
260 veor q9, q9, q15
266 vorr q15, q3, q5
269 veor q8, q8, q15
    [all...]
  /external/openssl/crypto/aes/asm/
bsaes-armv7.S 100 veor q15, q5, q9
104 vtbl.8 d10, {q15}, d16
105 vtbl.8 d11, {q15}, d17
242 veor q15, q11, q8
248 vand q15, q15, q12
256 veor q11, q11, q15
259 veor q9, q9, q15
265 vorr q15, q3, q5
268 veor q8, q8, q15
    [all...]

Completed in 788 milliseconds

1 2 3 4 5 6