HomeSort by relevance Sort by last modified time
    Searched refs:q6 (Results 1 - 25 of 174) sorted by null

1 2 3 4 5 6 7

  /external/llvm/test/MC/ARM/
neon-shuffle-encoding.s 95 vtrn.8 q14, q6
96 vtrn.i8 q14, q6
97 vtrn.u8 q14, q6
98 vtrn.p8 q14, q6
99 vtrn.16 q14, q6
100 vtrn.i16 q14, q6
101 vtrn.u16 q14, q6
102 vtrn.p16 q14, q6
103 vtrn.32 q14, q6
104 vtrn.i32 q14, q6
    [all...]
neon-shiftaccum-encoding.s 8 vsra.s16 q3, q6, #16
17 vsra.u32 q3, q6, #21
26 vsra.s16 q6, #16
35 vsra.u32 q6, #21
43 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x5c,0x61,0x90,0xf2]
52 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0x5c,0x61,0xab,0xf3]
60 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x5c,0xc1,0x90,0xf2]
69 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0x5c,0xc1,0xab,0xf3
    [all...]
neont2-shiftaccum-encoding.s 10 vsra.s16 q3, q6, #16
19 vsra.u32 q3, q6, #21
28 vsra.s16 q6, #16
37 vsra.u32 q6, #21
45 @ CHECK: vsra.s16 q3, q6, #16 @ encoding: [0x90,0xef,0x5c,0x61]
54 @ CHECK: vsra.u32 q3, q6, #21 @ encoding: [0xab,0xff,0x5c,0x61]
62 @ CHECK: vsra.s16 q6, q6, #16 @ encoding: [0x90,0xef,0x5c,0xc1]
71 @ CHECK: vsra.u32 q6, q6, #21 @ encoding: [0xab,0xff,0x5c,0xc1
    [all...]
  /external/chromium_org/third_party/boringssl/linux-arm/crypto/aes/
bsaes-armv7.S 104 veor q10, q6, q9
114 vshr.u64 q10, q6, #1
124 veor q6, q6, q10
142 veor q11, q11, q6
147 veor q6, q6, q11
166 veor q11, q11, q6
171 veor q6, q6, q1
    [all...]
  /external/openssl/crypto/aes/asm/
bsaes-armv7.S 103 veor q10, q6, q9
113 vshr.u64 q10, q6, #1
123 veor q6, q6, q10
141 veor q11, q11, q6
146 veor q6, q6, q11
165 veor q11, q11, q6
170 veor q6, q6, q1
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp8/common/arm/neon/
idct_dequant_full_2x_neon.c 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
89 q6 = vqdmulhq_n_s16(q4, sinpi8sqrt2);
103 q2 = vqsubq_s16(q6, q5);
108 q6 = vqsubq_s16(q11, q2);
111 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6));
138 q6 = vqsubq_s16(q3, q8);
143 q6 = vrshrq_n_s16(q6, 3);
146 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6));
157 q6 = vreinterpretq_s16_u16(vaddw_u8(vreinterpretq_u16_s16(q2tmp3.val[0])
    [all...]
mbloopfilter_neon.c 21 uint8x16_t q6, // p0
41 q13u8 = vabdq_u8(q5, q6);
51 q12u8 = vabdq_u8(q6, q7);
69 q6 = veorq_u8(q6, q0u8);
80 vget_low_s8(vreinterpretq_s8_u8(q6)));
82 vget_high_s8(vreinterpretq_s8_u8(q6)));
111 q6s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q13s8);
162 uint8x16_t q5, q6, q7, q8, q9, q10; local
176 q6 = vld1q_u8(src)
213 uint8x16_t q5, q6, q7, q8, q9, q10; local
303 uint8x16_t q5, q6, q7, q8, q9, q10; local
470 uint8x16_t q5, q6, q7, q8, q9, q10; local
    [all...]
loopfilter_neon.c 21 uint8x16_t q6, // p0
38 q13u8 = vabdq_u8(q5, q6);
48 q9 = vabdq_u8(q6, q7);
65 q6 = veorq_u8(q6, q10);
74 vget_low_s8(vreinterpretq_s8_u8(q6)));
76 vget_high_s8(vreinterpretq_s8_u8(q6)));
109 q11s8 = vqaddq_s8(vreinterpretq_s8_u8(q6), q2s8);
133 uint8x16_t q5, q6, q7, q8, q9, q10; local
146 q6 = vld1q_u8(src)
179 uint8x16_t q5, q6, q7, q8, q9, q10; local
311 uint8x16_t q5, q6, q7, q8, q9, q10; local
426 uint8x16_t q5, q6, q7, q8, q9, q10; local
    [all...]
  /ndk/tests/build/b14825026-aarch64-FP_LO_REGS/jni/
idct_dequant_full_2x_neon.c 24 int16x8_t q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11; local
89 q6 = vqdmulhq_n_s16(q4, sinpi8sqrt2);
103 q2 = vqsubq_s16(q6, q5);
108 q6 = vqsubq_s16(q11, q2);
111 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6));
138 q6 = vqsubq_s16(q3, q8);
143 q6 = vrshrq_n_s16(q6, 3);
146 q2tmp0 = vtrnq_s32(vreinterpretq_s32_s16(q4), vreinterpretq_s32_s16(q6));
157 q6 = vreinterpretq_s16_u16(vaddw_u8(vreinterpretq_u16_s16(q2tmp3.val[0])
    [all...]
  /external/libhevc/common/arm/
ihevc_intra_pred_chroma_planar.s 180 vmull.u8 q6, d5, d0 @(row+1) * src[nt-1]
182 vmlal.u8 q6, d6, d10 @(nt-1-row) * src[2nt+1+col]
184 vmlal.u8 q6, d8, d1 @(col+1) * src[3nt+1]
186 vmlal.u8 q6, d30, d4 @(nt-1-col) * src[2nt-1-row]
202 vadd.i16 q6, q6, q8 @add (nt)
204 vshl.s16 q6, q6, q7 @shr
219 vmovn.i16 d12, q6
247 vmull.u8 q6, d18, d0 @(row+1) * src[nt-1
    [all...]
ihevc_inter_pred_luma_vert_w16inp_w16out.s 190 vmull.s16 q6,d3,d23
192 vmlal.s16 q6,d2,d22
194 vmlal.s16 q6,d4,d24
195 vmlal.s16 q6,d5,d25
196 vmlal.s16 q6,d6,d26
197 vmlal.s16 q6,d7,d27
198 vmlal.s16 q6,d16,d28
199 vmlal.s16 q6,d17,d29
220 vsub.s32 q6, q6, q1
    [all...]
ihevc_itrans_recon_4x4.s 159 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2]
161 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
164 vadd.s32 q8,q6,q4 @((e[1] + o[1])
165 vsub.s32 q9,q6,q4 @((e[1] - o[1])
189 vsubl.s16 q6,d0,d2 @pi2_src[0] - pi2_src[2]
191 vshl.s32 q6,q6,#6 @e[1] = 64*(pi2_src[0] - pi2_src[2])
195 vadd.s32 q8,q6,q4 @((e[1] + o[1])
196 vsub.s32 q9,q6,q4 @((e[1] - o[1]
    [all...]
ihevc_itrans_recon_4x4_ttype1.s 157 vmull.s16 q6,d2,d4[1] @ 55 * pi2_src[2]
158 vmlsl.s16 q6,d1,d4[2] @ 55 * pi2_src[2] - 74 * pi2_src[1]
159 vmlsl.s16 q6,d3,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
160 vmlal.s16 q6,d0,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
165 vqrshrn.s32 d17,q6,#shift_stage1_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idct
197 vmull.s16 q6,d16,d4[1] @ 55 * pi2_src[2]
198 vmlsl.s16 q6,d15,d4[2] @ - 74 * pi2_src[1] + 55 * pi2_src[2]
199 vmlsl.s16 q6,d17,d4[0] @ - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
200 vmlal.s16 q6,d14,d4[3] @pi2_out[3] = 84 * pi2_src[0] - 74 * pi2_src[1] + 55 * pi2_src[2] - 29 * pi2_src[3]
205 vqrshrn.s32 d3,q6,#shift_stage2_idct @ (pi2_out[3] + rounding ) >> shift_stage1_idc
    [all...]
ihevc_inter_pred_filters_luma_vert_w16inp.s 180 vmull.s16 q6,d3,d23
182 vmlal.s16 q6,d2,d22
184 vmlal.s16 q6,d4,d24
185 vmlal.s16 q6,d5,d25
186 vmlal.s16 q6,d6,d26
187 vmlal.s16 q6,d7,d27
188 vmlal.s16 q6,d16,d28
189 vmlal.s16 q6,d17,d29
209 vqshrn.s32 d12, q6, #6
233 vqrshrun.s16 d12,q6,#
    [all...]
ihevc_intra_pred_luma_planar.s 183 vdup.16 q6, r4 @(1)
188 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1]
191 vmlal.u8 q6, d8, d1 @(1)(col+1) * src[3nt+1]
194 vmlal.u8 q6, d6, d3 @(1)(nt-1-row) * src[2nt+1+col]
197 vmlal.u8 q6, d9, d20 @(1)(nt-1-col) * src[2nt-1-row]
213 vshl.s16 q6, q6, q7 @(1)shr
218 vmovn.i16 d12, q6 @(1)
332 vdup.16 q6, r4 @(1n)(1)
350 vmlal.u8 q6, d5, d0 @(1)(row+1) * src[nt-1
    [all...]
ihevc_itrans_recon_8x8.s 296 vmov.s16 q6,#0
375 vadd.s32 q6,q10,q11 @// c0 = y0 * cos4 + y4 * cos4(part of a0 and a1)
383 vadd.s32 q8,q6,q4 @// a0 = c0 + d0(part of e0,e7)
384 vsub.s32 q6,q6,q4 @// a3 = c0 - d0(part of e3,e4)
397 vadd.s32 q13,q6,q15 @// a3 + b3(part of e3)
398 vsub.s32 q15,q6,q15 @// a3 - b3(part of r4)
535 vadd.s32 q6,q10,q7 @// a0 = c0 + d0(part of r0,r7)
538 vadd.s32 q0,q6,q12
541 vsub.s32 q12,q6,q1
    [all...]
  /external/libvpx/libvpx/vp8/common/arm/neon/
sixtappredict4x4_neon.asm 66 vld1.u8 {q6}, [r0], r1
88 vmov q4, q3 ;keep original src data in q4 q6
89 vmov q6, q5
94 vshr.u64 q10, q6, #8
101 vshr.u64 q5, q6, #32
108 vshr.u64 q10, q6, #16
115 vshr.u64 q5, q6, #24
131 vld1.u8 {q6}, [r0], r1
154 vmov q4, q3 ;keep original src data in q4 q6
155 vmov q6, q
    [all...]
idct_dequant_full_2x_neon.asm 57 ; q6: 4 * sinpi : c1/temp1
61 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2
87 vqsub.s16 q2, q6, q5
96 vqsub.s16 q6, q11, q2
100 vtrn.32 q4, q6
103 vtrn.16 q6, q7
107 ; q6: l 2, 6,10,14 r 2, 6,10,14
119 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2
120 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2
142 vqsub.s16 q6, q3, q
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp8/common/arm/neon/
sixtappredict4x4_neon.asm 66 vld1.u8 {q6}, [r0], r1
88 vmov q4, q3 ;keep original src data in q4 q6
89 vmov q6, q5
94 vshr.u64 q10, q6, #8
101 vshr.u64 q5, q6, #32
108 vshr.u64 q10, q6, #16
115 vshr.u64 q5, q6, #24
131 vld1.u8 {q6}, [r0], r1
154 vmov q4, q3 ;keep original src data in q4 q6
155 vmov q6, q
    [all...]
idct_dequant_full_2x_neon.asm 57 ; q6: 4 * sinpi : c1/temp1
61 vqdmulh.s16 q6, q4, d0[2] ; sinpi8sqrt2
87 vqsub.s16 q2, q6, q5
96 vqsub.s16 q6, q11, q2
100 vtrn.32 q4, q6
103 vtrn.16 q6, q7
107 ; q6: l 2, 6,10,14 r 2, 6,10,14
119 vqadd.s16 q2, q4, q6 ; a1 = 0 + 2
120 vqsub.s16 q3, q4, q6 ; b1 = 0 - 2
142 vqsub.s16 q6, q3, q
    [all...]
  /external/chromium_org/third_party/libjpeg_turbo/simd/
jsimd_arm_neon.S 106 INT32 q1, q2, q3, q4, q5, q6, q7; \
121 q6 = MULTIPLY(q5, FIX_1_175875602_MINUS_1_961570560) + \ define
127 q4 = q6; \
129 q6 += MULTIPLY(row5, -FIX_2_562915447) + \
136 q1 = q1 + q6; \
144 q1 = q1 - q6; \
147 q1 = q1 - q6; \
148 q6 = MULTIPLY(row2, FIX_0_541196100_PLUS_0_765366865) + \ define
156 q2 = q1 + q6; \
157 q1 = q1 - q6; \
    [all...]
  /external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/
vp9_idct32x32_add_neon.asm 103 ; q6-q9 contain the results (out[j * 32 + 0-31])
115 vrshr.s16 q6, q6, #6
120 vaddw.u8 q6, q6, d8
125 vqmovun.s16 d8, q6
137 ; q6-q9 contain the results (out[j * 32 + 0-31])
149 vrshr.s16 q6, q6, #6
154 vaddw.u8 q6, q6, d
    [all...]
  /external/libvpx/libvpx/vp9/common/arm/neon/
vp9_idct32x32_add_neon.asm 103 ; q6-q9 contain the results (out[j * 32 + 0-31])
115 vrshr.s16 q6, q6, #6
120 vaddw.u8 q6, q6, d8
125 vqmovun.s16 d8, q6
137 ; q6-q9 contain the results (out[j * 32 + 0-31])
149 vrshr.s16 q6, q6, #6
154 vaddw.u8 q6, q6, d
    [all...]
  /hardware/intel/common/omx-components/videocodec/libvpx_internal/libvpx/vp9/common/arm/neon/
vp9_idct32x32_add_neon.asm 103 ; q6-q9 contain the results (out[j * 32 + 0-31])
115 vrshr.s16 q6, q6, #6
120 vaddw.u8 q6, q6, d8
125 vqmovun.s16 d8, q6
137 ; q6-q9 contain the results (out[j * 32 + 0-31])
149 vrshr.s16 q6, q6, #6
154 vaddw.u8 q6, q6, d
    [all...]
  /frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/
armVCM4P10_InterpolateLuma_HalfHor4x4_unsafe_s.S 40 VADDL.U8 q6,d12,d13
52 VADDL.U8 q6,d12,d13
64 VADDL.U8 q6,d12,d13
76 VADDL.U8 q6,d12,d13

Completed in 1860 milliseconds

1 2 3 4 5 6 7