/external/llvm/test/MC/ARM/ |
neon-minmax-encoding.s | 22 vmax.u8 q10, q11, q12 30 vmax.u8 q11, q2 52 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0xe8,0x46,0x46,0xf3] 59 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0xc4,0x66,0x46,0xf3] 84 vmin.u8 q10, q11, q12 92 vmin.u8 q11, q2 114 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0xf8,0x46,0x46,0xf3] 121 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0xd4,0x66,0x46,0xf3 [all...] |
neont2-minmax-encoding.s | 24 vmax.u8 q10, q11, q12 32 vmax.u8 q11, q2 54 @ CHECK: vmax.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xe8,0x46] 61 @ CHECK: vmax.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xc4,0x66] 86 vmin.u8 q10, q11, q12 94 vmin.u8 q11, q2 116 @ CHECK: vmin.u8 q10, q11, q12 @ encoding: [0x46,0xff,0xf8,0x46] 123 @ CHECK: vmin.u8 q11, q11, q2 @ encoding: [0x46,0xff,0xd4,0x66 [all...] |
neont2-mul-accum-encoding.s | 45 vqdmlal.s16 q11, d11, d7[0] 46 vqdmlal.s16 q11, d11, d7[1] 47 vqdmlal.s16 q11, d11, d7[2] 48 vqdmlal.s16 q11, d11, d7[3] 52 @ CHECK: vqdmlal.s16 q11, d11, d7[0] @ encoding: [0xdb,0xef,0x47,0x63] 53 @ CHECK: vqdmlal.s16 q11, d11, d7[1] @ encoding: [0xdb,0xef,0x4f,0x63] 54 @ CHECK: vqdmlal.s16 q11, d11, d7[2] @ encoding: [0xdb,0xef,0x67,0x63] 55 @ CHECK: vqdmlal.s16 q11, d11, d7[3] @ encoding: [0xdb,0xef,0x6f,0x63] 85 vmlsl.u16 q11, d25, d1[3] 93 @ CHECK: vmlsl.u16 q11, d25, d1[3] @ encoding: [0xd9,0xff,0xe9,0x66 [all...] |
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
armVCM4P10_InterpolateLuma_HalfDiagVerHor4x4_unsafe_s.S | 51 VADDL.U8 q11,d4,d14 59 VMLAL.U8 q11,d8,d31 63 VMLAL.U8 q11,d10,d31 68 VMLSL.U8 q11,d6,d30 73 VMLSL.U8 q11,d12,d30
|
armVCM4P10_Interpolate_Chroma_s.S | 74 VMULL.U8 q11,d16,d12 78 VMLAL.U8 q11,d17,d13 84 VMLAL.U8 q11,d18,d14 89 VMLAL.U8 q11,d19,d15 94 VQRSHRN.U16 d20,q11,#6
|
/external/libhevc/common/arm/ |
ihevc_intra_pred_filters_luma_mode_11_to_17.s | 266 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 287 vmovn.s16 d6, q11 294 vshr.s16 q11, q11, #5 302 vqmovn.s16 d8, q11 330 vmull.u8 q11, d16, d7 @mul (row 1) 331 vmlal.u8 q11, d17, d6 @mul (row 1) 338 vrshrn.i16 d22, q11, #5 @round shft (row 1) 374 vmull.u8 q11, d16, d7 @mul (row 5) 375 vmlal.u8 q11, d17, d6 @mul (row 5 [all...] |
ihevc_weighted_pred_bi_default.s | 279 vqadd.s16 q11,q14,q15 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) 281 vqadd.s16 q11,q11,q0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) 285 vqshrun.s16 d21,q11,#7 336 vqadd.s16 q11,q14,q15 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) 337 vqadd.s16 q11,q11,q0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) 339 vqshrun.s16 d21,q11,#7 395 vqadd.s16 q11,q1,q2 409 vqadd.s16 q11,q11,q [all...] |
ihevc_inter_pred_chroma_copy_w16out.s | 142 vmovl.u8 q11,d22 @vmovl_u8(vld1_u8(pu1_src_tmp) 144 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 183 vmovl.u8 q11,d22 @vmovl_u8(vld1_u8(pu1_src_tmp) 185 vshl.i64 q11,q11,#6 @vshlq_n_s64(temp, 6) 215 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp) 220 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6) 250 vmovl.u8 q11,d14 @vmovl_u8(vld1_u8(pu1_src_tmp) 269 vshl.i16 q3,q11,#6 @vshlq_n_s16(tmp, 6 [all...] |
ihevc_intra_pred_chroma_horz.s | 213 @vqadd.s16 q11,q13,q12 216 @vqmovun.s16 d22,q11 227 @vqadd.s16 q11,q13,q12 230 @vqmovun.s16 d22,q11 293 vqadd.s16 q11,q13,q12 296 vqmovun.s16 d22,q11 333 vqadd.s16 q11,q13,q12 335 vqmovun.s16 d22,q11
|
ihevc_intra_pred_chroma_mode_3_to_9.s | 151 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 168 vmovn.s16 d6, q11 175 vshr.s16 q11, q11, #5 181 vqmovn.s16 d8, q11 217 vmull.u8 q11, d16, d7 @mul (row 1) 218 vmlal.u8 q11, d17, d6 @mul (row 1) 225 vrshrn.i16 d22, q11, #5 @round shft (row 1) 263 vmull.u8 q11, d16, d7 @mul (row 5) 264 vmlal.u8 q11, d17, d6 @mul (row 5 [all...] |
ihevc_intra_pred_luma_horz.s | 208 vqadd.s16 q11,q13,q12 211 vqmovun.s16 d22,q11 222 vqadd.s16 q11,q13,q12 225 vqmovun.s16 d22,q11 286 vqadd.s16 q11,q13,q12 289 vqmovun.s16 d22,q11 326 vqadd.s16 q11,q13,q12 328 vqmovun.s16 d22,q11
|
ihevc_intra_pred_chroma_mode_27_to_33.s | 218 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 222 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 242 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 297 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 301 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 321 vrshrn.i16 d22,q11,#5 @(viii)shift_res = vrshrn_n_u16(add_res, 5) 360 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 364 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 380 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 436 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_filters_luma_mode_19_to_25.s | 327 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 331 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 350 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 404 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 407 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 429 vrshrn.i16 d22,q11,#5 @(viii)shift_res = vrshrn_n_u16(add_res, 5) 469 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 472 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 487 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 545 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_luma_mode_27_to_33.s | 220 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 224 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 244 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 298 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract) 302 vmlal.u8 q11,d21,d25 @(viii)vmull_u8(ref_main_idx_1, dup_const_fract) 322 vrshrn.i16 d22,q11,#5 @(viii)shift_res = vrshrn_n_u16(add_res, 5) 361 vmull.u8 q11,d20,d24 @(iv)vmull_u8(ref_main_idx, dup_const_32_fract) 365 vmlal.u8 q11,d21,d25 @(iv)vmull_u8(ref_main_idx_1, dup_const_fract) 381 vrshrn.i16 d22,q11,#5 @(iv)shift_res = vrshrn_n_u16(add_res, 5) 435 vmull.u8 q11,d20,d24 @(viii)vmull_u8(ref_main_idx, dup_const_32_fract [all...] |
ihevc_intra_pred_chroma_planar.s | 227 vmull.u8 q11, d5, d0 @(row+1) * src[nt-1] 229 vmlal.u8 q11, d6, d10 @(nt-1-row) * src[2nt+1+col] 231 vmlal.u8 q11, d8, d1 @(col+1) * src[3nt+1] 233 vmlal.u8 q11, d30, d4 @(nt-1-col) * src[2nt-1-row] 245 vadd.i16 q11, q11, q8 @add (nt) 253 vshl.s16 q11, q11, q7 @shr 272 vmovn.i16 d22, q11
|
ihevc_intra_pred_filters_chroma_mode_11_to_17.s | 262 vmull.s8 q11, d30, d31 @(col+1)*intra_pred_angle [0:7](col) 279 vmovn.s16 d6, q11 286 vshr.s16 q11, q11, #5 294 vqmovn.s16 d8, q11 331 vmull.u8 q11, d16, d7 @mul (row 1) 332 vmlal.u8 q11, d17, d6 @mul (row 1) 339 vrshrn.i16 d22, q11, #5 @round shft (row 1) 377 vmull.u8 q11, d16, d7 @mul (row 5) 378 vmlal.u8 q11, d17, d6 @mul (row 5 [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon_Blend.S | 44 * At entry q0-q3 contain the RGBA data from the destination buffer, and q8-q11 46 * into one colour component per register (if necessary). q3 and q11 contain 72 vmov q3, q11 82 vmvn q7, q11 123 vqadd.u8 q3, q11 137 vmull.u8 q11, d14, d22 154 vaddw.u8 q11, d14 163 vrshrn.u16 d22, q11, #8 169 vqadd.u8 q3, q11 259 vmvn q11, q1 [all...] |
/external/libavc/common/arm/ |
ih264_inter_pred_luma_vert_qpel_a9q.s | 118 vmov.u16 q11, #20 @ Filter coeff 0x14 into Q11 138 vmla.u16 q7, q6, q11 @ temp += temp1 * 20 141 vmla.u16 q10, q9, q11 @ temp4 += temp3 * 20 148 vmla.u16 q8, q6, q11 155 vmla.u16 q7, q6, q11 164 vmla.u16 q9, q6, q11 171 vmla.u16 q8, q6, q11 181 vmla.u16 q7, q6, q11 187 vmla.u16 q9, q6, q11 [all...] |
ih264_intra_pred_luma_8x8_a9q.s | 119 vaddl.u8 q11, d1, d5 125 vadd.u16 q13, q11, q13 471 vaddl.u8 q11, d1, d3 475 vadd.u16 q13, q11, q13 563 vaddl.u8 q11, d1, d3 567 vadd.u16 q13, q11, q13 653 vaddl.u8 q11, d1, d3 657 vadd.u16 q13, q11, q13 660 vqrshrun.s16 d5, q11, #1 669 vmov.8 q11, q [all...] |
/external/libvpx/libvpx/vpx_dsp/arm/ |
vpx_convolve_avg_neon_asm.asm | 40 vld1.8 {q10-q11}, [r6@128], r4 44 vrhadd.u8 q3, q3, q11 55 vld1.8 {q10-q11}, [r6@128], r3 63 vrhadd.u8 q3, q3, q11
|
/external/libjpeg-turbo/simd/ |
jsimd_arm_neon.S | 239 * 3 | d22 | d23 ( q11 ) 255 vmul.s16 q11, q11, q3 509 vqrshrn.s16 d19, q11, #2 522 vtrn.16 q10, q11 543 vadd.u8 q11, q11, q0 728 * 3 | d22 | d23 ( q11 ) 744 vmul.s16 q11, q11, q [all...] |
/external/boringssl/src/crypto/curve25519/asm/ |
x25519-asm-arm.S | 105 vshr.u64 q11,q11,#3 116 vand q11,q11,q3 126 vadd.i64 q11,q11,q13 128 vadd.i64 q15,q11,q0 144 vsub.i64 q11,q11,q13 183 vadd.i64 q0,q11,q [all...] |
/external/boringssl/linux-arm/crypto/modes/ |
ghash-armv4.S | 395 vmull.p8 q11, d26, d22 @ G = A*B2 400 veor q9, q9, q11 @ M = G + H 407 vmull.p8 q11, d26, d22 @ K = A*B4 419 vext.8 q11, q11, q11, #12 422 veor q10, q10, q11 433 vmull.p8 q11, d28, d22 @ G = A*B2 438 veor q9, q9, q11 @ M = G + H 445 vmull.p8 q11, d28, d22 @ K = A*B [all...] |
/external/valgrind/none/tests/arm/ |
neon128.stdout.exp | 41 vmvn.i32 q11, #0x7FF :: Qd 0xfffff800 0xfffff800 0xfffff800 0xfffff800 42 vmvn.i32 q11, #0x7FF :: Qd 0xfffff800 0xfffff800 0xfffff800 0xfffff800 90 vmov q10, q11 :: Qd 0x00070007 0x00070007 0x00070007 0x00070007 Qm (i16)0x00000007 91 vmov q10, q11 :: Qd 0x262d2d2a 0x252a2e2b 0x242c2b2b 0x232f2e2f Qm (i16)0x00000007 104 vadd.i32 q10, q11, q12 :: Qd 0x00000090 0x00000090 0x00000090 0x00000090 Qm (i32)0x00000018 Qn (i32)0x00000078 116 vsub.i32 q10, q11, q12 :: Qd 0xffffffa0 0xffffffa0 0xffffffa0 0xffffffa0 Qm (i32)0x00000018 Qn (i32)0x00000078 121 vand q10, q11, q12 :: Qd 0xecececec 0xecececec 0xecececec 0xecececec Qm (i8)0x000000fe Qn (i8)0x000000ed 126 vbic q10, q11, q12 :: Qd 0x12121212 0x12121212 0x12121212 0x12121212 Qm (i8)0x000000fe Qn (i8)0x000000ed 141 veor q10, q11, q12 :: Qd 0x13131313 0x13131313 0x13131313 0x13131313 Qm (i8)0x000000fe Qn (i8)0x000000ed 150 vbsl q10, q11, q12 :: Qd 0xfcfcfcfc 0xfcfcfcfc 0xfcfcfcfc 0xfcfcfcfc Qm (i8)0x000000fe Qn (i8)0x000000e [all...] |
/external/libavc/encoder/arm/ |
ih264e_evaluate_intra_chroma_modes_a9q.s | 179 vabdl.u8 q11, d0, d28 193 vabal.u8 q11, d2, d30 215 vabal.u8 q11, d0, d28 229 vabal.u8 q11, d2, d30 239 vadd.i16 q12, q11, q12 @/DC 303 vdup.16 q11, d9[2] @/HORIZONTAL VALUE ROW=1;
|