/external/llvm/test/MC/ARM/ |
neont2-pairwise-encoding.s | 21 vpaddl.s8 q4, q7 24 vpaddl.u8 q7, q4 34 @ CHECK: vpaddl.s8 q4, q7 @ encoding: [0xb0,0xff,0x4e,0x82] 37 @ CHECK: vpaddl.u8 q7, q4 @ encoding: [0xb0,0xff,0xc8,0xe2] 48 vpadal.s8 q4, q10 61 @ CHECK: vpadal.s8 q4, q10 @ encoding: [0xb0,0xff,0x64,0x86]
|
neon-mul-encoding.s | 118 vmul.s32 q4, d3[1] 134 vmul.s32 q5, q4, d3[1] 135 vmul.u32 q4, q5, d4[0] 150 @ CHECK: vmul.i32 q4, q4, d3[1] @ encoding: [0x63,0x88,0xa8,0xf3] 166 @ CHECK: vmul.i32 q5, q4, d3[1] @ encoding: [0x63,0xa8,0xa8,0xf3] 167 @ CHECK: vmul.i32 q4, q5, d4[0] @ encoding: [0x44,0x88,0xaa,0xf3]
|
neon-sub-encoding.s | 22 vsub.i64 q4, q7 44 @ CHECK: vsub.i64 q4, q4, q7 @ encoding: [0x4e,0x88,0x38,0xf3] 145 vhsub.u8 q4, q9 158 @ CHECK: vhsub.u8 q4, q4, q9 @ encoding: [0x62,0x82,0x08,0xf3]
|
/frameworks/av/media/libstagefright/codecs/on2/h264dec/omxdl/arm_neon/vc/m4p10/src_gcc/ |
omxVCM4P10_TransformDequantLumaDCFromPair_s.S | 47 VMOV.I32 q4,#0x2 51 VMLAL.S16 q4,d1,d5 55 VSHRN.I32 d1,q4,#2
|
armVCM4P10_InterpolateLuma_HalfDiagHorVer4x4_unsafe_s.S | 133 VMUL.I32 q4,q0,q14 138 VSUB.I32 q5,q5,q4 139 VMUL.I32 q4,q0,q14 144 VSUB.I32 q6,q6,q4 145 VMUL.I32 q4,q0,q14 150 VSUB.I32 q2,q2,q4
|
/external/libvpx/libvpx/vp9/common/mips/dspr2/ |
vp9_loopfilter_macros_dspr2.h | 369 "preceu.ph.qbl %[q4_l], %[q4] \n\t" \ 379 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), [q7] "r" (q7) \ 409 "preceu.ph.qbr %[q4_r], %[q4] \n\t" \ 419 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), [q7] "r" (q7) \ 450 "precr.qb.ph %[q4], %[q4_l], %[q4_r] \n\t" \ 456 [q3] "=&r" (q3),[q4] "=&r" (q4), \
|
vp9_loopfilter_filters_dspr2.h | 533 const uint32_t q4 = *oq4, q5 = *oq5, q6 = *oq6, q7 = *oq7; local 541 /* addition of p6,p5,p4,p3,p2,p1,p0,q0,q1,q2,q3,q4,q5,q6 553 "addu.ph %[add_p6toq6], %[add_p6toq6], %[q4] \n\t" 562 [q4] "r" (q4), [q5] "r" (q5), [q6] "r" (q6), 576 "subu.ph %[res_op6], %[res_op6], %[q4] \n\t" 590 "subu.ph %[res_op5], %[res_op5], %[q4] \n\t" 602 "subu.ph %[res_op4], %[res_op4], %[q4] \n\t" 612 "subu.ph %[res_op3], %[res_op3], %[q4] \n\t" 618 p0 + q0 + q1 + q2 + q3 + q4, 4) * [all...] |
vp9_mblpf_vert_loopfilter_dspr2.c | 34 uint32_t p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; local 91 "lw %[q4], +4(%[s4]) \n\t" 95 [q5] "=&r" (q5), [q4] "=&r" (q4) 213 /* transpose q4, q5, q6, q7 219 q4 q4_0 q4_1 q4_2 q4_3 226 q4 q4_0 q5_0 q26_0 q7_0 231 "precrq.qb.ph %[prim3], %[q5], %[q4] \n\t" 232 "precr.qb.ph %[prim4], %[q5], %[q4] \n\t" 235 "precr.qb.ph %[q4], %[prim1], %[prim2] \n\t [all...] |
/frameworks/rs/cpu_ref/ |
rsCpuIntrinsics_neon.S | 33 vpush {q4-q7} 59 vmovl.u8 q4, d28 102 vpop {q4-q7} 122 vpush {q4-q7} 140 vmovl.u16 q4, d3 142 vcvt.f32.s32 q4, q4 146 vmla.f32 q11, q4, d0[0] 157 vpop {q4-q7} 175 vpush {q4-q7 [all...] |
/external/libvpx/libvpx/vp8/common/arm/neon/ |
buildintrapredictorsmby_neon.asm | 62 vpaddl.u32 q4, q3 244 vmull.u8 q4, d16, d0 247 vsub.s16 q4, q4, q7 264 vqadd.s16 q8, q0, q4 267 vqadd.s16 q10, q1, q4 270 vqadd.s16 q12, q2, q4 273 vqadd.s16 q14, q3, q4 345 vpaddl.u32 q4, q3 527 vmull.u8 q4, d16, d [all...] |
sixtappredict8x8_neon.asm | 72 vld1.u8 {q4}, [r0], r1 134 vmull.u8 q4, d29, d3 141 vqadd.s16 q8, q4 153 vld1.u8 {q4}, [r0], r1 164 ;vld1.u8 {q4}, [r0], r1 230 vmull.u8 q4, d28, d3 236 vqadd.s16 q9, q4 273 vmull.u8 q4, d19, d0 278 vmlsl.u8 q4, d20, d1 283 vmlsl.u8 q4, d23, d [all...] |
sixtappredict8x4_neon.asm | 69 vld1.u8 {q4}, [r0], r1 130 vmull.u8 q4, d29, d3 135 vqadd.s16 q8, q4 146 vld1.u8 {q4}, [r0], r1 217 vmull.u8 q4, d28, d3 223 vqadd.s16 q9, q4 255 vmull.u8 q4, d23, d0 260 vmlsl.u8 q4, d24, d1 265 vmlsl.u8 q4, d27, d4 270 vmlal.u8 q4, d25, d [all...] |
vp8_subpixelvariance8x8_neon.asm | 47 vld1.u8 {q4}, [r0], r1 70 vld1.u8 {q4}, [r0], r1 116 vmull.u8 q4, d25, d0 125 vmlal.u8 q4, d26, d1 134 vqrshrn.u16 d25, q4, #7 170 vsubl.u8 q4, d22, d0 ;calculate diff 176 vpadal.s16 q8, q4 ;sum
|
bilinearpredict8x4_neon.asm | 44 vld1.u8 {q4}, [r0], r1 88 vmull.u8 q4, d25, d0 93 vmlal.u8 q4, d26, d1 100 vqrshrn.u16 d5, q4, #7
|
sixtappredict16x16_neon.asm | 168 vmull.u8 q4, d28, d3 ;(src_ptr[1] * vp8_filter[3]) 172 vqadd.s16 q8, q4 ;sum of all (src_data*filter_parameters) 233 vmull.u8 q4, d19, d0 238 vmlsl.u8 q4, d20, d1 243 vmlsl.u8 q4, d23, d4 248 vmlal.u8 q4, d21, d2 253 vmlal.u8 q4, d24, d5 265 vqadd.s16 q8, q4 383 vst1.u8 {q4}, [r4], r5 423 vmull.u8 q4, d19, d [all...] |
bilinearpredict16x16_neon.asm | 141 vmull.u8 q4, d15, d0 153 vmlal.u8 q4, d15, d1 164 vqrshrn.u16 d19, q4, #7 192 vmull.u8 q4, d25, d0 201 vmlal.u8 q4, d27, d1 212 vqrshrn.u16 d5, q4, #7 316 vmull.u8 q4, d25, d0 325 vmlal.u8 q4, d27, d1 334 vqrshrn.u16 d5, q4, #7
|
vp8_subpixelvariance16x16_neon.asm | 149 vmull.u8 q4, d15, d0 161 vmlal.u8 q4, d15, d1 172 vqrshrn.u16 d19, q4, #7 203 vmull.u8 q4, d25, d0 212 vmlal.u8 q4, d27, d1 223 vqrshrn.u16 d5, q4, #7 330 vmull.u8 q4, d25, d0 339 vmlal.u8 q4, d27, d1 348 vqrshrn.u16 d5, q4, #7
|
bilinearpredict8x8_neon.asm | 44 vld1.u8 {q4}, [r0], r1 67 vld1.u8 {q4}, [r0], r1 114 vmull.u8 q4, d25, d0 123 vmlal.u8 q4, d26, d1 132 vqrshrn.u16 d5, q4, #7
|
/hardware/samsung_slsi/exynos5/libswconverter/ |
csc_interleave_memcpy_neon.s | 78 vld1.8 {q4}, [r11]! 95 vst2.8 {q4, q5}, [r10]!
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
vp8_memcpy_neon.asm | 36 vld1.8 {q4, q5}, [r1]! 39 vst1.8 {q4, q5}, [r0]!
|
/external/libvpx/libvpx/vp9/common/arm/neon/ |
vp9_mb_lpf_neon.asm | 52 vld1.u8 {d12}, [r8@64], r1 ; q4 161 vtrn.32 q4, q6 166 vtrn.16 q4, q5 304 ; d12 q4 365 ; flatmask5(1, p7, p6, p5, p4, p0, q0, q4, q5, q6, q7) 367 vabd.u8 d23, d12, d8 ; abs(q4 - q0) 376 vmax.u8 d22, d22, d23 ; max(abs(p4 - p0), abs(q4 - q0)) 530 vaddw.u8 q15, d12 ; op2 += q4 558 vaddl.u8 q4, d10, d15 565 vadd.i16 q15, q4 [all...] |
vp9_short_iht8x8_add_neon.asm | 241 vsub.s16 q13, q4, q5 ; step2[5] = step1[4] - step1[5] 242 vadd.s16 q4, q4, q5 ; step2[4] = step1[4] + step1[5] 274 vadd.s16 q11, q3, q4 ; output[3] = step1[3] + step1[4]; 275 vsub.s16 q12, q3, q4 ; output[4] = step1[3] - step1[4]; 296 vmull.s16 q4, d31, d15 307 vmlsl.s16 q4, d17, d14 342 vadd.s32 q15, q4, q8 346 vsub.s32 q4, q4, q [all...] |
/external/chromium_org/third_party/openssl/openssl/crypto/poly1305/ |
poly1305_arm_asm.S | 157 vpush {q4,q5,q6,q7} 273 # asm 2: vshl.i32 >5z12=q13,<z12=q4,#2 274 vshl.i32 q13,q4,#2 283 # asm 2: vadd.i32 >5z12=q13,<5z12=q13,<z12=q4 284 vadd.i32 q13,q13,q4 511 # asm 2: vshll.u32 >r3=q4,<c23=d3,#18 512 vshll.u32 q4,d3,#18 521 # asm 2: vmlal.u32 <r3=q4,<x01=d16,<z34=d10 522 vmlal.u32 q4,d16,d10 526 # asm 2: vmlal.u32 <r3=q4,<x01=d17,<z12=d [all...] |
/external/clang/test/SemaCXX/ |
addr-of-overloaded-function.cpp | 81 void q4(); // expected-note{{possible target for call}} 95 q4<int>; // expected-error-re{{reference to non-static member function must be called$}}
|
/external/jpeg/ |
jsimd_arm_neon.S | 201 vmul.s16 q4, q4, q12 211 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 214 vtrn.16 q4, q5 215 vtrn.32 q2, q4 229 idct_helper q2, q3, q4, q5, q6, q7, q8, q9, q10, q11, q12, q13, q14 233 vtrn.16 q4, q5 234 vtrn.32 q2, q4 251 vqadd.s16 q4, q4, q1 [all...] |