Home | History | Annotate | Download | only in include

Lines Matching refs:_Mask

157 unsigned char _BitScanForward(unsigned long *_Index, unsigned long _Mask);
159 unsigned char _BitScanReverse(unsigned long *_Index, unsigned long _Mask);
256 unsigned char _BitScanForward64(unsigned long *_Index, unsigned __int64 _Mask);
258 unsigned char _BitScanReverse64(unsigned long *_Index, unsigned __int64 _Mask);
267 long _InterlockedAnd_np(long volatile *_Value, long _Mask);
268 short _InterlockedAnd16_np(short volatile *_Value, short _Mask);
269 __int64 _InterlockedAnd64_np(__int64 volatile *_Value, __int64 _Mask);
270 char _InterlockedAnd8_np(char volatile *_Value, char _Mask);
294 long _InterlockedOr_np(long volatile *_Value, long _Mask);
295 short _InterlockedOr16_np(short volatile *_Value, short _Mask);
296 __int64 _InterlockedOr64_np(__int64 volatile *_Value, __int64 _Mask);
297 char _InterlockedOr8_np(char volatile *_Value, char _Mask);
298 long _InterlockedXor_np(long volatile *_Value, long _Mask);
299 short _InterlockedXor16_np(short volatile *_Value, short _Mask);
300 __int64 _InterlockedXor64_np(__int64 volatile *_Value, __int64 _Mask);
301 char _InterlockedXor8_np(char volatile *_Value, char _Mask);
332 __int64 _InterlockedOr64(__int64 volatile *_Value, __int64 _Mask);
334 __int64 _InterlockedXor64(__int64 volatile *_Value, __int64 _Mask);
336 __int64 _InterlockedAnd64(__int64 volatile *_Value, __int64 _Mask);
552 _InterlockedAnd8_acq(char volatile *_Value, char _Mask) {
553 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
556 _InterlockedAnd8_nf(char volatile *_Value, char _Mask) {
557 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
560 _InterlockedAnd8_rel(char volatile *_Value, char _Mask) {
561 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
564 _InterlockedAnd16_acq(short volatile *_Value, short _Mask) {
565 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
568 _InterlockedAnd16_nf(short volatile *_Value, short _Mask) {
569 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
572 _InterlockedAnd16_rel(short volatile *_Value, short _Mask) {
573 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
576 _InterlockedAnd_acq(long volatile *_Value, long _Mask) {
577 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
580 _InterlockedAnd_nf(long volatile *_Value, long _Mask) {
581 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
584 _InterlockedAnd_rel(long volatile *_Value, long _Mask) {
585 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
588 _InterlockedAnd64_acq(__int64 volatile *_Value, __int64 _Mask) {
589 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
592 _InterlockedAnd64_nf(__int64 volatile *_Value, __int64 _Mask) {
593 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
596 _InterlockedAnd64_rel(__int64 volatile *_Value, __int64 _Mask) {
597 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
605 _InterlockedOr8_acq(char volatile *_Value, char _Mask) {
606 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
609 _InterlockedOr8_nf(char volatile *_Value, char _Mask) {
610 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
613 _InterlockedOr8_rel(char volatile *_Value, char _Mask) {
614 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
617 _InterlockedOr16_acq(short volatile *_Value, short _Mask) {
618 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
621 _InterlockedOr16_nf(short volatile *_Value, short _Mask) {
622 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
625 _InterlockedOr16_rel(short volatile *_Value, short _Mask) {
626 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
629 _InterlockedOr_acq(long volatile *_Value, long _Mask) {
630 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
633 _InterlockedOr_nf(long volatile *_Value, long _Mask) {
634 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
637 _InterlockedOr_rel(long volatile *_Value, long _Mask) {
638 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
641 _InterlockedOr64_acq(__int64 volatile *_Value, __int64 _Mask) {
642 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
645 _InterlockedOr64_nf(__int64 volatile *_Value, __int64 _Mask) {
646 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
649 _InterlockedOr64_rel(__int64 volatile *_Value, __int64 _Mask) {
650 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
658 _InterlockedXor8_acq(char volatile *_Value, char _Mask) {
659 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
662 _InterlockedXor8_nf(char volatile *_Value, char _Mask) {
663 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
666 _InterlockedXor8_rel(char volatile *_Value, char _Mask) {
667 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
670 _InterlockedXor16_acq(short volatile *_Value, short _Mask) {
671 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
674 _InterlockedXor16_nf(short volatile *_Value, short _Mask) {
675 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
678 _InterlockedXor16_rel(short volatile *_Value, short _Mask) {
679 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
682 _InterlockedXor_acq(long volatile *_Value, long _Mask) {
683 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
686 _InterlockedXor_nf(long volatile *_Value, long _Mask) {
687 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
690 _InterlockedXor_rel(long volatile *_Value, long _Mask) {
691 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
694 _InterlockedXor64_acq(__int64 volatile *_Value, __int64 _Mask) {
695 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
698 _InterlockedXor64_nf(__int64 volatile *_Value, __int64 _Mask) {
699 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
702 _InterlockedXor64_rel(__int64 volatile *_Value, __int64 _Mask) {
703 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);