Home | History | Annotate | Download | only in include

Lines Matching refs:_Mask

171 unsigned char _BitScanForward(unsigned long *_Index, unsigned long _Mask);
173 unsigned char _BitScanReverse(unsigned long *_Index, unsigned long _Mask);
189 long _InterlockedAnd(long volatile *_Value, long _Mask);
191 short _InterlockedAnd16(short volatile *_Value, short _Mask);
193 char _InterlockedAnd8(char volatile *_Value, char _Mask);
243 long _InterlockedOr(long volatile *_Value, long _Mask);
245 short _InterlockedOr16(short volatile *_Value, short _Mask);
247 char _InterlockedOr8(char volatile *_Value, char _Mask);
249 long _InterlockedXor(long volatile *_Value, long _Mask);
251 short _InterlockedXor16(short volatile *_Value, short _Mask);
253 char _InterlockedXor8(char volatile *_Value, char _Mask);
349 unsigned char _BitScanForward64(unsigned long *_Index, unsigned __int64 _Mask);
351 unsigned char _BitScanReverse64(unsigned long *_Index, unsigned __int64 _Mask);
361 long _InterlockedAnd_np(long volatile *_Value, long _Mask);
362 short _InterlockedAnd16_np(short volatile *_Value, short _Mask);
363 __int64 _InterlockedAnd64_np(__int64 volatile *_Value, __int64 _Mask);
364 char _InterlockedAnd8_np(char volatile *_Value, char _Mask);
391 long _InterlockedOr_np(long volatile *_Value, long _Mask);
392 short _InterlockedOr16_np(short volatile *_Value, short _Mask);
393 __int64 _InterlockedOr64_np(__int64 volatile *_Value, __int64 _Mask);
394 char _InterlockedOr8_np(char volatile *_Value, char _Mask);
395 long _InterlockedXor_np(long volatile *_Value, long _Mask);
396 short _InterlockedXor16_np(short volatile *_Value, short _Mask);
397 __int64 _InterlockedXor64_np(__int64 volatile *_Value, __int64 _Mask);
398 char _InterlockedXor8_np(char volatile *_Value, char _Mask);
432 __int64 _InterlockedOr64(__int64 volatile *_Value, __int64 _Mask);
434 __int64 _InterlockedXor64(__int64 volatile *_Value, __int64 _Mask);
436 __int64 _InterlockedAnd64(__int64 volatile *_Value, __int64 _Mask);
657 _InterlockedAnd8_acq(char volatile *_Value, char _Mask) {
658 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
661 _InterlockedAnd8_nf(char volatile *_Value, char _Mask) {
662 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
665 _InterlockedAnd8_rel(char volatile *_Value, char _Mask) {
666 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
669 _InterlockedAnd16_acq(short volatile *_Value, short _Mask) {
670 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
673 _InterlockedAnd16_nf(short volatile *_Value, short _Mask) {
674 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
677 _InterlockedAnd16_rel(short volatile *_Value, short _Mask) {
678 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
681 _InterlockedAnd_acq(long volatile *_Value, long _Mask) {
682 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
685 _InterlockedAnd_nf(long volatile *_Value, long _Mask) {
686 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
689 _InterlockedAnd_rel(long volatile *_Value, long _Mask) {
690 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
693 _InterlockedAnd64_acq(__int64 volatile *_Value, __int64 _Mask) {
694 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
697 _InterlockedAnd64_nf(__int64 volatile *_Value, __int64 _Mask) {
698 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
701 _InterlockedAnd64_rel(__int64 volatile *_Value, __int64 _Mask) {
702 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
710 _InterlockedOr8_acq(char volatile *_Value, char _Mask) {
711 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
714 _InterlockedOr8_nf(char volatile *_Value, char _Mask) {
715 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
718 _InterlockedOr8_rel(char volatile *_Value, char _Mask) {
719 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
722 _InterlockedOr16_acq(short volatile *_Value, short _Mask) {
723 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
726 _InterlockedOr16_nf(short volatile *_Value, short _Mask) {
727 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
730 _InterlockedOr16_rel(short volatile *_Value, short _Mask) {
731 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
734 _InterlockedOr_acq(long volatile *_Value, long _Mask) {
735 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
738 _InterlockedOr_nf(long volatile *_Value, long _Mask) {
739 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
742 _InterlockedOr_rel(long volatile *_Value, long _Mask) {
743 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
746 _InterlockedOr64_acq(__int64 volatile *_Value, __int64 _Mask) {
747 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
750 _InterlockedOr64_nf(__int64 volatile *_Value, __int64 _Mask) {
751 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
754 _InterlockedOr64_rel(__int64 volatile *_Value, __int64 _Mask) {
755 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
763 _InterlockedXor8_acq(char volatile *_Value, char _Mask) {
764 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
767 _InterlockedXor8_nf(char volatile *_Value, char _Mask) {
768 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
771 _InterlockedXor8_rel(char volatile *_Value, char _Mask) {
772 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
775 _InterlockedXor16_acq(short volatile *_Value, short _Mask) {
776 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
779 _InterlockedXor16_nf(short volatile *_Value, short _Mask) {
780 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
783 _InterlockedXor16_rel(short volatile *_Value, short _Mask) {
784 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
787 _InterlockedXor_acq(long volatile *_Value, long _Mask) {
788 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
791 _InterlockedXor_nf(long volatile *_Value, long _Mask) {
792 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
795 _InterlockedXor_rel(long volatile *_Value, long _Mask) {
796 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
799 _InterlockedXor64_acq(__int64 volatile *_Value, __int64 _Mask) {
800 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
803 _InterlockedXor64_nf(__int64 volatile *_Value, __int64 _Mask) {
804 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
807 _InterlockedXor64_rel(__int64 volatile *_Value, __int64 _Mask) {
808 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);