Home | History | Annotate | Download | only in include

Lines Matching refs:_Mask

161 unsigned char _BitScanForward(unsigned long *_Index, unsigned long _Mask);
163 unsigned char _BitScanReverse(unsigned long *_Index, unsigned long _Mask);
260 unsigned char _BitScanForward64(unsigned long *_Index, unsigned __int64 _Mask);
262 unsigned char _BitScanReverse64(unsigned long *_Index, unsigned __int64 _Mask);
271 long _InterlockedAnd_np(long volatile *_Value, long _Mask);
272 short _InterlockedAnd16_np(short volatile *_Value, short _Mask);
273 __int64 _InterlockedAnd64_np(__int64 volatile *_Value, __int64 _Mask);
274 char _InterlockedAnd8_np(char volatile *_Value, char _Mask);
298 long _InterlockedOr_np(long volatile *_Value, long _Mask);
299 short _InterlockedOr16_np(short volatile *_Value, short _Mask);
300 __int64 _InterlockedOr64_np(__int64 volatile *_Value, __int64 _Mask);
301 char _InterlockedOr8_np(char volatile *_Value, char _Mask);
302 long _InterlockedXor_np(long volatile *_Value, long _Mask);
303 short _InterlockedXor16_np(short volatile *_Value, short _Mask);
304 __int64 _InterlockedXor64_np(__int64 volatile *_Value, __int64 _Mask);
305 char _InterlockedXor8_np(char volatile *_Value, char _Mask);
336 __int64 _InterlockedOr64(__int64 volatile *_Value, __int64 _Mask);
338 __int64 _InterlockedXor64(__int64 volatile *_Value, __int64 _Mask);
340 __int64 _InterlockedAnd64(__int64 volatile *_Value, __int64 _Mask);
556 _InterlockedAnd8_acq(char volatile *_Value, char _Mask) {
557 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
560 _InterlockedAnd8_nf(char volatile *_Value, char _Mask) {
561 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
564 _InterlockedAnd8_rel(char volatile *_Value, char _Mask) {
565 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
568 _InterlockedAnd16_acq(short volatile *_Value, short _Mask) {
569 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
572 _InterlockedAnd16_nf(short volatile *_Value, short _Mask) {
573 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
576 _InterlockedAnd16_rel(short volatile *_Value, short _Mask) {
577 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
580 _InterlockedAnd_acq(long volatile *_Value, long _Mask) {
581 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
584 _InterlockedAnd_nf(long volatile *_Value, long _Mask) {
585 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
588 _InterlockedAnd_rel(long volatile *_Value, long _Mask) {
589 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
592 _InterlockedAnd64_acq(__int64 volatile *_Value, __int64 _Mask) {
593 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_ACQUIRE);
596 _InterlockedAnd64_nf(__int64 volatile *_Value, __int64 _Mask) {
597 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELAXED);
600 _InterlockedAnd64_rel(__int64 volatile *_Value, __int64 _Mask) {
601 return __atomic_fetch_and(_Value, _Mask, __ATOMIC_RELEASE);
609 _InterlockedOr8_acq(char volatile *_Value, char _Mask) {
610 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
613 _InterlockedOr8_nf(char volatile *_Value, char _Mask) {
614 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
617 _InterlockedOr8_rel(char volatile *_Value, char _Mask) {
618 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
621 _InterlockedOr16_acq(short volatile *_Value, short _Mask) {
622 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
625 _InterlockedOr16_nf(short volatile *_Value, short _Mask) {
626 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
629 _InterlockedOr16_rel(short volatile *_Value, short _Mask) {
630 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
633 _InterlockedOr_acq(long volatile *_Value, long _Mask) {
634 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
637 _InterlockedOr_nf(long volatile *_Value, long _Mask) {
638 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
641 _InterlockedOr_rel(long volatile *_Value, long _Mask) {
642 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
645 _InterlockedOr64_acq(__int64 volatile *_Value, __int64 _Mask) {
646 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_ACQUIRE);
649 _InterlockedOr64_nf(__int64 volatile *_Value, __int64 _Mask) {
650 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELAXED);
653 _InterlockedOr64_rel(__int64 volatile *_Value, __int64 _Mask) {
654 return __atomic_fetch_or(_Value, _Mask, __ATOMIC_RELEASE);
662 _InterlockedXor8_acq(char volatile *_Value, char _Mask) {
663 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
666 _InterlockedXor8_nf(char volatile *_Value, char _Mask) {
667 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
670 _InterlockedXor8_rel(char volatile *_Value, char _Mask) {
671 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
674 _InterlockedXor16_acq(short volatile *_Value, short _Mask) {
675 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
678 _InterlockedXor16_nf(short volatile *_Value, short _Mask) {
679 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
682 _InterlockedXor16_rel(short volatile *_Value, short _Mask) {
683 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
686 _InterlockedXor_acq(long volatile *_Value, long _Mask) {
687 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
690 _InterlockedXor_nf(long volatile *_Value, long _Mask) {
691 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
694 _InterlockedXor_rel(long volatile *_Value, long _Mask) {
695 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);
698 _InterlockedXor64_acq(__int64 volatile *_Value, __int64 _Mask) {
699 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_ACQUIRE);
702 _InterlockedXor64_nf(__int64 volatile *_Value, __int64 _Mask) {
703 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELAXED);
706 _InterlockedXor64_rel(__int64 volatile *_Value, __int64 _Mask) {
707 return __atomic_fetch_xor(_Value, _Mask, __ATOMIC_RELEASE);