Home | History | Annotate | Download | only in Headers

Lines Matching refs:_Mask

164 unsigned char _BitScanForward(unsigned long *_Index, unsigned long _Mask);
166 unsigned char _BitScanReverse(unsigned long *_Index, unsigned long _Mask);
182 long _InterlockedAnd(long volatile *_Value, long _Mask);
184 short _InterlockedAnd16(short volatile *_Value, short _Mask);
186 char _InterlockedAnd8(char volatile *_Value, char _Mask);
236 long _InterlockedOr(long volatile *_Value, long _Mask);
238 short _InterlockedOr16(short volatile *_Value, short _Mask);
240 char _InterlockedOr8(char volatile *_Value, char _Mask);
242 long _InterlockedXor(long volatile *_Value, long _Mask);
244 short _InterlockedXor16(short volatile *_Value, short _Mask);
246 char _InterlockedXor8(char volatile *_Value, char _Mask);
341 unsigned char _BitScanForward64(unsigned long *_Index, unsigned __int64 _Mask);
343 unsigned char _BitScanReverse64(unsigned long *_Index, unsigned __int64 _Mask);
353 long _InterlockedAnd_np(long volatile *_Value, long _Mask);
354 short _InterlockedAnd16_np(short volatile *_Value, short _Mask);
355 __int64 _InterlockedAnd64_np(__int64 volatile *_Value, __int64 _Mask);
356 char _InterlockedAnd8_np(char volatile *_Value, char _Mask);
391 long _InterlockedOr_np(long volatile *_Value, long _Mask);
392 short _InterlockedOr16_np(short volatile *_Value, short _Mask);
394 __int64 _InterlockedOr64(__int64 volatile *_Value, __int64 _Mask);
395 __int64 _InterlockedOr64_np(__int64 volatile *_Value, __int64 _Mask);
396 char _InterlockedOr8_np(char volatile *_Value, char _Mask);
397 long _InterlockedXor_np(long volatile *_Value, long _Mask);
398 short _InterlockedXor16_np(short volatile *_Value, short _Mask);
400 __int64 _InterlockedXor64(__int64 volatile *_Value, __int64 _Mask);
401 __int64 _InterlockedXor64_np(__int64 volatile *_Value, __int64 _Mask);
402 char _InterlockedXor8_np(char volatile *_Value, char _Mask);
504 _BitScanForward(unsigned long *_Index, unsigned long _Mask) {
505 if (!_Mask)
507 *_Index = __builtin_ctzl(_Mask);
511 _BitScanReverse(unsigned long *_Index, unsigned long _Mask) {
512 if (!_Mask)
514 *_Index = 31 - __builtin_clzl(_Mask);
554 _BitScanForward64(unsigned long *_Index, unsigned __int64 _Mask) {
555 if (!_Mask)
557 *_Index = __builtin_ctzll(_Mask);
561 _BitScanReverse64(unsigned long *_Index, unsigned __int64 _Mask) {
562 if (!_Mask)
564 *_Index = 63 - __builtin_clzll(_Mask);
669 _InterlockedAnd8(char volatile *_Value, char _Mask) {
670 return __atomic_and_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
673 _InterlockedAnd16(short volatile *_Value, short _Mask) {
674 return __atomic_and_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
677 _InterlockedAnd(long volatile *_Value, long _Mask) {
678 return __atomic_and_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
682 _InterlockedAnd64(__int64 volatile *_Value, __int64 _Mask) {
683 return __atomic_and_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
690 _InterlockedOr8(char volatile *_Value, char _Mask) {
691 return __atomic_or_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
694 _InterlockedOr16(short volatile *_Value, short _Mask) {
695 return __atomic_or_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
698 _InterlockedOr(long volatile *_Value, long _Mask) {
699 return __atomic_or_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
703 _InterlockedOr64(__int64 volatile *_Value, __int64 _Mask) {
704 return __atomic_or_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
711 _InterlockedXor8(char volatile *_Value, char _Mask) {
712 return __atomic_xor_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
715 _InterlockedXor16(short volatile *_Value, short _Mask) {
716 return __atomic_xor_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
719 _InterlockedXor(long volatile *_Value, long _Mask) {
720 return __atomic_xor_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);
724 _InterlockedXor64(__int64 volatile *_Value, __int64 _Mask) {
725 return __atomic_xor_fetch(_Value, _Mask, __ATOMIC_SEQ_CST);