Intrinsische ARM64-Funktionen
Der Microsoft C++-Compiler (MSVC) stellt die folgenden systeminternen Elemente in der ARM64-Architektur zur Verfügung. Weitere Informationen zu ARM finden Sie in den Abschnitten "Architecture and Software Development Tools" der ARM Developer Documentation-Website .
NEON
Die ERWEITERUNGEN für DEN NEON-Vektor-Anweisungssatz für ARM64 bieten Funktionen für single Instruction Multiple Data (SIMD). Sie ähneln denen in den MMX- und SSE-Vektoranweisungssätzen, die für x86- und x64-Architekturprozessoren üblich sind.
Systeminterne NEON-Funktionen werden unterstützt, wie in der Headerdatei arm64_neon.h
angegeben. Die MSVC-Unterstützung für NEON-Systeminterne ähnelt der des ARM64-Compilers, der in der ARM NEON Systeminternen Referenz auf der ARM Infocenter-Website dokumentiert ist.
ARM64-spezifische systeminterne Auflistung
ARM64-spezifische systeminterne Elemente werden unterstützt, wie in der Headerdatei intrin.h
angegeben.
Funktionsname | Anweisung | Funktionsprototyp |
---|---|---|
__brechen | BRK | void __break(int) |
__addx18byte | void __addx18byte(unsigned long, unsigned char) | |
__addx18word | void __addx18word(unsigned long, unsigned short) | |
__addx18dword | void __addx18dword(unsigned long, unsigned long) | |
__addx18qword | void __addx18qword(unsigned long, unsigned __int64) | |
__cas8 | CASB | nicht signierte __int8 __cas8(nicht signierte __int8 veränderlich* _Target, nicht signierte __int8 _Comp, nicht signierte __int8 _Value) |
__cas16 | GELD | unsigned __int16 __cas16(unsigned __int16 volatile* _Target, unsigned __int16 _Comp, unsigned __int16 _Value) |
__cas32 | CAS | nicht signierte __int32 __cas32(nicht signierte __int32 volatile* _Target, nicht signierte __int32 _Comp, nicht signierte __int32 _Value) |
__cas64 | CAS | unsigned __int64 __cas64(unsigned __int64 volatile* _Target, unsigned __int64 _Comp, unsigned __int64 _Value) |
__casa8 | CASAB | unsigned __int8 __casa8(unsigned __int8 volatile* _Target, unsigned __int8 _Comp, unsigned __int8 _Value) |
__casa16 | CASAH | nicht signierte __int16 __casa16(nicht signierte __int16 veränderlich* _Target, nicht signierte __int16 _Comp, nicht signierte __int16 _Value) |
__casa32 | CASA | unsigned __int32 __casa32(unsigned __int32 volatile* _Target, unsigned __int32 _Comp, unsigned __int32 _Value) |
__casa64 | CASA | unsigned __int64 __casa64(unsigned __int64 volatile* _Target, unsigned __int64 _Comp, unsigned __int64 _Value) |
__casl8 | CASLB | unsigned __int8 __casl8(unsigned __int8 volatile* _Target, unsigned __int8 _Comp, unsigned __int8 _Value) |
__casl16 | CASLH | nicht signierte __int16 __casl16(nicht signierte __int16 veränderlich* _Target, nicht signierte __int16 _Comp, nicht signierte __int16 _Value) |
__casl32 | CASL | unsigned __int32 __casl32(unsigned __int32 volatile* _Target, unsigned __int32 _Comp, unsigned __int32 _Value) |
__casl64 | CASL | unsigned __int64 __casl64(unsigned __int64 volatile* _Target, unsigned __int64 _Comp, unsigned __int64 _Value) |
__casal8 | CASALB | nicht signierte __int8 __casal8(nicht signierte __int8 veränderlich* _Target, nicht signierte __int8 _Comp, nicht signierte __int8 _Value) |
__casal16 | CASALH | nicht signierte __int16 __casal16(nicht signierte __int16 veränderlich* _Target, nicht signierte __int16 _Comp, nicht signierte __int16 _Value) |
__casal32 | CASAL | unsigned __int32 __casal32(unsigned __int32 volatile* _Target, unsigned __int32 _Comp, unsigned __int32 _Value) |
__casal64 | CASAL | unsigned __int64 __casal64(unsigned __int64 volatile* _Target, unsigned __int64 _Comp, unsigned __int64 _Value) |
__crc32b | CRC32B | nicht signierte __int32 __crc32b(nicht signierte __int32, nicht signierte __int32) |
__crc32h | CRC32H | nicht signierte __int32 __crc32h(nicht signierte __int32, nicht signierte __int32) |
__crc32w | CRC32W | nicht signierte __int32 __crc32w(nicht signierte __int32, nicht signierte __int32) |
__crc32d | CRC32X | unsigned __int32 __crc32d(unsigned __int32, unsigned __int64) |
__crc32cb | CRC32CB | nicht signierte __int32 __crc32cb(nicht signierte __int32, nicht signierte __int32) |
__crc32ch | CRC32CH | nicht signierte __int32 __crc32ch(nicht signierte __int32, nicht signierte __int32) |
__crc32cw | CRC32CW | nicht signierte __int32 __crc32cw(nicht signierte __int32, nicht signierte __int32) |
__crc32cd | CRC32CX | nicht signierte __int32 __crc32cd(nicht signierte __int32, nicht signierte __int64) |
__dmb | DMB | void __dmb(unsigned int _Type )Fügt einen Speicherabgrenzungsvorgang in den Anweisungsstream ein. Der Parameter _Type gibt die Art der Einschränkung an, die die Grenze erzwingt.Weitere Informationen zu den Arten von Einschränkungen, die erzwungen werden können, finden Sie unter Einschränkungen für Speicherbarrieren. |
__dsb | DSB | void __dsb(unsigned int _Type) Fügt einen Speicherabgrenzungsvorgang in den Anweisungsstream ein. Der Parameter _Type gibt die Art der Einschränkung an, die die Grenze erzwingt.Weitere Informationen zu den Arten von Einschränkungen, die erzwungen werden können, finden Sie unter Einschränkungen für Speicherbarrieren. |
__isb | ISB | void __isb(unsigned int _Type) Fügt einen Speicherabgrenzungsvorgang in den Anweisungsstream ein. Der Parameter _Type gibt die Art der Einschränkung an, die die Grenze erzwingt.Weitere Informationen zu den Arten von Einschränkungen, die erzwungen werden können, finden Sie unter Einschränkungen für Speicherbarrieren. |
__getReg | nicht signierte __int64 __getReg(int) | |
__getRegFp | double __getRegFp(int) | |
__getCallerReg | nicht signierte __int64 __getCallerReg(int) | |
__getCallerRegFp | double __getCallerRegFp(int) | |
__hvc | HVC | unsigned int __hvc(unsigned int, ...) |
__hlt | HLT | int __hlt(unsigned int, ...) |
__incx18byte | void __incx18byte(unsigned long) | |
__incx18word | void __incx18word(unsigned long) | |
__incx18dword | void __incx18dword(unsigned long) | |
__incx18qword | void __incx18qword(unsigned long) | |
__iso_volatile_load16 | __int16 __iso_volatile_load16(const volatile __int16 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_load32 | __int32 __iso_volatile_load32(veränderliche __int32 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_load64 | __int64 __iso_volatile_load64(veränderliche __int64 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_load8 | __int8 __iso_volatile_load8(konstante veränderliche __int8 *) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store16 | void __iso_volatile_store16(volatile __int16 *, __int16) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store32 | void __iso_volatile_store32(volatile __int32 *, __int32) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store64 | void __iso_volatile_store64(volatile __int64 *, __int64) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__iso_volatile_store8 | void __iso_volatile_store8(volatile __int8 *, __int8) Weitere Informationen finden Sie unter __iso_volatile_load/Speichern systeminterner Komponenten. |
|
__ldar8 | LDARB | unsigned __int8 __ldar8(unsigned __int8 volatile* _Target) |
__ldar16 | LDARH | nicht signierte __int16 __ldar16(nicht signierte __int16 veränderlich* _Target) |
__ldar32 | LDAR | unsigned __int32 __ldar32(unsigned __int32 volatile* _Target) |
__ldar64 | LDAR | unsigned __int64 __ldar64(unsigned __int64 volatile* _Target) |
__ldapr8 | LDAPRB | nicht signierte __int8 __ldapr8(nicht signierte __int8 veränderlich* _Target) |
__ldapr16 | LDAPRH | nicht signierte __int16 __ldapr16(nicht signierte __int16 veränderlich* _Target) |
__ldapr32 | LDAPR | unsigned __int32 __ldapr32(unsigned __int32 volatile* _Target) |
__ldapr64 | LDAPR | nicht signierte __int64 __ldapr64(nicht signierte __int64 veränderlich* _Target) |
__mulh | __int64 __mulh(__int64, __int64) | |
__prefetch | PRFM | void __cdecl __prefetch(const void *) Stellt einen PRFM Speicherhinweis mit dem Vorabrufvorgang PLDL1KEEP für das System bereit, auf das der Speicher in oder in der Nähe der angegebenen Adresse in Kürze zugegriffen werden kann. Einige Systeme führen möglicherweise eine Optimierung für dieses Speicherzugriffsmuster aus, um die Leistung zur Laufzeit zu verbessern. Aus Sicht der C++-Sprache hat die Funktion jedoch keine sichtbaren Auswirkungen und hat möglicherweise gar keinen Nutzen. |
__prefetch2 | PRFM | void __cdecl __prefetch(const void *, uint8_t prfop) Stellt einen PRFM Speicherhinweis mit dem bereitgestellten Prefetch-Vorgang für das System bereit, auf das der Speicher in oder in der Nähe der angegebenen Adresse in Kürze zugegriffen werden kann. Einige Systeme führen möglicherweise eine Optimierung für dieses Speicherzugriffsmuster aus, um die Leistung zur Laufzeit zu verbessern. Aus Sicht der C++-Sprache hat die Funktion jedoch keine sichtbaren Auswirkungen und hat möglicherweise gar keinen Nutzen. |
__readx18byte | unsigned char __readx18byte(unsigned long) | |
__readx18word | unsigned short __readx18word(unsigned long) | |
__readx18dword | unsigned long __readx18dword(unsigned long) | |
__readx18qword | unsigned __int64 __readx18qword(unsigned long) | |
__setReg | void __setReg(int, nicht signierte __int64) | |
__setRegFp | void __setRegFp(int, double) | |
__setCallerReg | void __setCallerReg(int, nicht signierte __int64) | |
__setCallerRegFp | void __setCallerRegFp(int, double) | |
__sev | SEV | void __sev(void) |
__static_assert | void __static_assert(int, const char *) | |
__stlr8 | STLRB | void __stlr8(unsigned __int8 volatile* _Target, unsigned __int8 _Value) |
__stlr16 | STLRH | void __stlr16(unsigned __int16 volatile* _Target, unsigned __int16 _Value) |
__stlr32 | STLR | void __stlr32(unsigned __int32 volatile* _Target, nicht signierte __int32 _Value) |
__stlr64 | STLR | void __stlr64(unsigned __int64 volatile* _Target, unsigned __int64 _Value) |
__swp8 | SWPB | nicht signierte __int8 __swp8(nicht signierte __int8 veränderlich* _Target, nicht signierte __int8 _Value) |
__swp16 | SWPH | nicht signierte __int16 __swp16(nicht signierte __int16 veränderlich* _Target, nicht signierte __int16 _Value) |
__swp32 | SWP | nicht signierte __int32 __swp32(nicht signierte __int32 veränderlich* _Target, nicht signierte __int32 _Value) |
__swp64 | SWP | nicht signierte __int64 __swp64(nicht signierte __int64 veränderlich* _Target, nicht signierte __int64 _Value) |
__swpa8 | SWPAB | unsigned __int8 __swpa8(unsigned __int8 volatile* _Target, unsigned __int8 _Value) |
__swpa16 | SWPAH | unsigned __int16 __swpa16(unsigned __int16 volatile* _Target, unsigned __int16 _Value) |
__swpa32 | SWPA | nicht signierte __int32 __swpa32(nicht signierte __int32 veränderlich* _Target, nicht signierte __int32 _Value) |
__swpa64 | SWPA | unsigned __int64 __swpa64(unsigned __int64 volatile* _Target, unsigned __int64 _Value) |
__swpl8 | SWPLB | nicht signierte __int8 __swpl8(nicht signierte __int8 veränderlich* _Target, nicht signierte __int8 _Value) |
__swpl16 | SWPLH | nicht signierte __int16 __swpl16(nicht signierte __int16 volatile* _Target, nicht signierte __int16 _Value) |
__swpl32 | SWPL | unsigned __int32 __swpl32(unsigned __int32 volatile* _Target, unsigned __int32 _Value) |
__swpl64 | SWPL | unsigned __int64 __swpl64(unsigned __int64 volatile* _Target, unsigned __int64 _Value) |
__swpal8 | SWPALB | unsigned __int8 __swpal8(unsigned __int8 volatile* _Target, unsigned __int8 _Value) |
__swpal16 | SWPALH | unsigned __int16 __swpal16(unsigned __int16 volatile* _Target, unsigned __int16 _Value) |
__swpal32 | SWPAL | nicht signierte __int32 __swpal32(nicht signierte __int32 veränderlich* _Target, nicht signierte __int32 _Value) |
__swpal64 | SWPAL | nicht signierte __int64 __swpal64(nicht signierte __int64 veränderlich* _Target, nicht signierte __int64 _Value) |
__sys | SYS | unsigned int __sys(int, __int64) |
__Svc | SVC | unsigned int __svc(unsigned int, ...) |
__wfe | WFE | void __wfe(void) |
__wfi | WFI | void __wfi(void) |
__writex18byte | void __writex18byte(unsigned long, unsigned char) | |
__writex18word | void __writex18word(unsigned long, unsigned short) | |
__writex18dword | void __writex18dword(unsigned long, unsigned long) | |
__writex18qword | void __writex18qword(unsigned long, unsigned __int64) | |
__umulh | nicht signierte __int64 __umulh(nicht signierte __int64, nicht signierte __int64) | |
_CopyDoubleFromInt64 | double _CopyDoubleFromInt64(__int64) | |
_CopyFloatFromInt32 | float _CopyFloatFromInt32(__int32) | |
_CopyInt32FromFloat | __int32 _CopyInt32FromFloat(float) | |
_CopyInt64FromDouble | __int64 _CopyInt64FromDouble(double) | |
_CountLeadingOnes | unsigned int _CountLeadingOnes(unsigned long) | |
_CountLeadingOnes64 | unsigned int _CountLeadingOnes64(unsigned __int64) | |
_CountLeadingSigns | unsigned int _CountLeadingSigns(long) | |
_CountLeadingSigns64 | unsigned int _CountLeadingSigns64(__int64) | |
_CountLeadingZeros | unsigned int _CountLeadingZeros(unsigned long) | |
_CountLeadingZeros64 | unsigned int _CountLeadingZeros64(nicht signierte __int64) | |
_CountTrailingZeros | unsigned int _CountTrailingZeros(unsigned long) | |
_CountTrailingZeros64 | unsigned int _CountTrailingZeros64(nicht signierte __int64) | |
_CountOneBits | unsigned int _CountOneBits(unsigned long) | |
_CountOneBits64 | unsigned int _CountOneBits64(unsigned __int64) | |
_ReadStatusReg | MRS | __int64 _ReadStatusReg(int) |
_WriteStatusReg | MSR | void _WriteStatusReg(int, __int64) |
Einschränkungen für Speicherbarrieren
Die systeminternen Funktionen __dmb
(Datenspeicherbarriere), __dsb
(Datensynchronisierungsbarriere) und __isb
(Anweisungssynchronisierungsbarriere) verwenden die folgenden vordefinierten Werte, um die Einschränkung der Speicherbarriere in Bezug auf die Freigabedomäne und die Art des Zugriffs anzugeben, die von dem Vorgang betroffen sind.
Einschränkungswert | Beschreibung |
---|---|
_ARM64_BARRIER_SY | Gesamtes System, Lese- und Schreibvorgänge. |
_ARM64_BARRIER_ST | Gesamtes System, nur Schreibvorgänge. |
_ARM64_BARRIER_LD | Vollständiges System, schreibgeschützt. |
_ARM64_BARRIER_ISH | Innen teilbar, Lese- und Schreibvorgänge. |
_ARM64_BARRIER_ISHST | Innen teilbar, nur Schreibvorgänge. |
_ARM64_BARRIER_ISHLD | Innerharrlich, schreibgeschützt. |
_ARM64_BARRIER_NSH | Nicht teilbar, Lese- und Schreibvorgänge. |
_ARM64_BARRIER_NSHST | Nicht teilbar, nur Schreibvorgänge. |
_ARM64_BARRIER_NSHLD | Nicht beharrbar, schreibgeschützt. |
_ARM64_BARRIER_OSH | Außen teilbar, Lese- und Schreibvorgänge. |
_ARM64_BARRIER_OSHST | Außen teilbar, nur Schreibvorgänge. |
_ARM64_BARRIER_OSHLD | Äußerer, schreibgeschützt. |
Für die __isb
systeminterne Einschränkung ist die einzige derzeit gültige Einschränkung _ARM64_BARRIER_SY; alle anderen Werte werden von der Architektur reserviert.
systeminterne __iso_volatile_load/Speichern
Diese systeminternen Funktionen führen explizit Lade- und Speichervorgänge aus, die keinen Compileroptimierungen unterliegen.
__int16 __iso_volatile_load16(const volatile __int16 * Location);
__int32 __iso_volatile_load32(const volatile __int32 * Location);
__int64 __iso_volatile_load64(const volatile __int64 * Location);
__int8 __iso_volatile_load8(const volatile __int8 * Location);
void __iso_volatile_store16(volatile __int16 * Location, __int16 Value);
void __iso_volatile_store32(volatile __int32 * Location, __int32 Value);
void __iso_volatile_store64(volatile __int64 * Location, __int64 Value);
void __iso_volatile_store8(volatile __int8 * Location, __int8 Value);
Parameter
Location
Die Adresse eines Speicherbereichs für Lese- oder Schreibvorgänge.
Wert
Der Wert, der in den angegebenen Speicherspeicherort geschrieben werden soll (nur systeminterne Speicher).
Rückgabewert (nur systeminternes Laden)
Der Wert des Speicherspeicherorts, der durch "Location" angegeben wird.
Hinweise
Sie können die __iso_volatile_load8/16/32/64
systeminternen und __iso_volatile_store8/16/32/64
speicherinternen Zugriffe explizit ausführen, die keinen Compileroptimierungen unterliegen. Der Compiler kann die relative Reihenfolge dieser Vorgänge nicht entfernen, synthetisieren oder ändern. Es generiert jedoch keine impliziten Hardwarespeicherbarrieren. Aus diesem Grund kann die Hardware die sichtbaren Speicherzugriffe möglicherweise immer noch über mehrere Threads hinweg neu anordnen. Genauer gesagt entsprechen diese systeminternen Ausdrücken den folgenden Ausdrücken, wie unter /volatile:iso kompiliert.
int a = __iso_volatile_load32(p); // equivalent to: int a = *(const volatile __int32*)p;
__iso_volatile_store32(p, a); // equivalent to: *(volatile __int32*)p = a;
Beachten Sie, dass die systeminternen Funktionen flüchtige Zeiger verwenden, um flüchtige Variablen zu berücksichtigen. Es gibt jedoch keine Anforderung oder Empfehlung, veränderliche Zeiger als Argumente zu verwenden. Die Semantik dieser Vorgänge ist identisch, wenn ein normaler, nicht veränderiger Typ verwendet wird.
Weitere Informationen zum Befehlszeilenargument /volatile:iso finden Sie unter /volatile (veränderliche Schlüsselwortinterpretation).
ARM64-Unterstützung für systeminterne Elemente aus anderen Architekturen
In der folgenden Tabelle sind systeminterne Elemente aus anderen Architekturen aufgeführt, die auf ARM64-Plattformen unterstützt werden. Wenn sich das Verhalten eines systeminternen Elements auf ARM64 von seinem Verhalten auf anderen Hardwarearchitekturen unterscheidet, werden weitere Details angegeben.
Funktionsname | Funktionsprototyp |
---|---|
__assume | void __assume(int) |
__code_seg | void __code_seg(const char *) |
__debugbreak | void __cdecl __debugbreak(void) |
__fastfail | __declspec(noreturn) void __fastfail(unsigned int) |
__nop | void __nop(void) |
__yield | void __yield(void) Hinweis: Auf ARM64-Plattformen generiert diese Funktion die YIELD-Anweisung. Diese Anweisung gibt an, dass der Thread eine Aufgabe ausführt, die vorübergehend an der Ausführung angehalten werden kann, z. B. ein Spinlock, ohne dass sich dies negativ auf das Programm auswirkt. Sie ermöglicht es der CPU, andere Aufgaben während der Ausführungszyklen auszuführen, die andernfalls verschwendet würden. |
_AddressOfReturnAddress | void * _AddressOfReturnAddress(void) |
_BitScanForward | unsigned char _BitScanForward(unsigned long * _Index, unsigned long _Mask) |
_BitScanForward64 | unsigned char _BitScanForward64(unsigned long * _Index, unsigned __int64 _Mask) |
_BitScanReverse | unsigned char _BitScanReverse(unsigned long * _Index, unsigned long _Mask) |
_BitScanReverse64 | unsigned char _BitScanReverse64(unsigned long * _Index, unsigned __int64 _Mask) |
_bittest | unsigned char _bittest(long const *, long) |
_bittest64 | unsigned char _bittest64(__int64 const *, __int64) |
_bittestandcomplement | nicht signiertes Zeichen _bittestandcomplement(long *, long) |
_bittestandcomplement64 | nicht signierte Zeichen _bittestandcomplement64(__int64 *, __int64) |
_bittestandreset | nicht signiertes Zeichen _bittestandreset(long *, long) |
_bittestandreset64 | nicht signierte Zeichen _bittestandreset64(__int64 *, __int64) |
_bittestandset | nicht signiertes Zeichen _bittestandset(long *, long) |
_bittestandset64 | nicht signierte Zeichen _bittestandset64(__int64 *, __int64) |
_byteswap_uint64 | nicht signierte __int64 __cdecl _byteswap_uint64(nicht signierte __int64) |
_byteswap_ulong | unsigned long __cdecl _byteswap_ulong(unsigned long) |
_byteswap_ushort | unsigned short __cdecl _byteswap_ushort(unsigned short) |
_disable | void __cdecl _disable(void) Hinweis: Auf ARM64-Plattformen generiert diese Funktion die Anweisung MSR DAIFCLR,#2 ; sie ist nur als systemintern verfügbar. |
_enable | void __cdecl _enable(void) Hinweis: Auf ARM64-Plattformen generiert diese Funktion die Anweisung MSR DAIFSET,#2 ; sie ist nur als systemintern verfügbar. |
_lrotl | unsigned long __cdecl _lrotl(unsigned long, int) |
_lrotr | unsigned long __cdecl _lrotr(unsigned long, int) |
_ReadBarrier | void _ReadBarrier(void) |
_ReadWriteBarrier | void _ReadWriteBarrier(void) |
_ReturnAddress | void * _ReturnAddress(void) |
_rotl | unsigned int __cdecl _rotl(unsigned int _Value, int _Shift) |
_rotl16 | unsigned short _rotl16(unsigned short _Value, unsigned char _Shift) |
_rotl64 | nicht signierte __int64 __cdecl _rotl64(nicht signierte __int64 _Value, int _Shift) |
_rotl8 | unsigned char _rotl8(unsigned char _Value, unsigned char _Shift) |
_rotr | unsigned int __cdecl _rotr(unsigned int _Value, int _Shift) |
_rotr16 | unsigned short _rotr16(unsigned short _Value, unsigned char _Shift) |
_rotr64 | unsigned __int64 __cdecl _rotr64(unsigned __int64 _Value, int _Shift) |
_rotr8 | unsigned char _rotr8(unsigned char _Value, unsigned char _Shift) |
_setjmpex | int __cdecl _setjmpex(jmp_buf) |
_WriteBarrier | void _WriteBarrier(void) |
Verriegelte systeminterne
Ineinandergreifende systeminterne Funktionen sind eine Reihe von systeminternen Funktionen, die zum Ausführen atomarer Lese-Änderungs-Schreib-Vorgänge verwendet werden. Einige davon sind auf allen Plattformen verfügbar. Sie werden hier separat aufgeführt, da eine große Anzahl von ihnen vorhanden ist. Da ihre Definitionen meist redundant sind, ist es einfacher, sie generell zu überdenken. Die genauen Verhaltensweisen können von den Namen abgeleitet werden.
Die folgende Tabelle fasst die ARM64-Unterstützung der nicht versperrten systeminternen Komponenten zusammen. Jede Zelle in der Tabelle entspricht einem Namen, der durch Anhängen des Vorgangsnamens in der am weitesten links befindlichen Zelle der Zeile und des Typnamens in der obersten Zelle der Spalte an _Interlocked
abgeleitet wird. Beispielsweise entspricht _InterlockedXor8
die Zelle am Schnittpunkt der Xor
Zeile und der 8
Spalte und wird vollständig unterstützt. Die meisten unterstützten Funktionen bieten diese optionalen Suffixe: _acq
, _rel
und _nf
. Das _acq
-Suffix gibt eine „Acquire“-Semantik zum Abrufen an, und das _rel
-Suffix gibt eine „Release“-Semantik zum Freigeben an. Das _nf
Suffix "No zaun" ist einzigartig für ARM und ARM64 und wird im nächsten Abschnitt erläutert.
Vorgang | 8 | 16 | 32 | 64 | 128 | P |
---|---|---|---|---|---|---|
Add (Hinzufügen) | Keine | Keine | Vollständig | Vollständig | Keine | Keine |
Und | Vollständig | Vollständig | Vollständig | Vollständig | Keine | Keine |
CompareExchange | Vollständig | Vollständig | Vollständig | Vollständig | Vollständig | Vollständig |
Dekrement | Keine | Vollständig | Vollständig | Vollständig | Keine | Keine |
Exchange | Vollständig | Vollständig | Vollständig | Vollständig | Keine | Vollständig |
ExchangeAdd | Vollständig | Vollständig | Vollständig | Vollständig | Keine | Keine |
Increment | Keine | Vollständig | Vollständig | Vollständig | Keine | Keine |
Oder | Vollständig | Vollständig | Vollständig | Vollständig | Keine | Keine |
Xor | Vollständig | Vollständig | Vollständig | Vollständig | Keine | Keine |
Schlüssel:
Vollständig: unterstützt einfache,
_acq
,_rel
und_nf
Formulare.Keine: Nicht unterstützt
suffix _nf (kein Zaun)
Das _nf
Suffix oder "kein Zaun" gibt an, dass sich der Vorgang nicht als eine Art von Speicherbarriere verhält, im Gegensatz zu den anderen drei Formen (nur, _acq
und _rel
), die sich alle als eine Art von Barriere verhalten. Eine mögliche Verwendung der _nf
Formulare besteht darin, einen Statistikindikator beizubehalten, der von mehreren Threads gleichzeitig aktualisiert wird, deren Wert jedoch nicht andernfalls verwendet wird, während mehrere Threads ausgeführt werden.
Liste der systeminternen Verriegelungen
Funktionsname | Funktionsprototyp |
---|---|
_InterlockedAdd | long _InterlockedAdd(long _volatile *, long) |
_InterlockedAdd64 | __int64 _InterlockedAdd64(__int64 veränderlich *, __int64) |
_InterlockedAdd64_acq | __int64 _InterlockedAdd64_acq(__int64 veränderlich *, __int64) |
_InterlockedAdd64_nf | __int64 _InterlockedAdd64_nf(__int64 veränderlich *, __int64) |
_InterlockedAdd64_rel | __int64 _InterlockedAdd64_rel(__int64 veränderlich *, __int64) |
_InterlockedAdd_acq | long _InterlockedAdd_acq(long volatile *, long) |
_InterlockedAdd_nf | long _InterlockedAdd_nf(long volatile *, long) |
_InterlockedAdd_rel | long _InterlockedAdd_rel(long volatile *, long) |
_InterlockedAnd | long _InterlockedAnd(long volatile *, long) |
_InterlockedAnd16 | short _InterlockedAnd16(short volatile *, short) |
_InterlockedAnd16_acq | short _InterlockedAnd16_acq(short volatile *, short) |
_InterlockedAnd16_nf | short _InterlockedAnd16_nf(short volatile *, short) |
_InterlockedAnd16_rel | short _InterlockedAnd16_rel(short volatile *, short) |
_InterlockedAnd64 | __int64 _InterlockedAnd64(__int64 veränderlich *, __int64) |
_InterlockedAnd64_acq | __int64 _InterlockedAnd64_acq(__int64 veränderlich *, __int64) |
_InterlockedAnd64_nf | __int64 _InterlockedAnd64_nf(__int64 veränderlich *, __int64) |
_InterlockedAnd64_rel | __int64 _InterlockedAnd64_rel(__int64 veränderlich *, __int64) |
_InterlockedAnd8 | char _InterlockedAnd8(char volatile *, char) |
_InterlockedAnd8_acq | char _InterlockedAnd8_acq(char volatile *, char) |
_InterlockedAnd8_nf | char _InterlockedAnd8_nf(char volatile *, char) |
_InterlockedAnd8_rel | char _InterlockedAnd8_rel(char volatile *, char) |
_InterlockedAnd_acq | long _InterlockedAnd_acq(long volatile *, long) |
_InterlockedAnd_nf | long _InterlockedAnd_nf(long volatile *, long) |
_InterlockedAnd_rel | long _InterlockedAnd_rel(long volatile *, long) |
_InterlockedCompareExchange | long __cdecl _InterlockedCompareExchange(long volatile *, long, long) |
_InterlockedCompareExchange_acq | long _InterlockedCompareExchange_acq(long volatile *, long, long) |
_InterlockedCompareExchange_nf | long _InterlockedCompareExchange_nf(long volatile *, long, long) |
_InterlockedCompareExchange_rel | long _InterlockedCompareExchange_rel(long volatile *, long, long) |
_InterlockedCompareExchange16 | short _InterlockedCompareExchange16(short volatile *, short, short) |
_InterlockedCompareExchange16_acq | short _InterlockedCompareExchange16_acq(short volatile *, short, short) |
_InterlockedCompareExchange16_nf | short _InterlockedCompareExchange16_nf(short volatile *, short, short) |
_InterlockedCompareExchange16_rel | short _InterlockedCompareExchange16_rel(short volatile *, short, short) |
_InterlockedCompareExchange64 | __int64 _InterlockedCompareExchange64(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange64_acq | __int64 _InterlockedCompareExchange64_acq(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange64_nf | __int64 _InterlockedCompareExchange64_nf(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange64_rel | __int64 _InterlockedCompareExchange64_rel(__int64 veränderlich *, __int64, __int64) |
_InterlockedCompareExchange8 | char _InterlockedCompareExchange8(char volatile *, char, char) |
_InterlockedCompareExchange8_acq | char _InterlockedCompareExchange8_acq(char volatile *, char, char) |
_InterlockedCompareExchange8_nf | char _InterlockedCompareExchange8_nf(char volatile *, char, char) |
_InterlockedCompareExchange8_rel | char _InterlockedCompareExchange8_rel(char volatile *, char, char) |
_InterlockedCompareExchangePointer | void * _InterlockedCompareExchangePointer(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchangePointer_acq | void * _InterlockedCompareExchangePointer_acq(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchangePointer_nf | void * _InterlockedCompareExchangePointer_nf(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchangePointer_rel | void * _InterlockedCompareExchangePointer_rel(void * volatile *, void *, void *, void *) |
_InterlockedCompareExchange128 | nicht signierte Zeichen _InterlockedCompareExchange128(__int64 veränderlich * _Destination, __int64 _ExchangeHigh, __int64 _ExchangeLow, __int64 * _ComparandResult) |
_InterlockedCompareExchange128_acq | nicht signierte Zeichen _InterlockedCompareExchange128_acq(__int64 veränderlich * _Destination, __int64 _ExchangeHigh, __int64 _ExchangeLow, __int64 * _ComparandResult) |
_InterlockedCompareExchange128_nf | nicht signierte Zeichen _InterlockedCompareExchange128_nf(__int64 veränderlich * _Destination, __int64 _ExchangeHigh, __int64 _ExchangeLow, __int64 * _ComparandResult) |
_InterlockedCompareExchange128_rel | nicht signierte Zeichen _InterlockedCompareExchange128_rel(__int64 veränderlich * _Destination, __int64 _ExchangeHigh, __int64 _ExchangeLow, __int64 * _ComparandResult) |
_InterlockedDecrement | long __cdecl _InterlockedDecrement(long volatile *) |
_InterlockedDecrement16 | short _InterlockedDecrement16(short volatile *) |
_InterlockedDecrement16_acq | short _InterlockedDecrement16_acq(short volatile *) |
_InterlockedDecrement16_nf | short _InterlockedDecrement16_nf(short volatile *) |
_InterlockedDecrement16_rel | short _InterlockedDecrement16_rel(short volatile *) |
_InterlockedDecrement64 | __int64 _InterlockedDecrement64(__int64 veränderlich *) |
_InterlockedDecrement64_acq | __int64 _InterlockedDecrement64_acq(__int64 veränderlich *) |
_InterlockedDecrement64_nf | __int64 _InterlockedDecrement64_nf(__int64 veränderlich *) |
_InterlockedDecrement64_rel | __int64 _InterlockedDecrement64_rel(__int64 veränderlich *) |
_InterlockedDecrement_acq | long _InterlockedDecrement_acq(long volatile *) |
_InterlockedDecrement_nf | long _InterlockedDecrement_nf(long volatile *) |
_InterlockedDecrement_rel | long _InterlockedDecrement_rel(long volatile *) |
_InterlockedExchange | long __cdecl _InterlockedExchange(long volatile * _Target, long) |
_InterlockedExchange_acq | long _InterlockedExchange_acq(long volatile * _Target, long) |
_InterlockedExchange_nf | long _InterlockedExchange_nf(long volatile * _Target, long) |
_InterlockedExchange_rel | long _InterlockedExchange_rel(long volatile * _Target, long) |
_InterlockedExchange16 | short _InterlockedExchange16(short volatile * _Target, short) |
_InterlockedExchange16_acq | short _InterlockedExchange16_acq(short volatile * _Target, short) |
_InterlockedExchange16_nf | short _InterlockedExchange16_nf(short volatile * _Target, short) |
_InterlockedExchange16_rel | short _InterlockedExchange16_rel(short volatile * _Target, short) |
_InterlockedExchange64 | __int64 _InterlockedExchange64(__int64 veränderlich * _Target, __int64) |
_InterlockedExchange64_acq | __int64 _InterlockedExchange64_acq(__int64 veränderlich * _Target, __int64) |
_InterlockedExchange64_nf | __int64 _InterlockedExchange64_nf(__int64 veränderlich * _Target, __int64) |
_InterlockedExchange64_rel | __int64 _InterlockedExchange64_rel(__int64 veränderlich * _Target, __int64) |
_InterlockedExchange8 | char _InterlockedExchange8(char volatile * _Target, char) |
_InterlockedExchange8_acq | char _InterlockedExchange8_acq(char volatile * _Target, char) |
_InterlockedExchange8_nf | char _InterlockedExchange8_nf(char volatile * _Target, char) |
_InterlockedExchange8_rel | char _InterlockedExchange8_rel(char volatile * _Target, char) |
_InterlockedExchangeAdd | long __cdecl _InterlockedExchangeAdd(long volatile *, long) |
_InterlockedExchangeAdd16 | short _InterlockedExchangeAdd16(short volatile *, short) |
_InterlockedExchangeAdd16_acq | short _InterlockedExchangeAdd16_acq(short volatile *, short) |
_InterlockedExchangeAdd16_nf | short _InterlockedExchangeAdd16_nf(short volatile *, short) |
_InterlockedExchangeAdd16_rel | short _InterlockedExchangeAdd16_rel(short volatile *, short) |
_InterlockedExchangeAdd64 | __int64 _InterlockedExchangeAdd64(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd64_acq | __int64 _InterlockedExchangeAdd64_acq(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd64_nf | __int64 _InterlockedExchangeAdd64_nf(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd64_rel | __int64 _InterlockedExchangeAdd64_rel(__int64 veränderlich *, __int64) |
_InterlockedExchangeAdd8 | char _InterlockedExchangeAdd8(char volatile *, char) |
_InterlockedExchangeAdd8_acq | char _InterlockedExchangeAdd8_acq(char volatile *, char) |
_InterlockedExchangeAdd8_nf | char _InterlockedExchangeAdd8_nf(char volatile *, char) |
_InterlockedExchangeAdd8_rel | char _InterlockedExchangeAdd8_rel(char volatile *, char) |
_InterlockedExchangeAdd_acq | long _InterlockedExchangeAdd_acq(long volatile *, long) |
_InterlockedExchangeAdd_nf | long _InterlockedExchangeAdd_nf(long volatile *, long) |
_InterlockedExchangeAdd_rel | long _InterlockedExchangeAdd_rel(long volatile *, long) |
_InterlockedExchangePointer | void * _InterlockedExchangePointer(void * volatile * _Target, void *) |
_InterlockedExchangePointer_acq | void * _InterlockedExchangePointer_acq(void * volatile * _Target, void *) |
_InterlockedExchangePointer_nf | void * _InterlockedExchangePointer_nf(void * volatile * _Target, void *) |
_InterlockedExchangePointer_rel | void * _InterlockedExchangePointer_rel(void * volatile * _Target, void *) |
_InterlockedIncrement | long __cdecl _InterlockedIncrement(long volatile *) |
_InterlockedIncrement16 | short _InterlockedIncrement16(short volatile *) |
_InterlockedIncrement16_acq | short _InterlockedIncrement16_acq(short volatile *) |
_InterlockedIncrement16_nf | short _InterlockedIncrement16_nf(short volatile *) |
_InterlockedIncrement16_rel | short _InterlockedIncrement16_rel(short volatile *) |
_InterlockedIncrement64 | __int64 _InterlockedIncrement64(__int64 veränderlich *) |
_InterlockedIncrement64_acq | __int64 _InterlockedIncrement64_acq(__int64 veränderlich *) |
_InterlockedIncrement64_nf | __int64 _InterlockedIncrement64_nf(__int64 veränderlich *) |
_InterlockedIncrement64_rel | __int64 _InterlockedIncrement64_rel(__int64 veränderlich *) |
_InterlockedIncrement_acq | long _InterlockedIncrement_acq(long volatile *) |
_InterlockedIncrement_nf | long _InterlockedIncrement_nf(long volatile *) |
_InterlockedIncrement_rel | long _InterlockedIncrement_rel(long volatile *) |
_InterlockedOr | long _InterlockedOr(long volatile *, long) |
_InterlockedOr16 | short _InterlockedOr16(short volatile *, short) |
_InterlockedOr16_acq | short _InterlockedOr16_acq(short volatile *, short) |
_InterlockedOr16_nf | short _InterlockedOr16_nf(short volatile *, short) |
_InterlockedOr16_rel | short _InterlockedOr16_rel(short volatile *, short) |
_InterlockedOr64 | __int64 _InterlockedOr64(__int64 veränderlich *, __int64) |
_InterlockedOr64_acq | __int64 _InterlockedOr64_acq(__int64 veränderlich *, __int64) |
_InterlockedOr64_nf | __int64 _InterlockedOr64_nf(__int64 veränderlich *, __int64) |
_InterlockedOr64_rel | __int64 _InterlockedOr64_rel(__int64 veränderlich *, __int64) |
_InterlockedOr8 | char _InterlockedOr8(char volatile *, char) |
_InterlockedOr8_acq | char _InterlockedOr8_acq(char volatile *, char) |
_InterlockedOr8_nf | char _InterlockedOr8_nf(char volatile *, char) |
_InterlockedOr8_rel | char _InterlockedOr8_rel(char volatile *, char) |
_InterlockedOr_acq | long _InterlockedOr_acq(long volatile *, long) |
_InterlockedOr_nf | long _InterlockedOr_nf(long volatile *, long) |
_InterlockedOr_rel | long _InterlockedOr_rel(long volatile *, long) |
_InterlockedXor | long _InterlockedXor(long volatile *, long) |
_InterlockedXor16 | short _InterlockedXor16(short volatile *, short) |
_InterlockedXor16_acq | short _InterlockedXor16_acq(short volatile *, short) |
_InterlockedXor16_nf | short _InterlockedXor16_nf(short volatile *, short) |
_InterlockedXor16_rel | short _InterlockedXor16_rel(short volatile *, short) |
_InterlockedXor64 | __int64 _InterlockedXor64(__int64 veränderlich *, __int64) |
_InterlockedXor64_acq | __int64 _InterlockedXor64_acq(__int64 veränderlich *, __int64) |
_InterlockedXor64_nf | __int64 _InterlockedXor64_nf(__int64 veränderlich *, __int64) |
_InterlockedXor64_rel | __int64 _InterlockedXor64_rel(__int64 veränderlich *, __int64) |
_InterlockedXor8 | char _InterlockedXor8(char volatile *, char) |
_InterlockedXor8_acq | char _InterlockedXor8_acq(char volatile *, char) |
_InterlockedXor8_nf | char _InterlockedXor8_nf(char volatile *, char) |
_InterlockedXor8_rel | char _InterlockedXor8_rel(char volatile *, char) |
_InterlockedXor_acq | long _InterlockedXor_acq(long volatile *, long) |
_InterlockedXor_nf | long _InterlockedXor_nf(long volatile *, long) |
_InterlockedXor_rel | long _InterlockedXor_rel(long volatile *, long) |
systeminterne _interlockedbittest
Die reinen interlockierten Bittests sind für alle Plattformen üblich. ARM64 fügt _acq
, _rel
und _nf
Varianten hinzu, die einfach die Barrieresemantik eines Vorgangs ändern, wie in _nf (kein Zaun) Suffix weiter oben in diesem Artikel beschrieben.
Funktionsname | Funktionsprototyp |
---|---|
_interlockedbittestandreset | nicht signierte Zeichen _interlockedbittestandreset(long volatile *, long) |
_interlockedbittestandreset_acq | nicht signiertes Zeichen _interlockedbittestandreset_acq(long volatile *, long) |
_interlockedbittestandreset_nf | nicht signiertes Zeichen _interlockedbittestandreset_nf(long volatile *, long) |
_interlockedbittestandreset_rel | nicht signierte Zeichen _interlockedbittestandreset_rel(long volatile *, long) |
_interlockedbittestandreset64 | nicht signierte Zeichen _interlockedbittestandreset64(__int64 veränderlich *, __int64) |
_interlockedbittestandreset64_acq | nicht signierte Zeichen _interlockedbittestandreset64_acq(__int64 veränderlich *, __int64) |
_interlockedbittestandreset64_nf | nicht signierte Zeichen _interlockedbittestandreset64_nf(__int64 veränderlich *, __int64) |
_interlockedbittestandreset64_rel | nicht signierte Zeichen _interlockedbittestandreset64_rel(__int64 veränderlich *, __int64) |
_interlockedbittestandset | nicht signiertes Zeichen _interlockedbittestandset(long volatile *, long) |
_interlockedbittestandset_acq | nicht signierte Zeichen _interlockedbittestandset_acq(long volatile *, long) |
_interlockedbittestandset_nf | nicht signierte Zeichen _interlockedbittestandset_nf(long volatile *, long) |
_interlockedbittestandset_rel | nicht signierte Zeichen _interlockedbittestandset_rel(long volatile *, long) |
_interlockedbittestandset64 | nicht signierte Zeichen _interlockedbittestandset64(__int64 veränderlich *, __int64) |
_interlockedbittestandset64_acq | nicht signierte Zeichen _interlockedbittestandset64_acq(__int64 veränderlich *, __int64) |
_interlockedbittestandset64_nf | nicht signierte Zeichen _interlockedbittestandset64_nf(__int64 veränderlich *, __int64) |
_interlockedbittestandset64_rel | nicht signierte Zeichen _interlockedbittestandset64_rel(__int64 veränderlich *, __int64) |
Siehe auch
Systeminterne Compiler
Systeminterne ARM-Funktionen
ARM-Assemblerreferenz
C#-Programmiersprachenreferenz