Avx512F 클래스
정의
중요
일부 정보는 릴리스되기 전에 상당 부분 수정될 수 있는 시험판 제품과 관련이 있습니다. Microsoft는 여기에 제공된 정보에 대해 어떠한 명시적이거나 묵시적인 보증도 하지 않습니다.
중요
이 API는 CLS 규격이 아닙니다.
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다.
public ref class Avx512F abstract : System::Runtime::Intrinsics::X86::Avx2
[System.CLSCompliant(false)]
public abstract class Avx512F : System.Runtime.Intrinsics.X86.Avx2
[<System.CLSCompliant(false)>]
type Avx512F = class
inherit Avx2
Public MustInherit Class Avx512F
Inherits Avx2
- 상속
- 파생
- 특성
속성
IsSupported |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
메서드
Abs(Vector512<Int32>) |
__m512i _mm512_abs_epi32(__m512i) VPABSD zmm1 {k1}{z}, zmm2/m512/m32bcst |
Abs(Vector512<Int64>) |
__m512i _mm512_abs_epi64(__m512i) VPABSQ zmm1 {k1}{z}, zmm2/m512/m64bcst |
Add(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_add_pd(a, __m512d b __m512d) VADDPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{er} |
Add(Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Add(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_add_epi32(a, __m512i b __m512i) VPADDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Add(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_add_epi64(a, __m512i b __m512i) VPADDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Add(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_add_ps(a, __m512 b __m512) VADDPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{er} |
Add(Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Add(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_add_epi32(a, __m512i b __m512i) VPADDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Add(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_add_epi64(a, __m512i b __m512i) VPADDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
AddScalar(Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
AddScalar(Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
AlignRight32(Vector512<Int32>, Vector512<Int32>, Byte) |
__m512i _mm512_alignr_epi32(a, __m512i b, const int count __m512i) VALIGND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
AlignRight32(Vector512<UInt32>, Vector512<UInt32>, Byte) |
__m512i _mm512_alignr_epi32(a, __m512i b, const int count __m512i) VALIGND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
AlignRight64(Vector512<Int64>, Vector512<Int64>, Byte) |
__m512i _mm512_alignr_epi64(__m512i, __m512i b, const int count) VALIGNQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
AlignRight64(Vector512<UInt64>, Vector512<UInt64>, Byte) |
__m512i _mm512_alignr_epi64(__m512i, __m512i b, const int count) VALIGNQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
And(Vector512<Byte>, Vector512<Byte>) |
__m512i _mm512_and_si512(a, __m512i b __m512i) VPANDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
And(Vector512<Int16>, Vector512<Int16>) |
__m512i _mm512_and_si512(a, __m512i b __m512i) VPANDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
And(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_and_epi32(a, __m512i b __m512i) VPANDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
And(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_and_epi64(a, __m512i b __m512i) VPANDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
And(Vector512<SByte>, Vector512<SByte>) |
__m512i _mm512_and_si512(a, __m512i b __m512i) VPANDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
And(Vector512<UInt16>, Vector512<UInt16>) |
__m512i _mm512_and_si512(a, __m512i b __m512i) VPANDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
And(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_and_epi32(a, __m512i b __m512i) VPANDD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
And(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_and_epi64(a, __m512i b __m512i) VPANDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
AndNot(Vector512<Byte>, Vector512<Byte>) |
__m512i _mm512_andnot_si512(a, __m512i b __m512i) VPANDND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
AndNot(Vector512<Int16>, Vector512<Int16>) |
__m512i _mm512_andnot_si512(a, __m512i b __m512i) VPANDND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
AndNot(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_andnot_epi32(a, __m512i b __m512i) VPANDND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
AndNot(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_andnot_epi64(a, __m512i b __m512i) VPANDNQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
AndNot(Vector512<SByte>, Vector512<SByte>) |
__m512i _mm512_andnot_si512(a, __m512i b __m512i) VPANDND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
AndNot(Vector512<UInt16>, Vector512<UInt16>) |
__m512i _mm512_andnot_si512(a, __m512i b __m512i) VPANDND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
AndNot(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_andnot_epi32(a, __m512i b __m512i) VPANDND zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
AndNot(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_andnot_epi64(a, __m512i b __m512i) VPANDNQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
BlendVariable(Vector512<Double>, Vector512<Double>, Vector512<Double>) |
__m512d _mm512_blendv_pd(a, __m512d b, __m512d 마스크 __m512d) VBLENDMPD zmm1 {k1}, zmm2, zmm3/m512/m64bcst |
BlendVariable(Vector512<Int32>, Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_blendv_epi32(a, __m512i b, __m512i 마스크 __m512i) VPBLENDMD zmm1 {k1}, zmm2, zmm3/m512/m32bcst |
BlendVariable(Vector512<Int64>, Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_blendv_epi64(a, __m512i b, __m512i 마스크 __m512i) VPBLENDMQ zmm1 {k1}, zmm2, zmm3/m512/m64bcst |
BlendVariable(Vector512<Single>, Vector512<Single>, Vector512<Single>) |
__m512 _mm512_blendv_ps(a, __m512 b, __m512 마스크 __m512) VBLENDMPS zmm1 {k1}, zmm2, zmm3/m512/m32bcst |
BlendVariable(Vector512<UInt32>, Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_blendv_epu32(a, __m512i b, __m512i 마스크 __m512i) VPBLENDMD zmm1 {k1}, zmm2, zmm3/m512/m32bcst |
BlendVariable(Vector512<UInt64>, Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_blendv_epu64(a, __m512i b, __m512i 마스크 __m512i) VPBLENDMQ zmm1 {k1}, zmm2, zmm3/m512/m64bcst |
BroadcastScalarToVector512(Vector128<Double>) |
__m512d _mm512_broadcastsd_pd(__m128d a) VBROADCASTSD zmm1 {k1}{z}, xmm2/m64 |
BroadcastScalarToVector512(Vector128<Int32>) |
__m512i _mm512_broadcastd_epi32(__m128i) VPBROADCASTD zmm1 {k1}{z}, xmm2/m32 |
BroadcastScalarToVector512(Vector128<Int64>) |
__m512i _mm512_broadcastq_epi64(__m128i a) VPBROADCASTQ zmm1 {k1}{z}, xmm2/m64 |
BroadcastScalarToVector512(Vector128<Single>) |
__m512 _mm512_broadcastss_ps(__m128) VBROADCASTSS zmm1 {k1}{z}, xmm2/m32 |
BroadcastScalarToVector512(Vector128<UInt32>) |
__m512i _mm512_broadcastd_epi32(__m128i) VPBROADCASTD zmm1 {k1}{z}, xmm2/m32 |
BroadcastScalarToVector512(Vector128<UInt64>) |
__m512i _mm512_broadcastq_epi64(__m128i a) VPBROADCASTQ zmm1 {k1}{z}, xmm2/m64 |
BroadcastVector128ToVector512(Int32*) |
__m512i _mm512_broadcast_i32x4(__m128i const * mem_addr) VBROADCASTI32x4 zmm1 {k1}{z}, m128 |
BroadcastVector128ToVector512(Single*) |
__m512 _mm512_broadcast_f32x4(__m128 const * mem_addr) VBROADCASTF32x4 zmm1 {k1}{z}, m128 |
BroadcastVector128ToVector512(UInt32*) |
__m512i _mm512_broadcast_i32x4(__m128i const * mem_addr) VBROADCASTI32x4 zmm1 {k1}{z}, m128 |
BroadcastVector256ToVector512(Double*) |
__m512d _mm512_broadcast_f64x4(__m256d const * mem_addr) VBROADCASTF64x4 zmm1 {k1}{z}, m256 |
BroadcastVector256ToVector512(Int64*) |
__m512i _mm512_broadcast_i64x4(__m256i const * mem_addr) VBROADCASTI64x4 zmm1 {k1}{z}, m256 |
BroadcastVector256ToVector512(UInt64*) |
__m512i _mm512_broadcast_i64x4(__m256i const * mem_addr) VBROADCASTI64x4 zmm1 {k1}{z}, m256 |
Compare(Vector512<Double>, Vector512<Double>, FloatComparisonMode) |
__m512d _mm512_cmp_pd(a, __m512d b, const int imm8 __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8 |
Compare(Vector512<Single>, Vector512<Single>, FloatComparisonMode) |
__m512 _mm512_cmp_ps(a, __m512 b, const int imm8 __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8 |
CompareEqual(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpeq_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(0) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareEqual(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_cmpeq_epi32(a, __m512i b __m512i) VPCMPEQD k1 {k2}, zmm2, zmm3/m512/m32bcst |
CompareEqual(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_cmpeq_epi64(a, __m512i b __m512i) VPCMPEQQ k1 {k2}, zmm2, zmm3/m512/m64bcst |
CompareEqual(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpeq_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(0) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareEqual(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_cmpeq_epu32(a, __m512i b __m512i) VPCMPEQD k1 {k2}, zmm2, zmm3/m512/m32bcst |
CompareEqual(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_cmpeq_epu64(a, __m512i b __m512i) VPCMPEQQ k1 {k2}, zmm2, zmm3/m512/m64bcst |
CompareGreaterThan(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpgt_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(14) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareGreaterThan(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_cmpgt_epi32(a, __m512i b __m512i) VPCMPGTD k1 {k2}, zmm2, zmm3/m512/m32bcst |
CompareGreaterThan(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_cmpgt_epi64(a, __m512i b __m512i) VPCMPGTQ k1 {k2}, zmm2, zmm3/m512/m64bcst |
CompareGreaterThan(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpgt_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(14) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareGreaterThan(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_cmpgt_epu32(a, __m512i b __m512i) VPCMPUD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(6) |
CompareGreaterThan(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_cmpgt_epu64(a, __m512i b __m512i) VPCMPUQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(6) |
CompareGreaterThanOrEqual(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpge_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(13) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareGreaterThanOrEqual(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_cmpge_epi32(a, __m512i b __m512i) VPCMPD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(5) |
CompareGreaterThanOrEqual(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_cmpge_epi64(a, __m512i b __m512i) VPCMPQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(5) |
CompareGreaterThanOrEqual(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpge_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(13) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareGreaterThanOrEqual(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_cmpge_epu32(a, __m512i b __m512i) VPCMPUD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(5) |
CompareGreaterThanOrEqual(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_cmpge_epu64(a, __m512i b __m512i) VPCMPUQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(5) |
CompareLessThan(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmplt_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(1) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareLessThan(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_cmplt_epi32(a, __m512i b __m512i) VPCMPD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(1) |
CompareLessThan(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_cmplt_epi64(a, __m512i b __m512i) VPCMPQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(1) |
CompareLessThan(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmplt_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(1) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareLessThan(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_cmplt_epu32(a, __m512i b __m512i) VPCMPUD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(1) |
CompareLessThan(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_cmplt_epu64(a, __m512i b __m512i) VPCMPUQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(1) |
CompareLessThanOrEqual(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmple_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(2) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareLessThanOrEqual(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_cmple_epi32(a, __m512i b __m512i) VPCMPD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(2) |
CompareLessThanOrEqual(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_cmple_epi64(a, __m512i b __m512i) VPCMPQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(2) |
CompareLessThanOrEqual(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmple_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(2) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareLessThanOrEqual(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_cmple_epu32(a, __m512i b __m512i) VPCMPUD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(2) |
CompareLessThanOrEqual(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_cmple_epu64(a, __m512i b __m512i) VPCMPUQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(2) |
CompareNotEqual(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpneq_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(4) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotEqual(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_cmpne_epi32(a, __m512i b __m512i) VPCMPD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(4) |
CompareNotEqual(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_cmpne_epi64(a, __m512i b __m512i) VPCMPQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(4) |
CompareNotEqual(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpneq_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(4) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotEqual(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_cmpne_epu32(a, __m512i b __m512i) VPCMPUD k1 {k2}, zmm2, zmm3/m512/m32bcst, imm8(4) |
CompareNotEqual(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_cmpne_epu64(a, __m512i b __m512i) VPCMPUQ k1 {k2}, zmm2, zmm3/m512/m64bcst, imm8(4) |
CompareNotGreaterThan(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpngt_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(10) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotGreaterThan(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpngt_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(10) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotGreaterThanOrEqual(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpnge_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(9) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotGreaterThanOrEqual(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpnge_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(9) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotLessThan(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpnlt_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(5) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotLessThan(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpnlt_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(5) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotLessThanOrEqual(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpnle_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(6) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareNotLessThanOrEqual(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpnle_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(6) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareOrdered(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpord_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(7) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareOrdered(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpord_ps(a, __m512 b __m512) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(7) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareUnordered(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_cmpunord_pd(a, __m512d b __m512d) VCMPPD k1 {k2}, zmm2, zmm3/m512/m64bcst{sae}, imm8(3) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
CompareUnordered(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_cmpunord_ps(__m512 a, __m512 b) VCMPPS k1 {k2}, zmm2, zmm3/m512/m32bcst{sae}, imm8(3) 위의 네이티브 서명이 없습니다. 완성하기 위해 이 추가 오버로드를 제공합니다. |
ConvertScalarToVector128Double(Vector128<Double>, UInt32) |
__m128d _mm_cvtsi32_sd (__m128d a, int b) VCVTUSI2SD xmm1, xmm2, r/m32 |
ConvertScalarToVector128Single(Vector128<Single>, Int32, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertScalarToVector128Single(Vector128<Single>, UInt32) |
__m128 _mm_cvtsi32_ss (__m128 a, int b) VCVTUSI2SS xmm1, xmm2, r/m32 |
ConvertScalarToVector128Single(Vector128<Single>, UInt32, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertScalarToVector128Single(Vector128<Single>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToInt32(Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToInt32(Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToUInt32(Vector128<Double>) |
unsigned int _mm_cvtsd_u32(__m128d a) VCVTSD2USI r32, xmm1/m64{er} |
ConvertToUInt32(Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToUInt32(Vector128<Single>) |
unsigned int _mm_cvtss_u32(__m128 a) VCVTSS2USI r32, xmm1/m32{er} |
ConvertToUInt32(Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToUInt32WithTruncation(Vector128<Double>) |
unsigned int _mm_cvttsd_u32(__m128d a) VCVTTSD2USI r32, xmm1/m64{er} |
ConvertToUInt32WithTruncation(Vector128<Single>) |
unsigned int _mm_cvttss_u32(__m128 a) VCVTTSS2USI r32, xmm1/m32{er} |
ConvertToVector128Byte(Vector512<Int32>) |
__m128i _mm512_cvtepi32_epi8(__m512i a) VPMOVDB xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128Byte(Vector512<Int64>) |
__m128i _mm512_cvtepi64_epi8(__m512i a) VPMOVQB xmm1/m64 {k1}{z}, zmm2 |
ConvertToVector128Byte(Vector512<UInt32>) |
__m128i _mm512_cvtepi32_epi8(__m512i a) VPMOVDB xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128Byte(Vector512<UInt64>) |
__m128i _mm512_cvtepi64_epi8(__m512i a) VPMOVQB xmm1/m64 {k1}{z}, zmm2 |
ConvertToVector128ByteWithSaturation(Vector512<UInt32>) |
__m128i _mm512_cvtusepi32_epi8(__m512i) VPMOVUSDB xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128ByteWithSaturation(Vector512<UInt64>) |
__m128i _mm512_cvtusepi64_epi8(__m512i a) VPMOVUSQB xmm1/m64 {k1}{z}, zmm2 |
ConvertToVector128Int16(Vector512<Int64>) |
__m128i _mm512_cvtepi64_epi16(__m512i a) VPMOVQW xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128Int16(Vector512<UInt64>) |
__m128i _mm512_cvtepi64_epi16(__m512i a) VPMOVQW xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128Int16WithSaturation(Vector512<Int64>) |
__m128i _mm512_cvtsepi64_epi16(__m512i a) VPMOVSQW xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128SByte(Vector512<Int32>) |
__m128i _mm512_cvtepi32_epi8(__m512i a) VPMOVDB xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128SByte(Vector512<Int64>) |
__m128i _mm512_cvtepi64_epi8(__m512i a) VPMOVQB xmm1/m64 {k1}{z}, zmm2 |
ConvertToVector128SByte(Vector512<UInt32>) |
__m128i _mm512_cvtepi32_epi8(__m512i a) VPMOVDB xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128SByte(Vector512<UInt64>) |
__m128i _mm512_cvtepi64_epi8(__m512i a) VPMOVQB xmm1/m64 {k1}{z}, zmm2 |
ConvertToVector128SByteWithSaturation(Vector512<Int32>) |
__m128i _mm512_cvtsepi32_epi8(__m512i) VPMOVSDB xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128SByteWithSaturation(Vector512<Int64>) |
__m128i _mm512_cvtsepi64_epi8(__m512i a) VPMOVSQB xmm1/m64 {k1}{z}, zmm2 |
ConvertToVector128UInt16(Vector512<Int64>) |
__m128i _mm512_cvtepi64_epi16(__m512i a) VPMOVQW xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128UInt16(Vector512<UInt64>) |
__m128i _mm512_cvtepi64_epi16(__m512i a) VPMOVQW xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector128UInt16WithSaturation(Vector512<UInt64>) |
__m128i _mm512_cvtusepi64_epi16(__m512i a) VPMOVUSQW xmm1/m128 {k1}{z}, zmm2 |
ConvertToVector256Int16(Vector512<Int32>) |
__m256i _mm512_cvtepi32_epi16(__m512i a) VPMOVDW ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256Int16(Vector512<UInt32>) |
__m256i _mm512_cvtepi32_epi16(__m512i a) VPMOVDW ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256Int16WithSaturation(Vector512<Int32>) |
__m256i _mm512_cvtsepi32_epi16(__m512i) VPMOVSDW ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256Int32(Vector512<Double>) |
__m256i _mm512_cvtpd_epi32(__m512d a) VCVTPD2DQ ymm1 {k1}{z}, zmm2/m512/m64bcst{er} |
ConvertToVector256Int32(Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToVector256Int32(Vector512<Int64>) |
__m256i _mm512_cvtepi64_epi32(__m512i a) VPMOVQD ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256Int32(Vector512<UInt64>) |
__m256i _mm512_cvtepi64_epi32(__m512i a) VPMOVQD ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256Int32WithSaturation(Vector512<Int64>) |
__m256i _mm512_cvtsepi64_epi32(__m512i a) VPMOVSQD ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256Int32WithTruncation(Vector512<Double>) |
__m256i _mm512_cvttpd_epi32(__m512d a) VCVTTPD2DQ ymm1 {k1}{z}, zmm2/m512/m64bcst{sae} |
ConvertToVector256Single(Vector512<Double>) |
__m256 _mm512_cvtpd_ps(__m512d a) VCVTPD2PS ymm1, zmm2/m512 VCVTPD2PS ymm1 {k1}{z}, zmm2/m512/m64bcst{er} |
ConvertToVector256Single(Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToVector256UInt16(Vector512<Int32>) |
__m256i _mm512_cvtepi32_epi16(__m512i a) VPMOVDW ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256UInt16(Vector512<UInt32>) |
__m256i _mm512_cvtepi32_epi16(__m512i) VPMOVDW ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256UInt16WithSaturation(Vector512<UInt32>) |
__m256i _mm512_cvtusepi32_epi16(__m512i) VPMOVUSDW ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256UInt32(Vector512<Double>) |
__m256i _mm512_cvtpd_epu32(__m512d a) VCVTPD2UDQ ymm1 {k1}{z}, zmm2/m512/m64bcst{er} |
ConvertToVector256UInt32(Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToVector256UInt32(Vector512<Int64>) |
__m256i _mm512_cvtepi64_epi32(__m512i a) VPMOVQD ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256UInt32(Vector512<UInt64>) |
__m256i _mm512_cvtepi64_epi32(__m512i a) VPMOVQD ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256UInt32WithSaturation(Vector512<UInt64>) |
__m256i _mm512_cvtusepi64_epi32(__m512i) VPMOVUSQD ymm1/m256 {k1}{z}, zmm2 |
ConvertToVector256UInt32WithTruncation(Vector512<Double>) |
__m256i _mm512_cvttpd_epu32(__m512d) VCVTTPD2UDQ ymm1 {k1}{z}, zmm2/m512/m64bcst{er} |
ConvertToVector512Double(Vector256<Int32>) |
__m512d _mm512_cvtepi32_pd(__m256i) VCVTDQ2PD zmm1 {k1}{z}, ymm2/m256/m32bcst |
ConvertToVector512Double(Vector256<Single>) |
__m512d _mm512_cvtps_pd(__m256) VCVTPS2PD zmm1 {k1}{z}, ymm2/m256/m32bcst{sae} |
ConvertToVector512Double(Vector256<UInt32>) |
__m512d _mm512_cvtepu32_pd(__m256i) VCVTUDQ2PD zmm1 {k1}{z}, ymm2/m256/m32bcst |
ConvertToVector512Int32(Vector128<Byte>) |
__m512i _mm512_cvtepu8_epi32(__m128i a) VPMOVZXBD zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512Int32(Vector128<SByte>) |
__m512i _mm512_cvtepi8_epi32(__m128i) VPMOVSXBD zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512Int32(Vector256<Int16>) |
__m512i _mm512_cvtepi16_epi32(__m128i) VPMOVSXWD zmm1 {k1}{z}, ymm2/m256 |
ConvertToVector512Int32(Vector256<UInt16>) |
__m512i _mm512_cvtepu16_epi32(__m128i) VPMOVZXWD zmm1 {k1}{z}, ymm2/m256 |
ConvertToVector512Int32(Vector512<Single>) |
__m512i _mm512_cvtps_epi32(__m512) VCVTPS2DQ zmm1 {k1}{z}, zmm2/m512/m32bcst{er} |
ConvertToVector512Int32(Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToVector512Int32WithTruncation(Vector512<Single>) |
__m512i _mm512_cvttps_epi32(__m512 a) VCVTTPS2DQ zmm1 {k1}{z}, zmm2/m512/m32bcst{sae} |
ConvertToVector512Int64(Vector128<Byte>) |
__m512i _mm512_cvtepu8_epi64(__m128i) VPMOVZXBQ zmm1 {k1}{z}, xmm2/m64 |
ConvertToVector512Int64(Vector128<Int16>) |
__m512i _mm512_cvtepi16_epi64(__m128i) VPMOVSXWQ zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512Int64(Vector128<SByte>) |
__m512i _mm512_cvtepi8_epi64(__m128i) VPMOVSXBQ zmm1 {k1}{z}, xmm2/m64 |
ConvertToVector512Int64(Vector128<UInt16>) |
__m512i _mm512_cvtepu16_epi64(__m128i) VPMOVZXWQ zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512Int64(Vector256<Int32>) |
__m512i _mm512_cvtepi32_epi64(__m128i) VPMOVSXDQ zmm1 {k1}{z}, ymm2/m256 |
ConvertToVector512Int64(Vector256<UInt32>) |
__m512i _mm512_cvtepu32_epi64(__m128i) VPMOVZXDQ zmm1 {k1}{z}, ymm2/m256 |
ConvertToVector512Single(Vector512<Int32>) |
__m512 _mm512_cvtepi32_ps(__m512i) VCVTDQ2PS zmm1 {k1}{z}, zmm2/m512/m32bcst{er} |
ConvertToVector512Single(Vector512<Int32>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToVector512Single(Vector512<UInt32>) |
__m512 _mm512_cvtepu32_ps(__m512i) VCVTUDQ2PS zmm1 {k1}{z}, zmm2/m512/m32bcst{er} |
ConvertToVector512Single(Vector512<UInt32>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToVector512UInt32(Vector128<Byte>) |
__m512i _mm512_cvtepu8_epi32(__m128i a) VPMOVZXBD zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512UInt32(Vector128<SByte>) |
__m512i _mm512_cvtepi8_epi32(__m128i) VPMOVSXBD zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512UInt32(Vector256<Int16>) |
__m512i _mm512_cvtepi16_epi32(__m128i) VPMOVSXWD zmm1 {k1}{z}, ymm2/m256 |
ConvertToVector512UInt32(Vector256<UInt16>) |
__m512i _mm512_cvtepu16_epi32(__m128i) VPMOVZXWD zmm1 {k1}{z}, ymm2/m256 |
ConvertToVector512UInt32(Vector512<Single>) |
__m512i _mm512_cvtps_epu32(__m512) VCVTPS2UDQ zmm1 {k1}{z}, zmm2/m512/m32bcst{er} |
ConvertToVector512UInt32(Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ConvertToVector512UInt32WithTruncation(Vector512<Single>) |
__m512i _mm512_cvttps_epu32(__m512 a) VCVTTPS2UDQ zmm1 {k1}{z}, zmm2/m512/m32bcst{er} |
ConvertToVector512UInt64(Vector128<Byte>) |
__m512i _mm512_cvtepu8_epi64(__m128i) VPMOVZXBQ zmm1 {k1}{z}, xmm2/m64 |
ConvertToVector512UInt64(Vector128<Int16>) |
__m512i _mm512_cvtepi16_epi64(__m128i) VPMOVSXWQ zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512UInt64(Vector128<SByte>) |
__m512i _mm512_cvtepi8_epi64(__m128i) VPMOVSXBQ zmm1 {k1}{z}, xmm2/m64 |
ConvertToVector512UInt64(Vector128<UInt16>) |
__m512i _mm512_cvtepu16_epi64(__m128i) VPMOVZXWQ zmm1 {k1}{z}, xmm2/m128 |
ConvertToVector512UInt64(Vector256<Int32>) |
__m512i _mm512_cvtepi32_epi64(__m128i) VPMOVSXDQ zmm1 {k1}{z}, ymm2/m256 |
ConvertToVector512UInt64(Vector256<UInt32>) |
__m512i _mm512_cvtepu32_epi64(__m128i) VPMOVZXDQ zmm1 {k1}{z}, ymm2/m256 |
Divide(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_div_pd(a, __m512d b __m512d) VDIVPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{er} |
Divide(Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Divide(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_div_ps(a, __m512 b __m512) VDIVPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{er} |
Divide(Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
DivideScalar(Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
DivideScalar(Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
DuplicateEvenIndexed(Vector512<Double>) |
__m512d _mm512_movedup_pd(__m512d) VMOVDDUP zmm1 {k1}{z}, zmm2/m512 |
DuplicateEvenIndexed(Vector512<Single>) |
__m512 _mm512_moveldup_ps(__m512) VMOVSLDUP zmm1 {k1}{z}, zmm2/m512 |
DuplicateOddIndexed(Vector512<Single>) |
__m512 _mm512_movehdup_ps(__m512) VMOVSHDUP zmm1 {k1}{z}, zmm2/m512 |
Equals(Object) |
지정된 개체가 현재 개체와 같은지 확인합니다. (다음에서 상속됨 Object) |
ExtractVector128(Vector512<Byte>, Byte) |
__m128i _mm512_extracti128_si512(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<Double>, Byte) |
__m128d _mm512_extractf128_pd(__m512d, const int imm8) VEXTRACTF32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<Int16>, Byte) |
__m128i _mm512_extracti128_si512(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<Int32>, Byte) |
__m128i _mm512_extracti32x4_epi32(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<Int64>, Byte) |
__m128i _mm512_extracti128_si512(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<SByte>, Byte) |
__m128i _mm512_extracti128_si512(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<Single>, Byte) |
__m128 _mm512_extractf32x4_ps(__m512, const int imm8) VEXTRACTF32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<UInt16>, Byte) |
__m128i _mm512_extracti128_si512(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<UInt32>, Byte) |
__m128i _mm512_extracti32x4_epi32(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector128(Vector512<UInt64>, Byte) |
__m128i _mm512_extracti128_si512(__m512i, const int imm8) VEXTRACTI32x4 xmm1/m128 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<Byte>, Byte) |
__m256i _mm512_extracti256_si512(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<Double>, Byte) |
__m256d _mm512_extractf64x4_pd(__m512d, const int imm8) VEXTRACTF64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<Int16>, Byte) |
__m256i _mm512_extracti256_si512(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<Int32>, Byte) |
__m256i _mm512_extracti256_si512(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<Int64>, Byte) |
__m256i _mm512_extracti64x4_epi64(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<SByte>, Byte) |
__m256i _mm512_extracti256_si512(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<Single>, Byte) |
__m256 _mm512_extractf256_ps(__m512, const int imm8) VEXTRACTF64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<UInt16>, Byte) |
__m256i _mm512_extracti256_si512(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<UInt32>, Byte) |
__m256i _mm512_extracti256_si512(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
ExtractVector256(Vector512<UInt64>, Byte) |
__m256i _mm512_extracti64x4_epi64(__m512i, const int imm8) VEXTRACTI64x4 ymm1/m256 {k1}{z}, zmm2, imm8 |
Fixup(Vector512<Double>, Vector512<Double>, Vector512<Int64>, Byte) |
__m512d _mm512_fixupimm_pd(__m512d, __m512d b, __m512i tbl, int imm); VFIXUPIMMPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{sae}, imm8 |
Fixup(Vector512<Single>, Vector512<Single>, Vector512<Int32>, Byte) |
__m512 _mm512_fixupimm_ps(__m512, __m512 b, __m512i tbl, int imm); VFIXUPIMMPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{sae}, imm8 |
FixupScalar(Vector128<Double>, Vector128<Double>, Vector128<Int64>, Byte) |
__m128d _mm_fixupimm_sd(__m128d, __m128d b, __m128i tbl, int imm); VFIXUPIMMSD xmm1 {k1}{z}, xmm2, xmm3/m64{sae}, imm8 |
FixupScalar(Vector128<Single>, Vector128<Single>, Vector128<Int32>, Byte) |
__m128 _mm_fixupimm_ss(__m128, __m128 b, __m128i tbl, int imm); VFIXUPIMMSS xmm1 {k1}{z}, xmm2, xmm3/m32{sae}, imm8 |
FusedMultiplyAdd(Vector512<Double>, Vector512<Double>, Vector512<Double>) |
__m512d _mm512_fmadd_pd(a, __m512d b, __m512d c __m512d) VFMADDPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
FusedMultiplyAdd(Vector512<Double>, Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAdd(Vector512<Single>, Vector512<Single>, Vector512<Single>) |
__m512 _mm512_fmadd_ps(a, __m512 b, __m512 c __m512) VFMADDPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
FusedMultiplyAdd(Vector512<Single>, Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddNegated(Vector512<Double>, Vector512<Double>, Vector512<Double>) |
__m512d _mm512_fnmadd_pd(a, __m512d b, __m512d c __m512d) VFNMADDPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
FusedMultiplyAddNegated(Vector512<Double>, Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddNegated(Vector512<Single>, Vector512<Single>, Vector512<Single>) |
__m512 _mm512_fnmadd_ps(a, __m512 b, __m512 c __m512) VFNMADDPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
FusedMultiplyAddNegated(Vector512<Single>, Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddNegatedScalar(Vector128<Double>, Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddNegatedScalar(Vector128<Single>, Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddScalar(Vector128<Double>, Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddScalar(Vector128<Single>, Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddSubtract(Vector512<Double>, Vector512<Double>, Vector512<Double>) |
__m512d _mm512_fmaddsub_pd(a, __m512d b, __m512d c __m512d) VFMADDSUBPD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
FusedMultiplyAddSubtract(Vector512<Double>, Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplyAddSubtract(Vector512<Single>, Vector512<Single>, Vector512<Single>) |
__m512 _mm512_fmaddsub_ps(a, __m512 b, __m512 c __m512) VFMADDSUBPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
FusedMultiplyAddSubtract(Vector512<Single>, Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtract(Vector512<Double>, Vector512<Double>, Vector512<Double>) |
__m512d _mm512_fmsub_pd(a, __m512d b, __m512d c __m512d) VFMSUBPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
FusedMultiplySubtract(Vector512<Double>, Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtract(Vector512<Single>, Vector512<Single>, Vector512<Single>) |
__m512 _mm512_fmsub_ps(a, __m512 b, __m512 c __m512) VFMSUBPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
FusedMultiplySubtract(Vector512<Single>, Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractAdd(Vector512<Double>, Vector512<Double>, Vector512<Double>) |
__m512d _mm512_fmsubadd_pd(a, __m512d b, __m512d c __m512d) VFMSUBADDPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
FusedMultiplySubtractAdd(Vector512<Double>, Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractAdd(Vector512<Single>, Vector512<Single>, Vector512<Single>) |
__m512 _mm512_fmsubadd_ps(a, __m512 b, __m512 c __m512) VFMSUBADDPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
FusedMultiplySubtractAdd(Vector512<Single>, Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractNegated(Vector512<Double>, Vector512<Double>, Vector512<Double>) |
__m512d _mm512_fnmsub_pd(a, __m512d b, __m512d c __m512d) VFNMSUBPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
FusedMultiplySubtractNegated(Vector512<Double>, Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractNegated(Vector512<Single>, Vector512<Single>, Vector512<Single>) |
__m512 _mm512_fnmsub_ps(a, __m512 b, __m512 c __m512) VFNMSUBPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
FusedMultiplySubtractNegated(Vector512<Single>, Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractNegatedScalar(Vector128<Double>, Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractNegatedScalar(Vector128<Single>, Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractScalar(Vector128<Double>, Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
FusedMultiplySubtractScalar(Vector128<Single>, Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
GetExponent(Vector512<Double>) |
__m512d _mm512_getexp_pd(__m512d) VGETEXPPD zmm1 {k1}{z}, zmm2/m512/m64bcst{sae} |
GetExponent(Vector512<Single>) |
__m512 _mm512_getexp_ps(__m512) VGETEXPPS zmm1 {k1}{z}, zmm2/m512/m32bcst{sae} |
GetExponentScalar(Vector128<Double>) |
__m128d _mm_getexp_sd(__m128d) VGETEXPSD xmm1 {k1}{z}, xmm2, xmm3/m64{sae} |
GetExponentScalar(Vector128<Double>, Vector128<Double>) |
__m128d _mm_getexp_sd(a, __m128d b __m128d) VGETEXPSD xmm1 {k1}{z}, xmm2, xmm3/m64{sae} 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
GetExponentScalar(Vector128<Single>) |
__m128 _mm_getexp_ss(__m128) VGETEXPSS xmm1 {k1}{z}, xmm2, xmm3/m32{sae} |
GetExponentScalar(Vector128<Single>, Vector128<Single>) |
__m128 _mm_getexp_ss(a, __m128 b __m128) VGETEXPSS xmm1 {k1}{z}, xmm2, xmm3/m32{sae} 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
GetHashCode() |
기본 해시 함수로 작동합니다. (다음에서 상속됨 Object) |
GetMantissa(Vector512<Double>, Byte) |
__m512d _mm512_getmant_pd(__m512d a) VGETMANTPD zmm1 {k1}{z}, zmm2/m512/m64bcst{sae} |
GetMantissa(Vector512<Single>, Byte) |
__m512 _mm512_getmant_ps(__m512) VGETMANTPS zmm1 {k1}{z}, zmm2/m512/m32bcst{sae} |
GetMantissaScalar(Vector128<Double>, Byte) |
__m128d _mm_getmant_sd(__m128d) VGETMANTSD xmm1 {k1}{z}, xmm2, xmm3/m64{sae} |
GetMantissaScalar(Vector128<Double>, Vector128<Double>, Byte) |
__m128d _mm_getmant_sd(a, __m128d b __m128d) VGETMANTSD xmm1 {k1}{z}, xmm2, xmm3/m64{sae} 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
GetMantissaScalar(Vector128<Single>, Byte) |
__m128 _mm_getmant_ss(__m128) VGETMANTSS xmm1 {k1}{z}, xmm2, xmm3/m32{sae} |
GetMantissaScalar(Vector128<Single>, Vector128<Single>, Byte) |
__m128 _mm_getmant_ss(a, __m128 b __m128) VGETMANTSS xmm1 {k1}{z}, xmm2, xmm3/m32{sae} 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
GetType() |
현재 인스턴스의 Type을 가져옵니다. (다음에서 상속됨 Object) |
InsertVector128(Vector512<Byte>, Vector128<Byte>, Byte) |
__m512i _mm512_inserti128_si512(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<Double>, Vector128<Double>, Byte) |
__m512d _mm512_insertf128_pd(__m512d, __m128d b, int imm8) VINSERTF32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<Int16>, Vector128<Int16>, Byte) |
__m512i _mm512_inserti128_si512(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<Int32>, Vector128<Int32>, Byte) |
__m512i _mm512_inserti32x4_epi32(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<Int64>, Vector128<Int64>, Byte) |
__m512i _mm512_inserti128_si512(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<SByte>, Vector128<SByte>, Byte) |
__m512i _mm512_inserti128_si512(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<Single>, Vector128<Single>, Byte) |
__m512 _mm512_insertf32x4_ps(__m512, __m128 b, int imm8) VINSERTF32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<UInt16>, Vector128<UInt16>, Byte) |
__m512i _mm512_inserti128_si512(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<UInt32>, Vector128<UInt32>, Byte) |
__m512i _mm512_inserti32x4_epi32(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector128(Vector512<UInt64>, Vector128<UInt64>, Byte) |
__m512i _mm512_inserti128_si512(a, __m128i b, const int imm8 __m512i) VINSERTI32x4 zmm1 {k1}{z}, zmm2, xmm3/m128, imm8 |
InsertVector256(Vector512<Byte>, Vector256<Byte>, Byte) |
__m512i _mm512_inserti256_si512(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<Double>, Vector256<Double>, Byte) |
__m512d _mm512_insertf64x4_pd(__m512d, __m256d b, int imm8) VINSERTF64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<Int16>, Vector256<Int16>, Byte) |
__m512i _mm512_inserti256_si512(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<Int32>, Vector256<Int32>, Byte) |
__m512i _mm512_inserti256_si512(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<Int64>, Vector256<Int64>, Byte) |
__m512i _mm512_inserti64x4_epi64(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<SByte>, Vector256<SByte>, Byte) |
__m512i _mm512_inserti256_si512(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<Single>, Vector256<Single>, Byte) |
__m512 _mm512_insertf256_ps(__m512, __m256 b, int imm8) VINSERTF64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<UInt16>, Vector256<UInt16>, Byte) |
__m512i _mm512_inserti256_si512(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<UInt32>, Vector256<UInt32>, Byte) |
__m512i _mm512_inserti256_si512(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
InsertVector256(Vector512<UInt64>, Vector256<UInt64>, Byte) |
__m512i _mm512_inserti64x4_epi64(a, __m256i b, const int imm8 __m512i) VINSERTI64x4 zmm1 {k1}{z}, zmm2, xmm3/m256, imm8 |
LoadAlignedVector512(Byte*) |
__m512i _mm512_load_si512(__m512i const * mem_addr) VMOVDQA32 zmm1 {k1}{z}, m512 |
LoadAlignedVector512(Double*) |
__m512d _mm512_load_pd(double const * mem_addr) VMOVAPD zmm1 {k1}{z}, m512 |
LoadAlignedVector512(Int16*) |
__m512i _mm512_load_si512(__m512i const * mem_addr) VMOVDQA32 zmm1 {k1}{z}, m512 |
LoadAlignedVector512(Int32*) |
__m512i _mm512_load_epi32(__m512i const * mem_addr) VMOVDQA32 zmm1 {k1}{z}, m512 |
LoadAlignedVector512(Int64*) |
__m512i _mm512_load_epi64(__m512i const * mem_addr) VMOVDQA64 zmm1 {k1}{z}, m512 |
LoadAlignedVector512(SByte*) |
__m512i _mm512_load_si512(__m512i const * mem_addr) VMOVDQA32 zmm1 {k1}{z}, m512 |
LoadAlignedVector512(Single*) |
__m512 _mm512_load_ps(float const * mem_addr) VMOVAPS zmm1 {k1}{z}, m512 |
LoadAlignedVector512(UInt16*) |
__m512i _mm512_load_si512(__m512i const * mem_addr) VMOVDQA32 zmm1 {k1}{z}, m512 |
LoadAlignedVector512(UInt32*) |
__m512i _mm512_load_epi32(__m512i const * mem_addr) VMOVDQA32 zmm1 {k1}{z}, m512 |
LoadAlignedVector512(UInt64*) |
__m512i _mm512_load_epi64(__m512i const * mem_addr) VMOVDQA64 zmm1 {k1}{z}, m512 |
LoadAlignedVector512NonTemporal(Byte*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadAlignedVector512NonTemporal(Int16*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadAlignedVector512NonTemporal(Int32*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadAlignedVector512NonTemporal(Int64*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadAlignedVector512NonTemporal(SByte*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadAlignedVector512NonTemporal(UInt16*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadAlignedVector512NonTemporal(UInt32*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadAlignedVector512NonTemporal(UInt64*) |
__m512i _mm512_stream_load_si512(__m512i const* mem_addr) VMOVNTDQA zmm1, m512 |
LoadVector512(Byte*) |
__m512i _mm512_loadu_si512(__m512i const * mem_addr) VMOVDQU32 zmm1 {k1}{z}, m512 |
LoadVector512(Double*) |
__m512d _mm512_loadu_pd(double const * mem_addr) VMOVUPD zmm1 {k1}{z}, m512 |
LoadVector512(Int16*) |
__m512i _mm512_loadu_si512(__m512i const * mem_addr) VMOVDQU32 zmm1 {k1}{z}, m512 |
LoadVector512(Int32*) |
__m512i _mm512_loadu_epi32(__m512i const * mem_addr) VMOVDQU32 zmm1 {k1}{z}, m512 |
LoadVector512(Int64*) |
__m512i _mm512_loadu_epi64(__m512i const * mem_addr) VMOVDQU64 zmm1 {k1}{z}, m512 |
LoadVector512(SByte*) |
__m512i _mm512_loadu_si512(__m512i const * mem_addr) VMOVDQU32 zmm1 {k1}{z}, m512 |
LoadVector512(Single*) |
__m512 _mm512_loadu_ps(float const * mem_addr) VMOVUPS zmm1 {k1}{z}, m512 |
LoadVector512(UInt16*) |
__m512i _mm512_loadu_si512(__m512i const * mem_addr) VMOVDQU32 zmm1 {k1}{z}, m512 |
LoadVector512(UInt32*) |
__m512i _mm512_loadu_epi32(__m512i const * mem_addr) VMOVDQU32 zmm1 {k1}{z}, m512 |
LoadVector512(UInt64*) |
__m512i _mm512_loadu_epi64(__m512i const * mem_addr) VMOVDQU64 zmm1 {k1}{z}, m512 |
Max(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_max_pd(a, __m512d b __m512d) VMAXPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{sae} |
Max(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_max_epi32(a, __m512i b __m512i) VPMAXSD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Max(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_max_epi64(a, __m512i b __m512i) VPMAXSQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Max(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_max_ps(a, __m512 b __m512) VMAXPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{sae} |
Max(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_max_epu32(a, __m512i b __m512i) VPMAXUD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Max(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_max_epu64(a, __m512i b __m512i) VPMAXUQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
MemberwiseClone() |
현재 Object의 단순 복사본을 만듭니다. (다음에서 상속됨 Object) |
Min(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_min_pd(a, __m512d b __m512d) VMINPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{sae} |
Min(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_min_epi32(a, __m512i b __m512i) VPMINSD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Min(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_min_epi64(a, __m512i b __m512i) VPMINSQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Min(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_min_ps(a, __m512 b __m512) VMINPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{sae} |
Min(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_min_epu32(a, __m512i b __m512i) VPMINUD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Min(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_min_epu64(a, __m512i b __m512i) VPMINUQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Multiply(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_mul_pd(a, __m512d b __m512d) VMULPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{er} |
Multiply(Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Multiply(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_mul_epi32(__m512i a, __m512i b) VPMULDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Multiply(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_mul_ps(a, __m512 b __m512) VMULPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{er} |
Multiply(Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Multiply(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_mul_epu32(a, __m512i b __m512i) VPMULUDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
MultiplyLow(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_mullo_epi32(a, __m512i b __m512i) VPMULLD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
MultiplyLow(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_mullo_epi32(a, __m512i b __m512i) VPMULLD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
MultiplyScalar(Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
MultiplyScalar(Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Or(Vector512<Byte>, Vector512<Byte>) |
__m512i _mm512_or_si512(a, __m512i b __m512i) VPORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Or(Vector512<Int16>, Vector512<Int16>) |
__m512i _mm512_or_si512(a, __m512i b __m512i) VPORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Or(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_or_epi32(a, __m512i b __m512i) VPORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Or(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_or_epi64(a, __m512i b __m512i) VPORQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Or(Vector512<SByte>, Vector512<SByte>) |
__m512i _mm512_or_si512(a, __m512i b __m512i) VPORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Or(Vector512<UInt16>, Vector512<UInt16>) |
__m512i _mm512_or_si512(a, __m512i b __m512i) VPORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Or(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_or_epi32(a, __m512i b __m512i) VPORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Or(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_or_epi64(a, __m512i b __m512i) VPORQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Permute2x64(Vector512<Double>, Byte) |
__m512d _mm512_permute_pd(__m512d a, int imm8) VPERMILPD zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
Permute4x32(Vector512<Single>, Byte) |
__m512 _mm512_permute_ps(__m512 a, int imm8) VPERMILPS zmm1 {k1}{z}, zmm2/m512/m32bcst, imm8 |
Permute4x64(Vector512<Double>, Byte) |
__m512d _mm512_permute4x64_pd(__m512d, const int imm8) VPERMPD zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
Permute4x64(Vector512<Int64>, Byte) |
__m512i _mm512_permute4x64_epi64(__m512i, const int imm8) VPERMQ zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
Permute4x64(Vector512<UInt64>, Byte) |
__m512i _mm512_permute4x64_epi64(__m512i, const int imm8) VPERMQ zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
PermuteVar16x32(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_permutevar16x32_epi32(a, __m512i b __m512i) VPERMD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
PermuteVar16x32(Vector512<Single>, Vector512<Int32>) |
__m512 _mm512_permutevar16x32_ps(a, __m512i b __m512) VPERMPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
PermuteVar16x32(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_permutevar16x32_epi32(a, __m512i b __m512i) VPERMD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
PermuteVar16x32x2(Vector512<Int32>, Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_permutex2var_epi32(a, __m512i idx, __m512i b __m512i) VPERMI2D zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst VPERMT2D zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
PermuteVar16x32x2(Vector512<Single>, Vector512<Int32>, Vector512<Single>) |
__m512 _mm512_permutex2var_ps(a, __m512i idx, __m512i b __m512) VPERMI2PS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst VPERMT2PS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
PermuteVar16x32x2(Vector512<UInt32>, Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_permutex2var_epi32(a, __m512i idx, __m512i b __m512i) VPERMI2D zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst VPERMT2D zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
PermuteVar2x64(Vector512<Double>, Vector512<Int64>) |
__m512d _mm512_permutevar_pd(a, __m512i b __m512d) VPERMILPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
PermuteVar4x32(Vector512<Single>, Vector512<Int32>) |
__m512 _mm512_permutevar_ps(__m512 a, __m512i b) VPERMILPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
PermuteVar8x64(Vector512<Double>, Vector512<Int64>) |
__m512d _mm512_permutevar8x64_pd(a, __m512i b __m512d) VPERMPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
PermuteVar8x64(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_permutevar8x64_epi64(a, __m512i b __m512i) VPERMQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
PermuteVar8x64(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_permutevar8x64_epi64(a, __m512i b __m512i) VPERMQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
PermuteVar8x64x2(Vector512<Double>, Vector512<Int64>, Vector512<Double>) |
__m512d _mm512_permutex2var_pd(a, __m512i idx, __m512i b __m512d) VPERMI2PD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst VPERMT2PD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
PermuteVar8x64x2(Vector512<Int64>, Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_permutex2var_epi64(a, __m512i idx, __m512i b __m512i) VPERMI2Q zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst VPERMT2Q zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
PermuteVar8x64x2(Vector512<UInt64>, Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_permutex2var_epi64(a, __m512i idx, __m512i b __m512i) VPERMI2Q zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst VPERMT2Q zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Reciprocal14(Vector512<Double>) |
__m512d _mm512_rcp14_pd(a, __m512d b __m512d) VRCP14PD zmm1 {k1}{z}, zmm2/m512/m64bcst |
Reciprocal14(Vector512<Single>) |
__m512 _mm512_rcp14_ps(a, __m512 b __m512) VRCP14PS zmm1 {k1}{z}, zmm2/m512/m32bcst |
Reciprocal14Scalar(Vector128<Double>) |
__m128d _mm_rcp14_sd(__m128d a) VRCP14SD xmm1 {k1}{z}, xmm2, xmm3/m64 |
Reciprocal14Scalar(Vector128<Double>, Vector128<Double>) |
__m128d _mm_rcp14_sd(__m128d a, __m128d b) VRCP14SD xmm1 {k1}{z}, xmm2, xmm3/m64 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
Reciprocal14Scalar(Vector128<Single>) |
__m128 _mm_rcp14_ss(__m128 a) VRCP14SS xmm1 {k1}{z}, xmm2, xmm3/m32 |
Reciprocal14Scalar(Vector128<Single>, Vector128<Single>) |
__m128 _mm_rcp14_ss(a, __m128 b __m128) VRCP14SS xmm1 {k1}{z}, xmm2, xmm3/m32 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
ReciprocalSqrt14(Vector512<Double>) |
__m512d _mm512_rsqrt14_pd(a, __m512d b __m512d) VRSQRT14PD zmm1 {k1}{z}, zmm2/m512/m64bcst |
ReciprocalSqrt14(Vector512<Single>) |
__m512 _mm512_rsqrt14_ps(a, __m512 b __m512) VRSQRT14PS zmm1 {k1}{z}, zmm2/m512/m32bcst |
ReciprocalSqrt14Scalar(Vector128<Double>) |
__m128d _mm_rsqrt14_sd(__m128d a) VRSQRT14SD xmm1 {k1}{z}, xmm2, xmm3/m64 |
ReciprocalSqrt14Scalar(Vector128<Double>, Vector128<Double>) |
__m128d _mm_rsqrt14_sd(a, __m128d b __m128d) VRSQRT14SD xmm1 {k1}{z}, xmm2, xmm3/m64 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
ReciprocalSqrt14Scalar(Vector128<Single>) |
__m128 _mm_rsqrt14_ss(__m128 a) VRSQRT14SS xmm1 {k1}{z}, xmm2, xmm3/m32 |
ReciprocalSqrt14Scalar(Vector128<Single>, Vector128<Single>) |
__m128 _mm_rsqrt14_ss(a, __m128 b __m128) VRSQRT14SS xmm1 {k1}{z}, xmm2, xmm3/m32 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
RotateLeft(Vector512<Int32>, Byte) |
__m512i _mm512_rol_epi32(__m512i a, int imm8) VPROLD zmm1 {k1}{z}, zmm2/m512/m32bcst, imm8 |
RotateLeft(Vector512<Int64>, Byte) |
__m512i _mm512_rol_epi64(__m512i a, int imm8) VPROLQ zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
RotateLeft(Vector512<UInt32>, Byte) |
__m512i _mm512_rol_epi32(__m512i a, int imm8) VPROLD zmm1 {k1}{z}, zmm2/m512/m32bcst, imm8 |
RotateLeft(Vector512<UInt64>, Byte) |
__m512i _mm512_rol_epi64(__m512i a, int imm8) VPROLQ zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
RotateLeftVariable(Vector512<Int32>, Vector512<UInt32>) |
__m512i _mm512_rolv_epi32(a, __m512i b __m512i) VPROLDV zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
RotateLeftVariable(Vector512<Int64>, Vector512<UInt64>) |
__m512i _mm512_rolv_epi64(a, __m512i b __m512i) VPROLQV zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
RotateLeftVariable(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_rolv_epi32(a, __m512i b __m512i) VPROLDV zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
RotateLeftVariable(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_rolv_epi64(a, __m512i b __m512i) VPROLQV zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
RotateRight(Vector512<Int32>, Byte) |
__m512i _mm512_ror_epi32(__m512i, int imm8) VPRORD zmm1 {k1}{z}, zmm2/m512/m32bcst, imm8 |
RotateRight(Vector512<Int64>, Byte) |
__m512i _mm512_ror_epi64(__m512i, int imm8) VPRORQ zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
RotateRight(Vector512<UInt32>, Byte) |
__m512i _mm512_ror_epi32(__m512i, int imm8) VPRORD zmm1 {k1}{z}, zmm2/m512/m32bcst, imm8 |
RotateRight(Vector512<UInt64>, Byte) |
__m512i _mm512_ror_epi64(__m512i, int imm8) VPRORQ zmm1 {k1}{z}, zmm2/m512/m64bcst, imm8 |
RotateRightVariable(Vector512<Int32>, Vector512<UInt32>) |
__m512i _mm512_rorv_epi32(a, __m512i b __m512i) VPRORDV zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
RotateRightVariable(Vector512<Int64>, Vector512<UInt64>) |
__m512i _mm512_rorv_epi64(a, __m512i b __m512i) VPRORQV zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
RotateRightVariable(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_rorv_epi32(a, __m512i b __m512i) VPRORDV zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
RotateRightVariable(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_rorv_epi64(a, __m512i b __m512i) VPRORQV zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
RoundScale(Vector512<Double>, Byte) |
__m512d _mm512_roundscale_pd(__m512d, int imm) VRNDSCALEPD zmm1 {k1}{z}, zmm2/m512/m64bcst{sae}, imm8 |
RoundScale(Vector512<Single>, Byte) |
__m512 _mm512_roundscale_ps(__m512, int imm) VRNDSCALEPS zmm1 {k1}{z}, zmm2/m512/m32bcst{sae}, imm8 |
RoundScaleScalar(Vector128<Double>, Byte) |
__m128d _mm_roundscale_sd(__m128d, int imm) VRNDSCALESD xmm1 {k1}{z}, xmm2, xmm3/m64{sae}, imm8 |
RoundScaleScalar(Vector128<Double>, Vector128<Double>, Byte) |
__m128d _mm_roundscale_sd(a, __m128d b, int imm __m128d) VRNDSCALESD xmm1 {k1}{z}, xmm2, xmm3/m64{sae}, imm8 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
RoundScaleScalar(Vector128<Single>, Byte) |
__m128 _mm_roundscale_ss(__m128, int imm) VRNDSCALESS xmm1 {k1}{z}, xmm2, xmm3/m32{sae}, imm8 |
RoundScaleScalar(Vector128<Single>, Vector128<Single>, Byte) |
__m128 _mm_roundscale_ss(a, __m128 b, int imm __m128) VRNDSCALESS xmm1 {k1}{z}, xmm2, xmm3/m32{sae}, imm8 위의 네이티브 서명이 없습니다. 다른 스칼라 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
Scale(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_scalef_pd(a, __m512d b __m512d) VSCALEFPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{er} |
Scale(Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Scale(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_scalef_ps(a, __m512 b __m512) VSCALEFPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{er} |
Scale(Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ScaleScalar(Vector128<Double>, Vector128<Double>) |
__m128d _mm_scalef_sd(a, __m128d b __m128d) VSCALEFSD xmm1 {k1}{z}, xmm2, xmm3/m64{er} |
ScaleScalar(Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ScaleScalar(Vector128<Single>, Vector128<Single>) |
__m128 _mm_scalef_ss(a, __m128 b __m128) VSCALEFSS xmm1 {k1}{z}, xmm2, xmm3/m32{er} |
ScaleScalar(Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
ShiftLeftLogical(Vector512<Int32>, Byte) |
__m512i _mm512_slli_epi32(__m512i, int imm8) VPSLLD zmm1 {k1}{z}, zmm2, imm8 |
ShiftLeftLogical(Vector512<Int32>, Vector128<Int32>) |
__m512i _mm512_sll_epi32(__m512i, __m128i 개수) VPSLLD zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftLeftLogical(Vector512<Int64>, Byte) |
__m512i _mm512_slli_epi64(__m512i, int imm8) VPSLLQ zmm1 {k1}{z}, zmm2, imm8 |
ShiftLeftLogical(Vector512<Int64>, Vector128<Int64>) |
__m512i _mm512_sll_epi64(__m512i, __m128i 개수) VPSLLQ zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftLeftLogical(Vector512<UInt32>, Byte) |
__m512i _mm512_slli_epi32(__m512i, int imm8) VPSLLD zmm1 {k1}{z}, zmm2, imm8 |
ShiftLeftLogical(Vector512<UInt32>, Vector128<UInt32>) |
__m512i _mm512_sll_epi32(__m512i, __m128i 개수) VPSLLD zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftLeftLogical(Vector512<UInt64>, Byte) |
__m512i _mm512_slli_epi64(__m512i, int imm8) VPSLLQ zmm1 {k1}{z}, zmm2, imm8 |
ShiftLeftLogical(Vector512<UInt64>, Vector128<UInt64>) |
__m512i _mm512_sll_epi64(__m512i, __m128i 개수) VPSLLQ zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftLeftLogicalVariable(Vector512<Int32>, Vector512<UInt32>) |
__m512i _mm512_sllv_epi32(__m512i, __m512i 개수) VPSLLVD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
ShiftLeftLogicalVariable(Vector512<Int64>, Vector512<UInt64>) |
__m512i _mm512_sllv_epi64(__m512i, __m512i 개수) VPSLLVQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
ShiftLeftLogicalVariable(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_sllv_epi32(__m512i, __m512i 개수) VPSLLVD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
ShiftLeftLogicalVariable(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_sllv_epi64(__m512i, __m512i 개수) VPSLLVQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
ShiftRightArithmetic(Vector512<Int32>, Byte) |
__m512i _mm512_srai_epi32(__m512i a, int imm8) VPSRAD zmm1 {k1}{z}, zmm2, imm8 |
ShiftRightArithmetic(Vector512<Int32>, Vector128<Int32>) |
_mm512_sra_epi32(__m512i, __m128i 개수) VPSRAD zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftRightArithmetic(Vector512<Int64>, Byte) |
__m512i _mm512_srai_epi64(__m512i, int imm8) VPSRAQ zmm1 {k1}{z}, zmm2, imm8 |
ShiftRightArithmetic(Vector512<Int64>, Vector128<Int64>) |
_mm512_sra_epi64(__m512i, __m128i 개수) VPSRAQ zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftRightArithmeticVariable(Vector512<Int32>, Vector512<UInt32>) |
__m512i _mm512_srav_epi32(__m512i, __m512i 개수) VPSRAVD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
ShiftRightArithmeticVariable(Vector512<Int64>, Vector512<UInt64>) |
__m512i _mm512_srav_epi64(__m512i, __m512i 개수) VPSRAVQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
ShiftRightLogical(Vector512<Int32>, Byte) |
__m512i _mm512_srli_epi32(__m512i, int imm8) VPSRLD zmm1 {k1}{z}, zmm2, imm8 |
ShiftRightLogical(Vector512<Int32>, Vector128<Int32>) |
__m512i _mm512_srl_epi32(__m512i, __m128i 개수) VPSRLD zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftRightLogical(Vector512<Int64>, Byte) |
__m512i _mm512_srli_epi64(__m512i, int imm8) VPSRLQ zmm1 {k1}{z}, zmm2, imm8 |
ShiftRightLogical(Vector512<Int64>, Vector128<Int64>) |
__m512i _mm512_srl_epi64(__m512i, __m128i 개수) VPSRLQ zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftRightLogical(Vector512<UInt32>, Byte) |
__m512i _mm512_srli_epi32(__m512i, int imm8) VPSRLD zmm1 {k1}{z}, zmm2, imm8 |
ShiftRightLogical(Vector512<UInt32>, Vector128<UInt32>) |
__m512i _mm512_srl_epi32(__m512i, __m128i 개수) VPSRLD zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftRightLogical(Vector512<UInt64>, Byte) |
__m512i _mm512_srli_epi64(__m512i, int imm8) VPSRLQ zmm1 {k1}{z}, zmm2, imm8 |
ShiftRightLogical(Vector512<UInt64>, Vector128<UInt64>) |
__m512i _mm512_srl_epi64(__m512i, __m128i 개수) VPSRLQ zmm1 {k1}{z}, zmm2, xmm3/m128 |
ShiftRightLogicalVariable(Vector512<Int32>, Vector512<UInt32>) |
__m512i _mm512_srlv_epi32(__m512i, __m512i 개수) VPSRLVD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
ShiftRightLogicalVariable(Vector512<Int64>, Vector512<UInt64>) |
__m512i _mm512_srlv_epi64(__m512i, __m512i 개수) VPSRLVQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
ShiftRightLogicalVariable(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_srlv_epi32(__m512i, __m512i 개수) VPSRLVD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
ShiftRightLogicalVariable(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_srlv_epi64(__m512i, __m512i 개수) VPSRLVQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Shuffle(Vector512<Double>, Vector512<Double>, Byte) |
__m512d _mm512_shuffle_pd(a, __m512d b, const int imm8 __m512d) VSHUFPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
Shuffle(Vector512<Int32>, Byte) |
__m512i _mm512_shuffle_epi32(__m512i, const int imm8) VPSHUFD zmm1 {k1}{z}, zmm2/m512/m32bcst, imm8 |
Shuffle(Vector512<Single>, Vector512<Single>, Byte) |
__m512 _mm512_shuffle_ps(a, __m512 b, const int imm8 __m512) VSHUFPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
Shuffle(Vector512<UInt32>, Byte) |
__m512i _mm512_shuffle_epi32(__m512i, const int imm8) VPSHUFD zmm1 {k1}{z}, zmm2/m512/m32bcst, imm8 |
Shuffle4x128(Vector512<Double>, Vector512<Double>, Byte) |
__m512d _mm512_shuffle_f64x2(__m512d, __m512d b, const int imm8) VSHUFF64x2 zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
Shuffle4x128(Vector512<Int32>, Vector512<Int32>, Byte) |
__m512i _mm512_shuffle_i32x4(a, __m512i b, const int imm8 __m512i) VSHUFI32x4 zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
Shuffle4x128(Vector512<Int64>, Vector512<Int64>, Byte) |
__m512i _mm512_shuffle_i64x2(a, __m512i b, const int imm8 __m512i) VSHUFI64x2 zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
Shuffle4x128(Vector512<Single>, Vector512<Single>, Byte) |
__m512 _mm512_shuffle_f32x4(__m512, __m512 b, const int imm8) VSHUFF32x4 zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
Shuffle4x128(Vector512<UInt32>, Vector512<UInt32>, Byte) |
__m512i _mm512_shuffle_i32x4(a, __m512i b, const int imm8 __m512i) VSHUFI32x4 zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
Shuffle4x128(Vector512<UInt64>, Vector512<UInt64>, Byte) |
__m512i _mm512_shuffle_i64x2(a, __m512i b, const int imm8 __m512i) VSHUFI64x2 zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
Sqrt(Vector512<Double>) |
__m512d _mm512_sqrt_pd(__m512d a) VSQRTPD zmm1 {k1}{z}, zmm2/m512/m64bcst{er} |
Sqrt(Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Sqrt(Vector512<Single>) |
__m512 _mm512_sqrt_ps(__m512) VSQRTPS zmm1 {k1}{z}, zmm2/m512/m32bcst{er} |
Sqrt(Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
SqrtScalar(Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
SqrtScalar(Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Store(Byte*, Vector512<Byte>) |
void _mm512_storeu_si512(__m512i * mem_addr, __m512i a) VMOVDQU32 m512 {k1}{z}, zmm1 |
Store(Double*, Vector512<Double>) |
void _mm512_storeu_pd(double * mem_addr, __m512d a) VMOVUPD m512 {k1}{z}, zmm1 |
Store(Int16*, Vector512<Int16>) |
void _mm512_storeu_si512(__m512i * mem_addr, __m512i a) VMOVDQU32 m512 {k1}{z}, zmm1 |
Store(Int32*, Vector512<Int32>) |
void _mm512_storeu_epi32(__m512i * mem_addr, __m512i a) VMOVDQU32 m512 {k1}{z}, zmm1 |
Store(Int64*, Vector512<Int64>) |
void _mm512_storeu_epi64(__m512i * mem_addr, __m512i a) VMOVDQU64 m512 {k1}{z}, zmm1 |
Store(SByte*, Vector512<SByte>) |
void _mm512_storeu_si512(__m512i * mem_addr, __m512i a) VMOVDQU32 m512 {k1}{z}, zmm1 |
Store(Single*, Vector512<Single>) |
void _mm512_storeu_ps(float * mem_addr, __m512 a) VMOVUPS m512 {k1}{z}, zmm1 |
Store(UInt16*, Vector512<UInt16>) |
void _mm512_storeu_si512(__m512i * mem_addr, __m512i a) VMOVDQU32 m512 {k1}{z}, zmm1 |
Store(UInt32*, Vector512<UInt32>) |
void _mm512_storeu_epi32(__m512i * mem_addr, __m512i a) VMOVDQU32 m512 {k1}{z}, zmm1 |
Store(UInt64*, Vector512<UInt64>) |
void _mm512_storeu_epi64(__m512i * mem_addr, __m512i a) VMOVDQU64 m512 {k1}{z}, zmm1 |
StoreAligned(Byte*, Vector512<Byte>) |
void _mm512_store_si512(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAligned(Double*, Vector512<Double>) |
void _mm512_store_pd(double * mem_addr, __m512d a) VMOVAPD m512 {k1}{z}, zmm1 |
StoreAligned(Int16*, Vector512<Int16>) |
void _mm512_store_si512(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAligned(Int32*, Vector512<Int32>) |
void _mm512_store_epi32(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAligned(Int64*, Vector512<Int64>) |
void _mm512_store_epi64(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAligned(SByte*, Vector512<SByte>) |
void _mm512_store_si512(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAligned(Single*, Vector512<Single>) |
void _mm512_store_ps(float * mem_addr, __m512 a) VMOVAPS m512 {k1}{z}, zmm1 |
StoreAligned(UInt16*, Vector512<UInt16>) |
void _mm512_store_si512(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAligned(UInt32*, Vector512<UInt32>) |
void _mm512_store_epi32(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAligned(UInt64*, Vector512<UInt64>) |
void _mm512_store_epi64(__m512i * mem_addr, __m512i a) VMOVDQA32 m512 {k1}{z}, zmm1 |
StoreAlignedNonTemporal(Byte*, Vector512<Byte>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
StoreAlignedNonTemporal(Double*, Vector512<Double>) |
void _mm512_stream_pd(double * mem_addr, __m512d a) VMOVNTPD m512, zmm1 |
StoreAlignedNonTemporal(Int16*, Vector512<Int16>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
StoreAlignedNonTemporal(Int32*, Vector512<Int32>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
StoreAlignedNonTemporal(Int64*, Vector512<Int64>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
StoreAlignedNonTemporal(SByte*, Vector512<SByte>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
StoreAlignedNonTemporal(Single*, Vector512<Single>) |
void _mm512_stream_ps(float * mem_addr, __m512 a) VMOVNTPS m512, zmm1 |
StoreAlignedNonTemporal(UInt16*, Vector512<UInt16>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
StoreAlignedNonTemporal(UInt32*, Vector512<UInt32>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
StoreAlignedNonTemporal(UInt64*, Vector512<UInt64>) |
void _mm512_stream_si512(__m512i * mem_addr, __m512i a) VMOVNTDQ m512, zmm1 |
Subtract(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_sub_pd(a, __m512d b __m512d) VSUBPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst{er} |
Subtract(Vector512<Double>, Vector512<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Subtract(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_sub_epi32(a, __m512i b __m512i) VPSUBD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Subtract(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_sub_epi64(a, __m512i b __m512i) VPSUBQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Subtract(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_sub_ps(a, __m512 b __m512) VSUBPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst{er} |
Subtract(Vector512<Single>, Vector512<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
Subtract(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_sub_epi32(a, __m512i b __m512i) VPSUBD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Subtract(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_sub_epi64(__m512i a, __m512i b) VPSUBQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
SubtractScalar(Vector128<Double>, Vector128<Double>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
SubtractScalar(Vector128<Single>, Vector128<Single>, FloatRoundingMode) |
내장 함수를 통해 X86 AVX512F 하드웨어 지침에 대한 액세스를 제공합니다. |
TernaryLogic(Vector512<Byte>, Vector512<Byte>, Vector512<Byte>, Byte) |
__m512i _mm512_ternarylogic_si512(a, __m512i b, __m512i c, 바이트 imm __m512i) VPTERNLOGD zmm1 {k1}{z}, zmm2, zmm3/m512, imm8 위의 네이티브 서명이 없습니다. 다른 비트 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
TernaryLogic(Vector512<Double>, Vector512<Double>, Vector512<Double>, Byte) |
__m512d _mm512_ternarylogic_pd(a, __m512d b, __m512d c, int imm __m512d) VPTERNLOGQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 위의 네이티브 서명이 없습니다. 다른 비트 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
TernaryLogic(Vector512<Int16>, Vector512<Int16>, Vector512<Int16>, Byte) |
__m512i _mm512_ternarylogic_si512(a, __m512i b, __m512i c, short imm __m512i) VPTERNLOGD zmm1 {k1}{z}, zmm2, zmm3/m512, imm8 위의 네이티브 서명이 없습니다. 다른 비트 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
TernaryLogic(Vector512<Int32>, Vector512<Int32>, Vector512<Int32>, Byte) |
__m512i _mm512_ternarylogic_epi32(a, __m512i b, __m512i c, int imm __m512i) VPTERNLOGD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
TernaryLogic(Vector512<Int64>, Vector512<Int64>, Vector512<Int64>, Byte) |
__m512i _mm512_ternarylogic_epi64(a, __m512i b, __m512i c, int imm을 __m512i) VPTERNLOGQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
TernaryLogic(Vector512<SByte>, Vector512<SByte>, Vector512<SByte>, Byte) |
__m512i _mm512_ternarylogic_si512(a, __m512i b, __m512i c, int imm __m512i) VPTERNLOGD zmm1 {k1}{z}, zmm2, zmm3/m512, imm8 위의 네이티브 서명이 없습니다. 다른 비트 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
TernaryLogic(Vector512<Single>, Vector512<Single>, Vector512<Single>, Byte) |
__m512 _mm512_ternarylogic_ps(a, __m512 b, __m512 c, int imm __m512) VPTERNLOGD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 위의 네이티브 서명이 없습니다. 다른 비트 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
TernaryLogic(Vector512<UInt16>, Vector512<UInt16>, Vector512<UInt16>, Byte) |
__m512i _mm512_ternarylogic_si512(a, __m512i b, __m512i c, short imm __m512i) VPTERNLOGD zmm1 {k1}{z}, zmm2, zmm3/m512, imm8 위의 네이티브 서명이 없습니다. 다른 비트 API와의 일관성을 위해 이 추가 오버로드를 제공합니다. |
TernaryLogic(Vector512<UInt32>, Vector512<UInt32>, Vector512<UInt32>, Byte) |
__m512i _mm512_ternarylogic_epi32(a, __m512i b, __m512i c, int imm __m512i) VPTERNLOGD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst, imm8 |
TernaryLogic(Vector512<UInt64>, Vector512<UInt64>, Vector512<UInt64>, Byte) |
__m512i _mm512_ternarylogic_epi64(a, __m512i b, __m512i c, int imm을 __m512i) VPTERNLOGQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst, imm8 |
ToString() |
현재 개체를 나타내는 문자열을 반환합니다. (다음에서 상속됨 Object) |
UnpackHigh(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_unpackhi_pd(a, __m512d b __m512d) VUNPCKHPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
UnpackHigh(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_unpackhi_epi32(a, __m512i b __m512i) VPUNPCKHDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
UnpackHigh(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_unpackhi_epi64(a, __m512i b __m512i) VPUNPCKHQDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
UnpackHigh(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_unpackhi_ps(a, __m512 b __m512) VUNPCKHPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
UnpackHigh(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_unpackhi_epi32(a, __m512i b __m512i) VPUNPCKHDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
UnpackHigh(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_unpackhi_epi64(a, __m512i b __m512i) VPUNPCKHQDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
UnpackLow(Vector512<Double>, Vector512<Double>) |
__m512d _mm512_unpacklo_pd(a, __m512d b __m512d) VUNPCKLPD zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
UnpackLow(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_unpacklo_epi32(__m512i a, __m512i b) VPUNPCKLDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
UnpackLow(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_unpacklo_epi64(a, __m512i b __m512i) VPUNPCKLQDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
UnpackLow(Vector512<Single>, Vector512<Single>) |
__m512 _mm512_unpacklo_ps(a, __m512 b __m512) VUNPCKLPS zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
UnpackLow(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_unpacklo_epi32(__m512i a, __m512i b) VPUNPCKLDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
UnpackLow(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_unpacklo_epi64(a, __m512i b __m512i) VPUNPCKLQDQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Xor(Vector512<Byte>, Vector512<Byte>) |
__m512i _mm512_xor_si512(a, __m512i b __m512i) VPXORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Xor(Vector512<Int16>, Vector512<Int16>) |
__m512i _mm512_xor_si512(a, __m512i b __m512i) VPXORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Xor(Vector512<Int32>, Vector512<Int32>) |
__m512i _mm512_xor_epi32(a, __m512i b __m512i) VPXORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Xor(Vector512<Int64>, Vector512<Int64>) |
__m512i _mm512_xor_epi64(a, __m512i b __m512i) VPXORQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
Xor(Vector512<SByte>, Vector512<SByte>) |
__m512i _mm512_xor_si512(a, __m512i b __m512i) VPXORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Xor(Vector512<UInt16>, Vector512<UInt16>) |
__m512i _mm512_xor_si512(a, __m512i b __m512i) VPXORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Xor(Vector512<UInt32>, Vector512<UInt32>) |
__m512i _mm512_xor_epi32(a, __m512i b __m512i) VPXORD zmm1 {k1}{z}, zmm2, zmm3/m512/m32bcst |
Xor(Vector512<UInt64>, Vector512<UInt64>) |
__m512i _mm512_xor_epi64(a, __m512i b __m512i) VPXORQ zmm1 {k1}{z}, zmm2, zmm3/m512/m64bcst |
적용 대상
.NET