Share via


Schnellstart: Erfüllen der Voraussetzungen für die Bereitstellung von Azure Operator 5G Core in Nexus Azure Kubernetes Service

Dieser Artikel beschreibt die Bereitstellung eines Nexus Azure Kubernetes Service (NAKS) Clusters durch Erstellen:

  • Netzwerkfabric- (Konnektivitäts-)Ressourcen
  • Netzwerkcloud- (Rechen-)Ressourcen

Hinweis

Die Beispielkonfiguration in diesem Artikel verwendet die Azure-CLI. Sie können diese Ressourcen auch mit Bicep-Skripten, Terraform-Skripten, ARM-Vorlagen oder benutzerdefinierten Programmen erstellen, die die entsprechenden APIs direkt aufrufen.

Die in diesem Artikel verwendeten Befehle beziehen sich auf die folgenden Ressourcengruppen:

  • Infrastruktur- (verwaltete) Ressourcengruppen:
    • Fabric – Ressourcen für die Plattformvernetzung
    • Undercloud – Plattform-Rechenressourcen
    • Verwaltete Ressourcengruppe, die zum Hosten von Azure-ARC-Kubernetes-Ressourcen verwendet wird
  • Mandantenressourcengruppen:
    • Fabric – Mandantennetzwerkressourcen (z. B. Netzwerke)
    • Compute – Mandanten-Computeressourcen (z. B. VMs und Nexus Azure Kubernetes Services (AKS)-Cluster)

Voraussetzungen

Bevor Sie einen NAKS-Cluster bereitstellen:

  • Konfigurieren Sie externe Netzwerke zwischen den Geräten Customer Edge (CE) und Provider Edge (PE) (oder Telco Edge), die die Konnektivität mit dem Anbieter-Edge ermöglichen. Die Konfiguration des Zugriffs auf externe Dienste wie Firewalls und auf Azure gehostete Dienste (Tenant, nicht Plattform) ist nicht Gegenstand dieses Artikels.
  • Konfigurieren Sie ein Jumpbox-Steuerelement, um Routingdomänen zu verbinden. Das Konfigurieren eines Jumpbox-Steuerelements liegt außerhalb des Umfangs dieses Artikels.
  • Konfigurieren Sie Netzwerkelemente auf PEs/Telco Edge, die nicht von Nexus Network Fabric gesteuert werden, z. B. die Express Route Circuits-Konfiguration für Mandantenarbeitslastenkonnektivität mit Azure (optional für Hybrid-Setups) oder Konnektivität über das Kernnetzwerk des Betreibers.
  • Überprüfen Sie den Releasekalender von Nexus Kubernetes, um verfügbare Versionen und Supportpläne zu identifizieren.
  • Überprüfen Sie die Clusterübersicht von Nexus Kubernetes.
  • Überprüfen Sie die Network Fabric-Übersicht.
  • Lesen Sie das Anleitungshandbuch für Azure Isolation Domains.
  • Überprüfen Sie die Speicherübersicht.

Konfigurieren interner Netzwerke und Protokolle

Führen Sie diese Aufgaben aus, um Ihr internes Netzwerk einzurichten.

Erstellen der Isolationsdomäne (L3ISD)

Verwenden Sie die folgenden Azure CLI-Befehle, um die Isolationsdomäne (ISD) zu erstellen:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedFabric="<RG-MANAGED-FABRIC>" 
export nnfId="<NETWORK-FABRIC-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
export region="<REGION>" 
 
az networkfabric l3domain create –resource-name $l3Isd \ 
--resource-group $rgFabric \ 
--location $region \ 
--nf-id "/subscriptions/$subscriptionId/resourceGroups/$rgManagedFabric/providers/Microsoft.ManagedNetworkFabric/networkFabrics/$nnfId" \ 
--redistribute-connected-subnets "True" \ 
--redistribute-static-routes "True" \ 
--subscription "$subscriptionId"

Um die neue L3ISD-Isolationsdomäne anzuzeigen, geben Sie den folgenden Befehl ein:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
 
az networkfabric l3domain show --resource-name $l3Isd -g $rgFabric --subscription $subscriptionId

Erstellen Sie das interne Netzwerk

Bevor Sie das interne Netzwerk erstellen oder ändern, müssen Sie das ISD deaktivieren. Aktivieren Sie das ISD wieder, nachdem Sie Ihre Änderungen vorgenommen haben.

Deaktivieren der Isolationsdomäne

Verwenden Sie die folgenden Befehle, um das ISD zu deaktivieren:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
  
# Disable ISD to create internal networks, wait for 5 minutes and check the status is Disabled 
 
az networkfabric l3domain update-admin-state –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--state Disable 
 
# Check the status of the ISD 
 
az networkfabric l3domain show –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId"

Wenn die ISD deaktiviert ist, können Sie das interne Netzwerk hinzufügen, ändern oder entfernen. Wenn Sie mit dem Vornehmen von Änderungen fertig sind, aktivieren Sie ISD erneut, wie unter Isolationsdomäne aktivieren beschrieben.

Erstellen Sie das interne Standardnetzwerk der Azure Container Network Interface

Verwenden Sie die folgenden Befehle, um das interne Azure Container Network Interface (CNI) Standardnetzwerk zu erstellen:

export subscriptionId="<SUBSCRIPTION-ID>" 
export intnwDefCni="<DEFAULT-CNI-NAME>" 
export l3Isd="<ISD-NAME>" 
export rgFabric="<RG-FABRIC>" 
export vlan=<VLAN-ID> 
export peerAsn=<PEER-ASN> 
export ipv4ListenRangePrefix="<DEFAULT-CNI-IPV4-PREFIX>/<PREFIX-LEN>" 
export mtu=9000 
 
az networkfabric internalnetwork create –resource-name "$intnwDefCni" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--l3domain "$l3Isd" \ 
--vlan-id $vlan \ 
--mtu $mtu \ 
--connected-ipv4-subnets "[{prefix:$ipv4ListenRangePrefix}]" \ 
--bgp-configuration
{peerASN:$peerAsn,allowAS:0,defaultRouteOriginate:True,ipv4ListenRangePrefixes:['$ipv4ListenRangePrefix']}" 

Erstellen interner Netzwerke für Benutzerebenen-Funktionen (N3, N6) und Access and Mobility Management Function (N2) Schnittstellen

Wenn Sie interne NETZWERKE (User Plane Function, UPF) erstellen, wird dualer Stapel IPv4/IPv6 unterstützt. Sie müssen die Autonomous System Number (ASN) des Border Gateway Protocol (BGP) auf der Fabric-Seite nicht konfigurieren, da ASN in die Erstellung von Netzwerk Fabric-Ressourcen eingeschlossen ist. Verwenden Sie die folgenden Befehle, um diese internen Netzwerke zu erstellen.

Hinweis

Erstellen Sie die Anzahl interner Netzwerke, wie im Abschnitt Voraussetzungen beschrieben.

export subscriptionId="<SUBSCRIPTION-ID>" 
export intnwName="<INTNW-NAME>" 
export l3Isd="<ISD-NAME>" // N2, N3, N6  
export rgFabric="<RG-FABRIC>" 
export vlan=<VLAN-ID> 
export peerAsn=<PEER-ASN> 
export ipv4ListenRangePrefix="<IPV4-PREFIX>/<PREFIX-LEN>" 
export ipv6ListenRangePrefix="<IPV6-PREFIX>/<PREFIX-LEN>" 
export mtu=9000 
 
az networkfabric internalnetwork create –resource-name "$intnwName" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--l3domain "$l3Isd" \ 
--vlan-id $vlan \ 
--mtu $mtu \ 
--connected-ipv4-subnets "[{prefix:$ipv4ListenRangePrefix}]" \ 
--connected-ipv6-subnets "[{prefix:'$ipv6ListenRangePrefix'}]" \ //optional
--bgp-configuration 
"{peerASN:$peerAsn,allowAS:0,defaultRouteOriginate:True,ipv4ListenRangePrefixes:[$ipv4ListenRangePrefix],ipv6ListenRangePrefixes:['$ipv6ListenRangePrefix']}"

Um die Liste der erstellten internen Netzwerke anzuzeigen, geben Sie die folgenden Befehle ein:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
 
az networkfabric internalnetwork list -o table --subscription $subscriptionId -g $rgFabric --l3domain $l3Isd

Um die Details eines bestimmten internen Netzwerks anzuzeigen, geben Sie die folgenden Befehle ein:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
export intnwName="<INTNW-NAME>" 
 
az networkfabric internalnetwork show --resource-name $intnwName -g $rgFabric --l3domain $l3Isd

Isolationsdomäne aktivieren

Verwenden Sie die folgenden Befehle, um das ISD zu aktivieren:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgFabric="<RG-FABRIC>" 
export l3Isd="<ISD-NAME>" 
  
# Enable ISD, wait for 5 minutes and check the status is Enabled 
 
az networkfabric l3domain update-admin-state –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId" \ 
--state Enable 
 
# Check the status of the ISD 
 
az networkfabric l3domain show –resource-name "$l3Isd" \ 
--resource-group "$rgFabric" \ 
--subscription "$subscriptionId"

Verwenden Sie zum Konfigurieren des BGP- und bidirektionalen Weiterleitungserkennungsroutings (BFD) für interne Netzwerke die Standardeinstellungen. Eine Beschreibung der Parameter finden Sie in der Nexus-Dokumentation.

Erstellen von L3-Netzwerken

Vor der Bereitstellung des NAKS-Clusters müssen Sie Netzwerk-Cloud (NC) L3-Netzwerkressourcen erstellen, die den Network Fabric (NF)-Ressourcen zugeordnet sind. Sie müssen L3-Netzwerk-NC-Ressourcen für die Standard-CNI-Schnittstelle erstellen, einschließlich des ISD/VLAN/IP-Präfixes eines entsprechenden internen Netzwerks. Verbinden Sie diese Ressourcen direkt mit VMs, um VLAN-Tagging auf der NIC-Ebene (VF) statt auf der Anwendungsebene (Zugriffsports aus der Anwendungsperspektive) durchzuführen und/oder wenn IP-Adressen von Nexus zugewiesen werden (unter Verwendung der IP Address Management (ipam)-Funktionalität).

Für die Standard-CNI-Schnittstelle wird ein L3-Netzwerk verwendet. Andere Schnittstellen, die mehrere VLANs pro einzelner Schnittstelle benötigen, müssen Trunk-Schnittstellen sein.

Verwenden Sie die folgenden Befehle, um das L3-Netzwerk zu erstellen:

Export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgFabric="<RG-FABRIC>" 
export rgCompute="<RG-COMPUTE>" 
export l3Name="<L3-NET-NAME>" 
export l3Isd="<ISD-NAME>" 
export region="<REGION>" 
export vlan=<VLAN-ID> 
export ipAllocationType="IPV4" // DualStack, IPV4, IPV6 
export ipv4ConnectedPrefix="<DEFAULT-CNI-IPV4-PREFIX>/<PREFIX-LEN>" // if IPV4 or DualStack 
export ipv6ConnectedPrefix="<DEFAULT-CNI-IPV6-PREFIX>/<PREFIX-LEN>" // if IPV6 or DualStack 
 
 az networkcloud l3network create –l3-network-name $l3Name \ 
--l3-isolation-domain-id 
"/subscriptions/$subscriptionId/resourceGroups/$rgFabric/providers/Microsoft.ManagedNetworkFabric/l3IsolationDomains/$l3Isd" \ 
--vlan $vlan \ 
--ip-allocation-type $ipAllocationType \ 
--ipv4-connected-prefix $ipv4ConnectedPrefix \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--resource-group $rgCompute \ 
--location $region \ 
--subscription $subscriptionId \ 
--interface-name "vlan-$vlan"

Um das erstellte L3-Netzwerk anzuzeigen, geben Sie die folgenden Befehle ein:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export l3Name="<L3-NET-NAME>" 
 
az networkcloud l3network show -n $l3Name -g $rgCompute --subscription $subscriptionId

Trunked-Netzwerke

Eine trunkednetworkNetzwerk-Cloud-Ressource ist erforderlich, wenn ein einzelner Port/eine einzelne Schnittstelle, die mit einer virtuellen Maschine verbunden ist, mehrere virtuelle lokale Netzwerke (VLANs) unterstützen muss. Die Markierung erfolgt auf der Anwendungsschicht und nicht auf der NIC. Eine Trunk-Schnittstelle kann VLANs übertragen, die zu verschiedenen ISDs gehören.

Sie müssen ein Trunk-Netzwerk für die Access and Management Mobility Function (AMF) (N2) und UPF (N3, N6) erstellen.

Verwenden Sie die folgenden Befehle, um ein Trunked-Netzwerk zu erstellen:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgFabric="<RG-FABRIC>" 
export rgCompute="<RG-COMPUTE>" 
export trunkName="<TRUNK-NAME>" 
export l3IsdUlb="<ISD-ULB-NAME>" 
export vlanUlb=<VLAN-ULB-ID> 
export region="<REGION>" 
 
az networkcloud trunkednetwork create --name $trunkName \ 
--isolation-domain-ids
 "/subscriptions/$subscriptionId/resourceGroups/$rgFabric/providers/Microsoft.ManagedNetworkFabric/l3IsolationDomains/$l3IsdUlb" \ 
--vlans $vlanUlb \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--resource-group $rgCompute \ 
--location $region \ 
--interface-name "trunk-ulb" \ 
--subscription $subscriptionId

Geben Sie den folgenden Befehl ein, um die erstellte Trunk-Netzwerkressource anzuzeigen:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export trunkName="<TRUNK-NAME>" 
 
az networkcloud trunkednetwork show -n $trunkName -g $rgCompute --subscription $subscriptionId

Konfigurieren Sie den Proxy für das Cloud Services Network und die Domänen auf der Zulassungsliste

Ein Cloud Services Network-Proxy (CSN-Proxy) wird für den Zugriff auf Azure und Internet-Ziele verwendet. Sie müssen diese Domänen explizit zu einer Positivliste in der CSN-Konfiguration hinzufügen, damit ein NAKS-Cluster auf Azure-Dienste zugreifen kann und für die Arc-Integration.

Network Function Manager-basierte Endpunkte für Cloud Services Networks

Fügen Sie die folgenden Ausgangspunkte für die NFM-basierte Bereitstellungsunterstützung (HybridNetwork Resource Provider (RP), CustomLocation RP-Reichweite, ACR, Arc) hinzu:

  • .azurecr.io / port 80
  • .azurecr.io / port 443
  • .mecdevice.azure.com / port 443
  • eastus-prod.mecdevice.azure.com / port 443
  • .microsoftmetrics.com / port 443
  • crprivatemobilenetwork.azurecr.io / port 443
  • .guestconfiguration.azure.com / port 443
  • .kubernetesconfiguration.azure.com / port 443
  • eastus.obo.arc.azure.com / port 8084
  • .windows.net / port 80
  • .windows.net / port 443
  • .k8connecthelm.azureedge.net / port 80
  • .k8connecthelm.azureedge.net / port 443
  • .k8sconnectcsp.azureedge.net / port 80
  • .k8sconnectcsp.azureedge.net / port 443
  • .arc.azure.net / port 80
  • .arc.azure.net / port 443

Python Cloud Services Networks-Endpunkte

Für die Installation von Python-Paketen (Teil der Befehlsliste fed-kube_addons pod-node_config, die für NAKS verwendet wird), fügen Sie die folgenden Endpunkte hinzu:

  • pypi.org / port 443
  • files.pythonhosted.org / port 443

Hinweis

Möglicherweise müssen weitere ADX-Endpunkte in die Positivliste aufgenommen werden, wenn Daten in Azure ADX eingespeist werden sollen.

Optionale Cloud Services Networks-Endpunkte

Verwenden Sie das folgende Ziel, um Container auszuführen, deren Endpunkte in öffentlichen Containerregister gespeichert sind, oder um weitere Pakete für die virtuellen Hilfsmaschinen zu installieren:

  • .ghcr.io / port 80
  • .ghcr.io / port 443
  • .k8s.gcr.io / port 80
  • .k8s.gcr.io / port 443
  • .k8s.io / port 80
  • .k8s.io / port 443
  • .docker.io / port 80
  • .docker.io / port 443
  • .docker.com / port 80
  • .docker.com / port 443
  • .pkg.dev / port 80
  • .pkg.dev / port 443
  • .ubuntu.com / port 80
  • .ubuntu.com / port 443

Erstellen Sie Netzwerke für Cloud Services

Sie müssen für jeden NAKS-Cluster eine eigene CSN-Instanz erstellen, wenn Sie Azure Operator 5G Core Preview auf der Nexus-Plattform einsetzen.

Hinweis

Passen Sie die additional-egress-endpoints Liste basierend auf der Beschreibung und den Listen in den vorherigen Abschnitten an.

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgCompute="<RG-COMPUTE>" 
export csnName="<CSN-NAME>" 
export region="<REGION>" 
 
az networkcloud cloudservicesnetwork create --cloud-services-network-name $csnName \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \06- \ 
--resource-group $rgCompute \ 
--location $region \ 
--enable-default-egress-endpoints True \ 
--subscription $subscriptionId \ 
--additional-egress-endpoints '[ 
    { 
      "category": "common", 
      "endpoints": [ 
        { 
          "domainName": ".io", 
          "port": 80 
        } 
      ] 
    }, 
    { 
      "category": "common", 
      "endpoints": [ 
        { 
          "domainName": ".io", 
          "port": 443 
        } 
      ] 
    } 
  ]'    07-

Überprüfen Sie nach dem Erstellen des CSN die egress-endpoints folgenden Befehle in der Befehlszeile:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export csnName="<CSN-NAME>" 
 
az networkcloud cloudservicesnetwork show -n $csnName -g $rgCompute --subscription $subscriptionId

Erstellen Sie einen Nexus Azure Kubernetes Services Cluster

Anbieter von Nexus-Ressourcen müssen selbstverwaltete Ressourcengruppen bereitstellen, die für die Bereitstellung der erforderlichen, von Kunden erstellten Ressourcen verwendet werden. Wenn Nexus AKS-Cluster bereitgestellt werden, müssen sie Arc-aktiviert sein. Der Network Cloud-Ressourcenanbieter erstellt seine eigene verwaltete Ressourcengruppe und stellt sie in einer Azure Arc Kubernetes-Cluster-Ressource bereit. Nach dieser Bereitstellung wird diese Cluster-Ressource mit der NAKS-Cluster-Ressource verknüpft.

Hinweis

Nachdem der NAKS-Cluster bereitgestellt und die verwaltete Ressourcengruppe erstellt wurde, müssen Sie möglicherweise allen ein Benutzer/Entra- Gruppe/Service-Hauptzugriff auf die verwaltete Ressourcengruppe gewähren. Diese Aktion hängt von den Einstellungen auf Abonnementebene Identity Access Management (IAM) ab.

Verwenden Sie die folgenden Azure CLI-Befehle, um den NAKS-Cluster zu erstellen:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgManagedUndercloudCluster="<RG-MANAGED-UNDERCLOUD-CLUSTER>" 
export undercloudCustLocationName="<UNDERCLOUD-CUST-LOCATION-NAME>" 
export rgCompute="<RG-COMPUTE>" 
export rgNcManaged="<RG-NETWORK-CLOUD-MANAGED>" 
export csnName="<CSN-NAME>" 
export defCniL3Net="<L3-NET-FOR-DEF-CNI>" 
export trunkName="<TRUNK-NAME>" 
export naksName="<NAKS-NAME>" 
export k8sVer="<K8S-VER>" 
export region="<REGION>" 
export regionRgNcManaged="<REGION-RG-NETWORK-CLOUD-MANAGED>" 
export sshPubKeys="<SSH-PUB-KEYS>"  
export adminUser="<ADMIN-USER>" // e.g. "azureuser" 
export controlVmSku="<CONTROL-NODE-SKU>" 
export controlVmCount="<CONTROL-NODE-COUNT>" 
export workerVmSku="<WORKER-NODE-SKU>" 
export workerVmCount="<WORKER-NODE-COUNT>" 
export nodePoolName="<NODE-POOL-NAME>" 
export lbIpv4Pool="<LOADBALANCER-IPV4-POOL>" 
export hugePages2MCount=<HUGEPAGES-2M-COUNT> 
export aadAdminGroupObjectId="<AAD-GROUP-TO-ACCESS-NAKS>" 
export maxSurge=1 // number of nodes added to the cluster during upgrade e.g. 1 or percentage "10%"   
 
 
az networkcloud kubernetescluster create --name $naksName \ 
--resource-group $rgCompute \ 
--location $region \ 
--kubernetes-version $k8sVer \ 
--extended-location name="/subscriptions/$subscriptionId/resourceGroups/$rgManagedUndercloudCluster/providers/Microsoft.ExtendedLocation/customLocations/$undercloudCustLocationName" type="CustomLocation" \ 
--admin-username $adminUser \ 
--ssh-key-values "$sshPubKeys" \ 
--initial-agent-pool-configurations "[{count:$workerVmCount,mode:'System',name:'$nodePoolName',vmSkuName:'$workerVmSku',agentOptions:{hugepagesCount:$hugePages2MCount,hugepagesSize:2M},upgradeSettings:{maxSurge:$maxSurge},adminUsername:'$adminUser',ssh-key-values:['$sshPubKeys']}]" \ 
--control-plane-node-configuration count=$workerVmCount vmSkuName=$controlVmSku adminUsername=$adminUser ssh-key-values=['$sshPubKeys'] \ 
--network-configuration cloud-services-network-id="/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/cloudServicesNetworks/$csnName" cni-network-id="/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/l3Networks/$defCniL3Net" pod-cidrs=["10.244.0.0/16"] service-cidrs=["10.96.0.0/16"] dns-service-ip="10.96.0.10" attached-network-configuration.trunked-networks="[{networkId:'/subscriptions/$subscriptionId/resourceGroups/$rgCompute/providers/Microsoft.NetworkCloud/trunkedNetworks/$trunkName',pluginType:'SRIOV'}]" bgp-service-load-balancer-configuration.fabric-peering-enabled="True" bgp-service-load-balancer-configuration.ip-address-pools="[{addresses:['$lbIpv4Pool'],autoAssign:'True',name:'pool1',onlyUseHostIps:'True'}]" \ 
--managed-resource-group-configuration "{location:$regionRgNcManaged,name:$rgNcManaged}" \ 
--aad-configuration admin-group-object-ids=[$aadAdminGroupObjectId] \ 
--subscription $subscriptionId

Um die Liste der erstellten Nexus-Cluster zu überprüfen, geben Sie den folgenden Befehl ein:

export subscriptionId="<SUBSCRIPTION-ID>" 
 
az networkcloud kubernetescluster list -o table --subscription $subscriptionId

Um die Details eines erstellten Clusters zu überprüfen, geben Sie den folgenden Befehl ein:

export subscriptionId="<SUBSCRIPTION-ID>" 
export rgCompute="<RG-COMPUTE>" 
export naksName="<NAKS-NAME>" 
 
az networkcloud kubernetescluster show -n $naksName -g $rgCompute --subscription $subscriptionId

Nachdem der Cluster erstellt wurde, können Sie die NFM-Erweiterung aktivieren und einen benutzerdefinierten Speicherort festlegen, damit der Cluster über AOSM oder NFM bereitgestellt werden kann.

Zugriff auf den Nexus Azure Kubernetes Services-Cluster

Es gibt mehrere Möglichkeiten, auf den API-Server des Tenant NAKS-Clusters zuzugreifen:

  • Direkt von der IP-Adresse/dem Port (von einem Jumpbox mit Konnektivität zum MANDANTEN-NAKS-API-Server)

  • Verwenden Sie die Azure CLI und die Option „connectedk8S proxy“ wie unter dem Link beschrieben, um direkt auf Cluster zuzugreifen. Die EntraID/AAD-Gruppe des Dienstprinzipals (mit Azure CLI verwendet) muss während der NAKS-Clusterbereitstellung bereitgestellt werden. Sie müssen außerdem der verwalteten Ressourcengruppe, die von der Network Cloud RP erstellt wurde, eine benutzerdefinierte Rolle zugewiesen haben. Eine der folgenden Aktionen muss in dieser Rolle aktiviert sein:

    • Microsoft.Kubernetes/connectedClusters/listClusterUserCredential/action
    • Ein Benutzer oder Dienstanbieter als Mitwirkender in der verwalteten Ressourcengruppe

Azure Edge-Dienste

Azure Operator 5G Core ist eine Telekommunikationsworkload, mit der Sie Endbenutzern und Unternehmensendbenutzern Dienste anbieten können. Die Azure Operator 5G Core-Workloads werden auf einer NFVI-Ebene (Network Functions Virtualization Infrastructure) ausgeführt und können von anderen NFVI-Diensten abhängen.

Edge NFVI-Funktionen (ausgeführt auf Azure Operator Nexus)

Hinweis

Die zugehörigen Edge NFVI-Dienste können gelegentlich aktualisiert werden. Weitere Informationen zu diesen Diensten finden Sie in der Dokumentation des jeweiligen Diensts.

  • Azure Operator Nexus – Azure Operator Nexus ist die Hybrid Cloud-Plattform der nächsten Generation auf Netzbetreiberniveau für Telekommunikationsbetreiber. Azure Operator Nexus wurde speziell für netzwerkintensive Workloads und unternehmenskritische Anwendungen von Betreibern entwickelt.

  • Alle anderen Hardware- und Dienste von Azure Operator Nexus können davon abhängen.

  • Azure Arc – Bietet eine einheitliche Verwaltungs- und Governanceplattform für Azure Operator 5G Core-Anwendungen und -Dienste in Azure- und lokalen Umgebungen.

  • Azure Monitor – Bietet eine umfassende Lösung zur Überwachung der Leistung und Integrität von Azure Operator 5G Core-Anwendungen und -Diensten in Azure- und lokalen Umgebungen.

  • EntraID – Bietet Identitäts- und Zugriffsverwaltung für Azure Operator 5G Core-Benutzer und -Administratoren in Azure- und lokalen Umgebungen.

  • Azure Key Vault – Bietet einen sicheren und zentralen Speicher zum Verwalten von Verschlüsselungsschlüsseln und geheimen Schlüsseln für Azure Operator 5G Core in Azure- und lokalen Umgebungen.