Big Data Pools - Create Or Update
Erstellen Sie einen Big Data-Pool.
Erstellen Sie einen neuen Big Data-Pool.
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01-preview
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01-preview&force={force}
URI-Parameter
Name | In | Erforderlich | Typ | Beschreibung |
---|---|---|---|---|
big
|
path | True |
string |
Name des Big Data-Pools |
resource
|
path | True |
string |
Der Name der Ressourcengruppe. Für den Namen wird die Groß-/Kleinschreibung nicht beachtet. |
subscription
|
path | True |
string |
Hierbei handelt es sich um die ID des Zielabonnements. |
workspace
|
path | True |
string |
Den Namen des Arbeitsbereichs |
api-version
|
query | True |
string |
Hierbei handelt es sich um die für diesen Vorgang zu verwendende API-Version. |
force
|
query |
boolean |
Ob ausgeführte Aufträge im Big Data-Pool beendet werden sollen |
Anforderungstext
Name | Erforderlich | Typ | Beschreibung |
---|---|---|---|
location | True |
string |
Der geografische Standort, an dem sich die Ressource befindet |
properties.autoPause |
Eigenschaften des automatischen Anhaltens des Spark-Pools |
||
properties.autoScale |
Eigenschaften für die automatische Skalierung des Spark-Pools |
||
properties.cacheSize |
integer |
Cachegröße |
|
properties.customLibraries |
Liste der benutzerdefinierten Bibliotheken/Pakete, die dem Spark-Pool zugeordnet sind. |
||
properties.defaultSparkLogFolder |
string |
Der Standardordner, in dem Spark-Protokolle geschrieben werden. |
|
properties.dynamicExecutorAllocation |
Dynamische Executorzuordnung |
||
properties.isAutotuneEnabled |
boolean |
Aktivieren von Autotune |
|
properties.isComputeIsolationEnabled |
boolean |
Gibt an, ob Computeisolation erforderlich ist oder nicht. |
|
properties.libraryRequirements |
Versionsanforderungen für Spark-Poolbibliotheken |
||
properties.nodeCount |
integer |
Die Anzahl der Knoten im Big Data-Pool. |
|
properties.nodeSize |
Die Ebene der Computeleistung, die jeder Knoten im Big Data-Pool aufweist. |
||
properties.nodeSizeFamily |
Die Art von Knoten, die der Big Data-Pool bereitstellt. |
||
properties.provisioningState |
string |
Der Zustand des Big Data-Pools. |
|
properties.sessionLevelPackagesEnabled |
boolean |
Gibt an, ob Pakete auf Sitzungsebene aktiviert sind. |
|
properties.sparkConfigProperties |
Konfigurationseigenschaften des Spark-Pools |
||
properties.sparkEventsFolder |
string |
Der Spark-Ereignisordner |
|
properties.sparkVersion |
string |
Die Apache Spark-Version. |
|
tags |
object |
Ressourcentags. |
Antworten
Name | Typ | Beschreibung |
---|---|---|
200 OK |
OK |
|
202 Accepted | ||
Other Status Codes |
Beispiele
Create or update a Big Data pool
Sample Request
PUT https://management.azure.com/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool?api-version=2021-06-01-preview
{
"tags": {
"key": "value"
},
"location": "West US 2",
"properties": {
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"sparkEventsFolder": "/events",
"libraryRequirements": {
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
Sample Response
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"lastSucceededTimestamp": "1970-01-01T10:00:00Z",
"isAutotuneEnabled": false
}
}
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
{
"error": {
"code": "Error code",
"message": "Error message"
}
}
Definitionen
Name | Beschreibung |
---|---|
Auto |
Eigenschaften des automatischen Anhaltens des Spark-Pools |
Auto |
Eigenschaften für die automatische Skalierung des Spark-Pools |
Big |
Big Data-Pool |
Configuration |
Der Typ der Spark-Konfigurationseigenschaftendatei. |
Dynamic |
Eigenschaften der dynamischen Executorzuordnung |
Error |
Zusätzliche Informationen zum Ressourcenverwaltungsfehler. |
Error |
Die Fehlerdetails. |
Error |
Fehlerantwort |
Library |
Informationen zu einer Bibliothek/einem Paket, die auf Arbeitsbereichsebene erstellt wurden. |
Library |
Versionsanforderungen für Spark-Poolbibliotheken |
Node |
Die Ebene der Computeleistung, die jeder Knoten im Big Data-Pool aufweist. |
Node |
Die Art von Knoten, die der Big Data-Pool bereitstellt. |
Spark |
Konfigurationseigenschaften des Spark-Pools |
AutoPauseProperties
Eigenschaften des automatischen Anhaltens des Spark-Pools
Name | Typ | Beschreibung |
---|---|---|
delayInMinutes |
integer |
Anzahl der Minuten im Leerlauf, bevor der Big Data-Pool automatisch angehalten wird. |
enabled |
boolean |
Gibt an, ob das automatische Anhalten für den Big Data-Pool aktiviert ist. |
AutoScaleProperties
Eigenschaften für die automatische Skalierung des Spark-Pools
Name | Typ | Beschreibung |
---|---|---|
enabled |
boolean |
Gibt an, ob die automatische Skalierung für den Big Data-Pool aktiviert ist. |
maxNodeCount |
integer |
Die maximale Anzahl von Knoten, die der Big Data-Pool unterstützen kann. |
minNodeCount |
integer |
Die Mindestanzahl von Knoten, die der Big Data-Pool unterstützen kann. |
BigDataPoolResourceInfo
Big Data-Pool
Name | Typ | Beschreibung |
---|---|---|
id |
string |
Vollqualifizierte Ressourcen-ID für die Ressource. Beispiel: /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
location |
string |
Der geografische Standort, an dem sich die Ressource befindet |
name |
string |
Der Name der Ressource |
properties.autoPause |
Eigenschaften des automatischen Anhaltens des Spark-Pools |
|
properties.autoScale |
Eigenschaften für die automatische Skalierung des Spark-Pools |
|
properties.cacheSize |
integer |
Cachegröße |
properties.creationDate |
string |
Der Zeitpunkt, zu dem der Big Data-Pool erstellt wurde. |
properties.customLibraries |
Liste der benutzerdefinierten Bibliotheken/Pakete, die dem Spark-Pool zugeordnet sind. |
|
properties.defaultSparkLogFolder |
string |
Der Standardordner, in dem Spark-Protokolle geschrieben werden. |
properties.dynamicExecutorAllocation |
Dynamische Executorzuordnung |
|
properties.isAutotuneEnabled |
boolean |
Aktivieren von Autotune |
properties.isComputeIsolationEnabled |
boolean |
Gibt an, ob Computeisolation erforderlich ist oder nicht. |
properties.lastSucceededTimestamp |
string |
Der Zeitpunkt, zu dem der Big Data-Pool erfolgreich aktualisiert wurde. |
properties.libraryRequirements |
Versionsanforderungen für Spark-Poolbibliotheken |
|
properties.nodeCount |
integer |
Die Anzahl der Knoten im Big Data-Pool. |
properties.nodeSize |
Die Ebene der Computeleistung, die jeder Knoten im Big Data-Pool aufweist. |
|
properties.nodeSizeFamily |
Die Art von Knoten, die der Big Data-Pool bereitstellt. |
|
properties.provisioningState |
string |
Der Zustand des Big Data-Pools. |
properties.sessionLevelPackagesEnabled |
boolean |
Gibt an, ob Pakete auf Sitzungsebene aktiviert sind. |
properties.sparkConfigProperties |
Konfigurationseigenschaften des Spark-Pools |
|
properties.sparkEventsFolder |
string |
Der Spark-Ereignisordner |
properties.sparkVersion |
string |
Die Apache Spark-Version. |
tags |
object |
Ressourcentags. |
type |
string |
Der Typ der Ressource. Z. B. "Microsoft.Compute/virtualMachines" oder "Microsoft.Storage/storageAccounts" |
ConfigurationType
Der Typ der Spark-Konfigurationseigenschaftendatei.
Name | Typ | Beschreibung |
---|---|---|
Artifact |
string |
|
File |
string |
DynamicExecutorAllocation
Eigenschaften der dynamischen Executorzuordnung
Name | Typ | Beschreibung |
---|---|---|
enabled |
boolean |
Gibt an, ob die dynamische Executorzuordnung aktiviert ist oder nicht. |
maxExecutors |
integer |
Die maximale Anzahl der Zuteilungen von Executors |
minExecutors |
integer |
Die Mindestanzahl der Zuteilung von Executors |
ErrorAdditionalInfo
Zusätzliche Informationen zum Ressourcenverwaltungsfehler.
Name | Typ | Beschreibung |
---|---|---|
info |
object |
Zusätzliche Informationen. |
type |
string |
Typ der zusätzlichen Informationen. |
ErrorDetail
Die Fehlerdetails.
Name | Typ | Beschreibung |
---|---|---|
additionalInfo |
Die zusätzlichen Fehlerinformationen. |
|
code |
string |
Der Fehlercode. |
details |
Die Fehlerdetails. |
|
message |
string |
Die Fehlermeldung. |
target |
string |
Das Fehlerziel. |
ErrorResponse
Fehlerantwort
Name | Typ | Beschreibung |
---|---|---|
error |
Das Fehlerobjekt. |
LibraryInfo
Informationen zu einer Bibliothek/einem Paket, die auf Arbeitsbereichsebene erstellt wurden.
Name | Typ | Beschreibung |
---|---|---|
containerName |
string |
Name des Speicherblobcontainers. |
creatorId |
string |
Ersteller-ID der Bibliothek/des Pakets. |
name |
string |
Name der Bibliothek. |
path |
string |
Speicherblobpfad der Bibliothek. |
provisioningStatus |
string |
Bereitstellung status der Bibliothek/des Pakets. |
type |
string |
Typ der Bibliothek. |
uploadedTimestamp |
string |
Der Zeitpunkt der letzten Aktualisierung der Bibliothek. |
LibraryRequirements
Versionsanforderungen für Spark-Poolbibliotheken
Name | Typ | Beschreibung |
---|---|---|
content |
string |
Die Bibliotheksanforderungen. |
filename |
string |
Der Dateiname der Bibliotheksanforderungsdatei. |
time |
string |
Der Zeitpunkt der letzten Aktualisierung der Bibliotheksanforderungendatei. |
NodeSize
Die Ebene der Computeleistung, die jeder Knoten im Big Data-Pool aufweist.
Name | Typ | Beschreibung |
---|---|---|
Large |
string |
|
Medium |
string |
|
None |
string |
|
Small |
string |
|
XLarge |
string |
|
XXLarge |
string |
|
XXXLarge |
string |
NodeSizeFamily
Die Art von Knoten, die der Big Data-Pool bereitstellt.
Name | Typ | Beschreibung |
---|---|---|
HardwareAcceleratedFPGA |
string |
|
HardwareAcceleratedGPU |
string |
|
MemoryOptimized |
string |
|
None |
string |
SparkConfigProperties
Konfigurationseigenschaften des Spark-Pools
Name | Typ | Beschreibung |
---|---|---|
configurationType |
Der Typ der Spark-Konfigurationseigenschaftendatei. |
|
content |
string |
Die Spark-Konfigurationseigenschaften. |
filename |
string |
Der Dateiname der Spark-Konfigurationseigenschaftendatei. |
time |
string |
Der letzte Aktualisierungszeitpunkt der Spark-Konfigurationseigenschaftendatei. |