Azure Databricks-taken maken en uitvoeren

In dit artikel wordt beschreven hoe u Azure Databricks-taken maakt en uitvoert met behulp van de gebruikersinterface voor taken.

Zie Instellingen configureren voor Azure Databricks-taken voor meer informatie over configuratieopties voor taken en het bewerken van uw bestaande taken.

Zie Taakuitvoeringen weergeven en beheren voor meer informatie over het beheren en bewaken van taakuitvoeringen.

Als u uw eerste werkstroom wilt maken met een Azure Databricks-taak, raadpleegt u de quickstart.

Belangrijk

  • Een werkruimte is beperkt tot 1000 gelijktijdige taakuitvoeringen. Het antwoord 429 Too Many Requests wordt geretourneerd wanneer u een uitvoering aanvraagt die niet onmiddellijk kan worden gestart.
  • Het aantal taken dat een werkruimte in een uur kan maken, is beperkt tot 10000 (inclusief 'runs submit'). Deze limiet is ook van invloed op taken die zijn gemaakt door de REST API- en notebook-werkstromen.

Taken maken en uitvoeren met behulp van de CLI, API of notebooks

Een taak maken

  1. Voer een van de volgende stappen uit:

    • Klik op Pictogram TakenWerkstromen in de zijbalk en klik op .Knop Taak maken
    • Klik in de zijbalk op Nieuw pictogramNieuw en selecteer Taak.

    Het tabblad Taken wordt weergegeven met het dialoogvenster Taak maken, samen met het deelvenster Taakdetails met instellingen op taakniveau.

    Taakscherm maken

  2. Nieuwe taak vervangen ... door de naam van uw taak.

  3. Voer een naam in voor de taak in het veld Taaknaam .

  4. Selecteer in het vervolgkeuzemenu Type het type taak dat moet worden uitgevoerd. Zie opties voor taaktype.

  5. Configureer het cluster waarop de taak wordt uitgevoerd. Serverloze berekeningen worden standaard geselecteerd als uw werkruimte zich in een werkruimte met Unity Catalog bevindt en u een taak hebt geselecteerd die wordt ondersteund door serverloze berekeningen voor werkstromen. Zie Uw Azure Databricks-taak uitvoeren met serverloze berekeningen voor werkstromen. Als serverloze berekening niet beschikbaar is of als u een ander rekentype wilt gebruiken, kunt u een nieuw taakcluster of een bestaand cluster voor alle doeleinden selecteren in de vervolgkeuzelijst Compute .

    • Nieuw taakcluster: klik in de vervolgkeuzelijst Cluster op Bewerken en voltooi de clusterconfiguratie.
    • Bestaand cluster voor alle doeleinden: selecteer een bestaand cluster in de vervolgkeuzelijst Cluster . Als u het cluster op een nieuwe pagina wilt openen, klikt u op het Externe koppeling pictogram rechts van de clusternaam en beschrijving.

    Zie Azure Databricks Compute gebruiken voor uw taken voor meer informatie over het selecteren en configureren van clusters voor het uitvoeren van taken.

  6. Als u afhankelijke bibliotheken wilt toevoegen, klikt u op + Toevoegen naast afhankelijke bibliotheken. Zie Afhankelijke bibliotheken configureren.

  7. U kunt parameters voor uw taak doorgeven. Zie Parameters doorgeven aan een Azure Databricks-taak voor informatie over de vereisten voor het opmaken en doorgeven van parameters.

  8. Als u optioneel meldingen wilt ontvangen voor het starten, slagen of mislukken van taken, klikt u op + Toevoegen naast e-mailberichten. Mislukte meldingen worden verzonden bij initiële taakfouten en eventuele nieuwe pogingen. Als u meldingen wilt filteren en het aantal verzonden e-mailberichten wilt verminderen, controleert u Meldingen dempen voor overgeslagen uitvoeringen, dempt u meldingen voor geannuleerde uitvoeringen of dempt u meldingen tot de laatste keer opnieuw.

  9. Als u desgewenst een beleid voor opnieuw proberen voor de taak wilt configureren, klikt u op + Toevoegen naast Nieuwe pogingen. Zie Beleid voor opnieuw proberen voor een taak configureren.

  10. Als u desgewenst de verwachte duur of time-out van de taak wilt configureren, klikt u op + Toevoegen naast de drempelwaarde voor duur. Zie Een verwachte voltooiingstijd of een time-out voor een taak configureren.

  11. Klik op Create.

Nadat u de eerste taak hebt gemaakt, kunt u instellingen op taakniveau configureren, zoals meldingen, taaktriggers en machtigingen. Zie Een taak bewerken.

Als u een andere taak wilt toevoegen, klikt u Knop Taak toevoegen in de DAG-weergave. Er wordt een gedeelde clusteroptie opgegeven als u serverloze berekeningen hebt geselecteerd of een nieuw taakcluster hebt geconfigureerd voor een vorige taak. U kunt ook een cluster configureren voor elke taak wanneer u een taak maakt of bewerkt. Zie Azure Databricks Compute gebruiken voor uw taken voor meer informatie over het selecteren en configureren van clusters voor het uitvoeren van taken.

U kunt desgewenst instellingen op taakniveau configureren, zoals meldingen, taaktriggers en machtigingen. Zie Een taak bewerken. U kunt ook parameters op taakniveau configureren die worden gedeeld met de taken van de taak. Zie Parameters toevoegen voor alle taaktaken.

Opties voor taaktype

Hier volgen de taaktypen die u kunt toevoegen aan uw Azure Databricks-taak en beschikbare opties voor de verschillende taaktypen:

  • Notebook: Selecteer in de vervolgkeuzelijst Bron werkruimte om een notebook te gebruiken in een Azure Databricks-werkruimtemap of Git-provider voor een notebook in een externe Git-opslagplaats.

    Werkruimte: Gebruik de bestandsbrowser om het notitieblok te vinden, klik op de naam van het notitieblok en klik op Bevestigen.

    Git-provider: klik op Bewerken of Voeg een Git-verwijzing toe en voer de gegevens van de Git-opslagplaats in. Zie Een notebook gebruiken vanuit een externe Git-opslagplaats.

    Notitie

    De totale uitvoer van notebookcellen (de gecombineerde uitvoer van alle notebookcellen) is onderworpen aan een maximale grootte van 20 MB. Daarnaast is de uitvoer van afzonderlijke cellen onderworpen aan een maximale grootte van 8 MB. Als de totale celuitvoer groter is dan 20 MB of als de uitvoer van een afzonderlijke cel groter is dan 8 MB, wordt de uitvoering geannuleerd en gemarkeerd als mislukt.

    Als u hulp nodig hebt bij het vinden van cellen bijna of buiten de limiet, voert u het notebook uit op een cluster voor alle doeleinden en gebruikt u deze techniek voor automatisch opslaan van notebooks.

  • JAR: Geef de hoofdklasse op. Gebruik bijvoorbeeld de volledig gekwalificeerde naam van de klasse die de hoofdmethode org.apache.spark.examples.SparkPibevat. Klik vervolgens onder Afhankelijke bibliotheken op Toevoegen om bibliotheken toe te voegen die nodig zijn om de taak uit te voeren. Een van deze bibliotheken moet de hoofdklasse bevatten.

    Zie Een JAR gebruiken in een Azure Databricks-taak voor meer informatie over JAR-taken.

  • Spark Submit: Geef in het tekstvak Parameters de hoofdklasse, het pad naar het JAR-bestand van de bibliotheek en alle argumenten op, opgemaakt als een JSON-matrix met tekenreeksen. In het volgende voorbeeld wordt een spark-submit-taak geconfigureerd om de DFSReadWriteTest taak uit te voeren vanuit de Apache Spark-voorbeelden:

    ["--class","org.apache.spark.examples.DFSReadWriteTest","dbfs:/FileStore/libraries/spark_examples_2_12_3_1_1.jar","/discover/databricks-datasets/README.md","/FileStore/examples/output/"]
    

    Belangrijk

    Er zijn verschillende beperkingen voor spark-submit-taken :

    • U kunt spark-submit-taken alleen uitvoeren op nieuwe clusters.
    • Spark-submit biedt geen ondersteuning voor automatische schaalaanpassing van clusters. Zie Automatische schaalaanpassing van clusters voor meer informatie over automatisch schalen.
    • Spark-submit biedt geen ondersteuning voor Databricks Utilities-verwijzing (dbutils). Als u Databricks Utilities wilt gebruiken, gebruikt u in plaats daarvan JAR-taken.
    • Als u een cluster met Unity Catalog gebruikt, wordt spark-submit alleen ondersteund als het cluster gebruikmaakt van de toegewezen toegangsmodus. De modus voor gedeelde toegang wordt niet ondersteund.
    • Spark-streamingtaken mogen nooit maximaal gelijktijdige uitvoeringen hebben ingesteld op groter dan 1. Streamingtaken moeten worden ingesteld om te worden uitgevoerd met behulp van de cron-expressie "* * * * * ?" (elke minuut). Omdat een streamingtaak continu wordt uitgevoerd, moet deze altijd de laatste taak in een taak zijn.
  • Python-script: Selecteer in de vervolgkeuzelijst Bron een locatie voor het Python-script, werkruimte voor een script in de lokale werkruimte, DBFS voor een script dat zich in DBFS bevindt of Git-provider voor een script in een Git-opslagplaats. Voer in het tekstvak Pad het pad in naar het Python-script:

    Werkruimte: Blader in het dialoogvenster Python-bestand selecteren naar het Python-script en klik op Bevestigen.

    DBFS: voer de URI in van een Python-script in DBFS of cloudopslag, dbfs:/FileStore/myscript.pybijvoorbeeld.

    Git-provider: klik op Bewerken en voer de gegevens van de Git-opslagplaats in. Zie Python-code gebruiken vanuit een externe Git-opslagplaats.

  • Delta Live Tables Pipeline: Selecteer in de vervolgkeuzelijst Pijplijn een bestaande Delta Live Tables-pijplijn .

    Belangrijk

    U kunt alleen geactiveerde pijplijnen gebruiken met de pijplijntaak . Doorlopende pijplijnen worden niet ondersteund als taaktaak. Zie Continue versus geactiveerde pijplijnuitvoering voor meer informatie over geactiveerde en continue pijplijnen.

  • Python Wheel: Voer in het tekstvak Pakketnaam het pakket in dat moet worden geïmporteerd, myWheel-1.0-py2.py3-none-any.whlbijvoorbeeld. Voer in het tekstvak Invoerpunt de functie in die moet worden aangeroepen bij het starten van het Python-wielbestand. Klik onder Afhankelijke bibliotheken op Toevoegen om bibliotheken toe te voegen die nodig zijn om de taak uit te voeren.

  • SQL: Selecteer in het vervolgkeuzemenu van de SQL-taak query, verouderd dashboard, waarschuwing of bestand.

    Notitie

    Query: Selecteer in het vervolgkeuzemenu van de SQL-query de query die moet worden uitgevoerd wanneer de taak wordt uitgevoerd.

    Verouderd dashboard: selecteer in het vervolgkeuzemenu van het SQL-dashboard een dashboard dat moet worden bijgewerkt wanneer de taak wordt uitgevoerd.

    Waarschuwing: Selecteer in het vervolgkeuzemenu van de SQL-waarschuwing een waarschuwing die moet worden geactiveerd voor evaluatie.

    Bestand: Als u een SQL-bestand wilt gebruiken in een Azure Databricks-werkruimtemap, selecteert u Werkruimte in het vervolgkeuzemenu Bron, gebruikt u de bestandsbrowser om het SQL-bestand te vinden, klikt u op de bestandsnaam en klikt u op Bevestigen. Als u een SQL-bestand in een externe Git-opslagplaats wilt gebruiken, selecteert u Git-provider, klikt u op Bewerken of Een Git-verwijzing toevoegen en voert u details in voor de Git-opslagplaats. Zie SQL-query's gebruiken vanuit een externe Git-opslagplaats.

    Selecteer in de vervolgkeuzelijst SQL Warehouse een serverloze of pro SQL Warehouse om de taak uit te voeren.

  • dbt: Zie Dbt-transformaties gebruiken in een Azure Databricks-taak voor een gedetailleerd voorbeeld van het configureren van een dbt-taak.

  • Taak uitvoeren: selecteer in de vervolgkeuzelijst Taak een taak die door de taak moet worden uitgevoerd. Als u wilt zoeken naar de taak die moet worden uitgevoerd, typt u de taaknaam in het menu Taak .

    Belangrijk

    U moet geen taken maken met kringafhankelijkheden wanneer u de Run Job taak of taken gebruikt die meer dan drie Run Job taken nesten. Kringafhankelijkheden zijn Run Job taken die direct of indirect elkaar activeren. Job A activeert bijvoorbeeld Taak B en Job B activeert taak A. Databricks biedt geen ondersteuning voor taken met kringafhankelijkheden of die meer dan drie Run Job taken nesten en mogelijk niet toestaan dat deze taken in toekomstige releases worden uitgevoerd.

  • Als/anders: Zie Vertakkingslogica toevoegen aan uw taak met de if/else-voorwaardetaak voor meer informatie over het gebruik van de If/else condition taak.

Parameters doorgeven aan een Azure Databricks-taak

U kunt parameters doorgeven aan een groot aantal taaktypen. Elk taaktype heeft verschillende vereisten voor het opmaken en doorgeven van de parameters.

Gebruik dynamische waardeverwijzingen om toegang te krijgen tot informatie over de huidige taak, zoals de naam van de taak, of om context door te geven over de huidige uitvoering tussen taaktaken, zoals de begintijd van de taak of de id van de huidige taakuitvoering. Als u een lijst met beschikbare verwijzingen naar dynamische waarden wilt weergeven, klikt u op Dynamische waarden bladeren.

Als taakparameters zijn geconfigureerd voor de taak waartoe een taak behoort, worden deze parameters weergegeven wanneer u taakparameters toevoegt. Als taak- en taakparameters een sleutel delen, heeft de taakparameter voorrang. Er wordt een waarschuwing weergegeven in de gebruikersinterface als u probeert een taakparameter toe te voegen met dezelfde sleutel als een taakparameter. Als u taakparameters wilt doorgeven aan taken die niet zijn geconfigureerd met sleutelwaardeparameters, zoals JAR taken Spark Submit , maakt u argumenten op als {{job.parameters.[name]}}, waarbij [name] de key parameter wordt geïdentificeerd.

  • Notitieblok: klik op Toevoegen en geef de sleutel en waarde op van elke parameter die aan de taak moet worden doorgegeven. U kunt extra parameters overschrijven of toevoegen wanneer u een taak handmatig uitvoert met behulp van de optie Een taak uitvoeren met verschillende parameters . Parameters stellen de waarde van de notebookwidget in die is opgegeven door de sleutel van de parameter.

  • JAR: Gebruik een met JSON opgemaakte matrix met tekenreeksen om parameters op te geven. Deze tekenreeksen worden doorgegeven als argumenten aan de hoofdmethode van de hoofdklasse. Zie Jar-taakparameters configureren.

  • Spark Submit: Parameters worden opgegeven als een matrix met JSON-indeling met tekenreeksen. Parameters na het JAR-pad worden doorgegeven aan de hoofdmethode van de hoofdklasse van de Apache Spark Spark-submit-conventie .

  • Python Wheel: Selecteer in de vervolgkeuzelijst Parameters positionele argumenten om parameters in te voeren als een matrix met JSON-indeling met tekenreeksen of selecteer Trefwoordargumenten > Toevoegen om de sleutel en waarde van elke parameter in te voeren. Zowel positionele als trefwoordargumenten worden als opdrachtregelargumenten doorgegeven aan de Python-wieltaak. Zie Een Python-wielbestand gebruiken in een Azure Databricks-taak voor een voorbeeld van het lezen van argumenten in een Python-script dat is verpakt in een Python-wielbestand.

  • Taak uitvoeren: voer de sleutel en waarde in van elke taakparameter die aan de taak moet worden doorgegeven.

  • Python-script: Gebruik een met JSON opgemaakte matrix met tekenreeksen om parameters op te geven. Deze tekenreeksen worden doorgegeven als argumenten en kunnen worden gelezen als positionele argumenten of geparseerd met behulp van de argparse-module in Python. Zie stap 2: Een script maken om GitHub-gegevens op te halen voor een voorbeeld van positionele argumenten in een Python-script.

  • SQL: Als uw taak een geparameteriseerde query of een geparameteriseerd dashboard uitvoert, voert u waarden in voor de parameters in de opgegeven tekstvakken.

Een taakpad kopiëren

Met bepaalde taaktypen, bijvoorbeeld notebooktaken, kunt u het pad naar de broncode van de taak kopiëren:

  1. Klik op het tabblad Taken .
  2. Selecteer de taak met het pad dat u wilt kopiëren.
  3. Klik Pictogram Taken kopiëren naast het taakpad om het pad naar het klembord te kopiëren.

Een taak maken op basis van een bestaande taak

U kunt snel een nieuwe taak maken door een bestaande taak te klonen. Als u een taak kloont, wordt een identieke kopie van de taak gemaakt, met uitzondering van de taak-id. Klik op de pagina van de taak op Meer ... naast de naam van de taak en selecteer Klonen in de vervolgkeuzelijst.

Een taak maken op basis van een bestaande taak

U kunt snel een nieuwe taak maken door een bestaande taak te klonen:

  1. Klik op de pagina van de taak op het tabblad Taken .
  2. Selecteer de taak die u wilt klonen.
  3. Klik Verticale weglatingstekens voor taken en selecteer Kloontaak.

Een taak verwijderen

Als u een taak wilt verwijderen, klikt u op de pagina van de taak op Meer ... naast de naam van de taak en selecteert u Verwijderen in de vervolgkeuzelijst.

Een taak verwijderen

Een taak verwijderen:

  1. Klik op het tabblad Taken .
  2. Selecteer de taak die u wilt verwijderen.
  3. Klik Verticale weglatingstekens voor taken en selecteer Taak verwijderen.

Een taak uitvoeren

  1. Klik op Pictogram TakenWerkstromen in de zijbalk.
  2. Selecteer een taak en klik op het tabblad Uitvoeringen . U kunt een taak direct uitvoeren of de taak plannen om later uit te voeren.

Als een of meer taken in een taak met meerdere taken mislukt, kunt u de subset van mislukte taken opnieuw uitvoeren. Zie Mislukte en overgeslagen taken opnieuw uitvoeren.

Een taak onmiddellijk uitvoeren

Als u de taak onmiddellijk wilt uitvoeren, klikt u op Knop Nu uitvoeren.

Tip

U kunt een testuitvoering van een taak uitvoeren met een notebooktaak door op Nu uitvoeren te klikken. Als u wijzigingen wilt aanbrengen in het notitieblok, klikt u opnieuw op Nu uitvoeren nadat u het notitieblok hebt bewerkt, wordt automatisch de nieuwe versie van het notitieblok uitgevoerd.

Een taak uitvoeren met verschillende parameters

U kunt Nu uitvoeren met verschillende parameters gebruiken om een taak opnieuw uit te voeren met verschillende parameters of verschillende waarden voor bestaande parameters.

Notitie

U kunt taakparameters niet overschrijven als een taak die vóór de introductie van taakparameters werd uitgevoerd, taakparameters met dezelfde sleutel overroeed.

  1. Klik naast Blue Down CaretNu uitvoeren en selecteer Nu uitvoeren met verschillende parameters of klik in de tabel Actieve uitvoeringen op Nu uitvoeren met verschillende parameters. Voer de nieuwe parameters in, afhankelijk van het type taak. Zie Parameters doorgeven aan een Azure Databricks-taak.
  2. Klik op Uitvoeren .

Een taak uitvoeren als een service-principal

Notitie

Als uw taak SQL-query's uitvoert met behulp van de SQL-taak, wordt de identiteit die wordt gebruikt om de query's uit te voeren, bepaald door de instellingen voor delen van elke query, zelfs als de taak wordt uitgevoerd als een service-principal. Als een query is geconfigureerd Run as owner, wordt de query altijd uitgevoerd met behulp van de identiteit van de eigenaar en niet de identiteit van de service-principal. Als de query is geconfigureerd Run as viewer, wordt de query uitgevoerd met behulp van de identiteit van de service-principal. Zie Querymachtigingen configureren voor meer informatie over instellingen voor het delen van query's.

Taken worden standaard uitgevoerd als de identiteit van de eigenaar van de taak. Dit betekent dat bij de taak wordt uitgegaan van de machtigingen van de eigenaar van de taak. De taak heeft alleen toegang tot gegevens en Azure Databricks-objecten waartoe de eigenaar van de taak toegang heeft. U kunt de identiteit wijzigen die door de taak wordt uitgevoerd als een service-principal. Vervolgens wordt in de taak ervan uitgegaan dat de machtigingen van die service-principal in plaats van de eigenaar zijn.

Als u de instelling Uitvoeren als wilt wijzigen, moet u de machtiging CAN MANAGE of IS OWNER voor de taak hebben. U kunt de instelling Uitvoeren als instellen op uzelf of op een service-principal in de werkruimte waarvoor u de gebruikersrol Service-principal hebt. Zie Rollen voor het beheren van service-principals voor meer informatie.

Notitie

Wanneer de RestrictWorkspaceAdmins instelling voor een werkruimte is ingesteld ALLOW ALLop, kunnen werkruimtebeheerders de instelling Uitvoeren als ook wijzigen in elke gebruiker in hun werkruimte. Zie Werkruimtebeheerders beperken om alleen de instelling Uitvoeren als te wijzigen voor zichzelf of service-principals waarvoor ze de gebruikersrol Service-principal hebben, te beperken.

Ga als volgt te werk om het uitvoeren als-veld te wijzigen:

  1. Klik in de zijbalk op Pictogram TakenWerkstromen.
  2. Klik in de kolom Naam op de taaknaam.
  3. Klik in het zijpaneel Taakdetails op het potloodpictogram naast het veld Uitvoeren als .
  4. Zoek en selecteer de service-principal.
  5. Klik op Opslaan.

U kunt ook de service-principals vermelden waarvoor u de gebruikersrol hebt met behulp van de API voor werkruimteservice-principals. Zie De service-principals weergeven die u kunt gebruiken voor meer informatie.

Een taak volgens een planning uitvoeren

U kunt een planning gebruiken om uw Azure Databricks-taak automatisch uit te voeren op opgegeven tijdstippen en perioden. Zie Een taakplanning toevoegen.

Een doorlopende taak uitvoeren

U kunt ervoor zorgen dat er altijd een actieve uitvoering van uw taak is. Zie Een doorlopende taak uitvoeren.

Een taak uitvoeren wanneer nieuwe bestanden binnenkomen

Als u een taakuitvoering wilt activeren wanneer nieuwe bestanden binnenkomen op een externe locatie of volume van Unity Catalog, gebruikt u een trigger voor het binnenkomen van bestanden.

Een taak weergeven en uitvoeren die is gemaakt met een Databricks Asset Bundle

U kunt de gebruikersinterface van Azure Databricks-taken gebruiken om taken weer te geven en uit te voeren die zijn geïmplementeerd door een Databricks Asset Bundle. Deze taken zijn standaard alleen-lezen in de gebruikersinterface van Taken. Als u een taak wilt bewerken die door een bundel is geïmplementeerd, wijzigt u het configuratiebestand voor de bundel en implementeert u de taak opnieuw. Als u alleen wijzigingen toepast op de bundelconfiguratie, zorgt u ervoor dat de bundelbronbestanden altijd de huidige taakconfiguratie vastleggen.

Als u echter onmiddellijk wijzigingen in een taak moet aanbrengen, kunt u de taak loskoppelen van de bundelconfiguratie om het bewerken van de taakinstellingen in de gebruikersinterface in te schakelen. Als u de taak wilt verbreken, klikt u op Verbinding met bron verbreken. Klik in het dialoogvenster Verbinding verbreken met bron op Verbinding verbreken om te bevestigen.

Wijzigingen die u aanbrengt in de taak in de gebruikersinterface, worden niet toegepast op de bundelconfiguratie. Als u wijzigingen wilt toepassen die u in de gebruikersinterface aanbrengt in de bundel, moet u de bundelconfiguratie handmatig bijwerken. Als u de taak opnieuw wilt verbinden met de bundelconfiguratie, implementeert u de taak opnieuw met behulp van de bundel.

Wat gebeurt er als mijn taak niet kan worden uitgevoerd vanwege gelijktijdigheidslimieten?

Notitie

Wachtrijen worden standaard ingeschakeld wanneer taken worden gemaakt in de gebruikersinterface.

Als u wilt voorkomen dat uitvoeringen van een taak worden overgeslagen vanwege gelijktijdigheidslimieten, kunt u wachtrijen voor de taak inschakelen. Als wachtrijen zijn ingeschakeld en resources niet beschikbaar zijn voor een taakuitvoering, wordt de uitvoering maximaal 48 uur in de wachtrij geplaatst. Wanneer de capaciteit beschikbaar is, wordt de taakuitvoering uit de wachtrij verwijderd en uitgevoerd. Uitvoeringen in de wachtrij worden weergegeven in de lijst met uitvoeringen voor de taak en de lijst met recente takenuitvoeringen.

Er wordt een uitvoering in de wachtrij geplaatst wanneer een van de volgende limieten is bereikt:

  • De maximale gelijktijdige actieve uitvoeringen in de werkruimte.
  • De maximale gelijktijdige Run Job taak wordt uitgevoerd in de werkruimte.
  • De maximale gelijktijdige uitvoeringen van de taak.

Wachtrijen is een eigenschap op taakniveau die alleen voor die taak wordt uitgevoerd.

Als u wachtrijen wilt in- of uitschakelen, klikt u op Geavanceerde instellingen en klikt u op de wisselknop Wachtrij in het deelvenster Taakdetails.