Správa clusterů

Tento článek popisuje, jak spravovat clustery Azure Databricks, včetně zobrazení, úprav, spuštění, ukončení, odstranění, řízení přístupu a monitorování výkonu a protokolů.

Zobrazení clusterů

Poznámka

Tento článek popisuje starší uživatelské rozhraní clusterů. Podrobnosti o uživatelském rozhraní Preview, včetně změn terminologie pro režimy přístupu ke clusteru, najdete v tématu Vytvoření clusteru. Porovnání nových a starších typů clusterů najdete v tématu Změny uživatelského rozhraní clusterů a režimy přístupu ke clusteru.

Pokud chcete zobrazit clustery v pracovním prostoru, klikněte na ikonu výpočetních prostředků na bočním panelu.

Na stránce Výpočty se zobrazují clustery na dvou kartách: clustery pro všechny účely a clustery úloh.

clustery pro všechny účely

clustery úloh

Na levé straně jsou dva sloupce označující, jestli je cluster připnutý, a stav clusteru:

Úplně vpravo na pravé straně karty Clustery pro všechny účely je ikona, kterou můžete použít k ukončení clusteru.

Pomocí nabídky se třemi tlačítky můžete restartovat, klonovat, odstraňovat nebo upravovat oprávnění ke clusteru. Možnosti nabídky, které nejsou k dispozici, jsou neaktivní.

Svislá ikona 3 tlačítek

Karta Clustery pro všechny účely zobrazuje počet připojených poznámkových bloků k clusteru.

Filtrování seznamu clusterů

Seznamy clusterů můžete filtrovat pomocí tlačítek a vyhledávacího pole v pravém horním rohu:

Filtrování clusterů

Připnutí clusteru

30 dnů od ukončení se cluster trvale odstraní. Pokud chcete zachovat konfiguraci clusteru pro všechny účely i po ukončení clusteru déle než 30 dnů, může ho správce připnout. Připnout můžete až 100 clusterů.

Cluster můžete připnout ze seznamu clusteru nebo na stránce podrobností clusteru:

Připnutí clusteru ze seznamu clusterů

Pokud chcete připnout nebo odepnout cluster, klikněte na ikonu připnutí nalevo od názvu clusteru.

Připnutí clusteru v seznamu clusterů

Připnutí clusteru ze stránky podrobností clusteru

Pokud chcete připnout nebo odepnout cluster, klikněte na ikonu připnutí napravo od názvu clusteru.

Připnutí clusteru v podrobnostech clusteru

Můžete také vyvolat koncový bod rozhraní API připnutí kódu programu pro připnutí clusteru.

Zobrazení konfigurace clusteru jako souboru JSON

Někdy může být užitečné zobrazit konfiguraci clusteru jako JSON. To je užitečné hlavně v případě, že chcete vytvořit podobné clustery pomocí rozhraní API clusterů 2.0. Když zobrazíte existující cluster, stačí přejít na kartu Konfigurace , kliknout na JSON v pravém horním rohu karty, zkopírovat JSON a vložit ho do volání rozhraní API. Zobrazení JSON je připravené jenom pro vás.

JSON konfigurace clusteru

Úprava clusteru

Konfiguraci clusteru upravíte na stránce podrobností clusteru. Pokud chcete zobrazit stránku podrobností clusteru, klikněte na název clusteru na stránce Compute.

Podrobnosti o clusteru

K programové úpravě clusteru můžete také vyvolat koncový bod rozhraní API pro úpravy.

Poznámka

  • Poznámkové bloky a úlohy připojené ke clusteru zůstanou po úpravách připojené.
  • Knihovny nainstalované v clusteru zůstanou po úpravách nainstalované.
  • Pokud upravíte některý atribut spuštěného clusteru (s výjimkou velikosti a oprávnění clusteru), musíte ho restartovat. To může narušit uživatele, kteří aktuálně používají cluster.
  • Můžete upravovat jenom spuštěné nebo ukončené clustery. Můžete ale aktualizovat oprávnění pro clustery, které nejsou v těchto stavech na stránce podrobností o clusteru.

Podrobné informace o vlastnostech konfigurace clusteru, které můžete upravit, najdete v tématu Konfigurace clusterů.

Klonování clusteru

Nový cluster můžete vytvořit klonováním existujícího clusteru.

V seznamu clusteru klikněte na nabídku se třemi tlačítky a v rozevíracím seznamu vyberte Klonovat .

Nabídka seznamu clusterů

Na stránce podrobností clusteru klikněte na tlačítko Další a v rozevíracím seznamu vyberte Klonovat .

Nabídka podrobností clusteru

Formulář pro vytvoření clusteru se otevře s konfigurací clusteru. V klonu nejsou zahrnuty následující atributy z existujícího clusteru:

  • Oprávnění clusteru
  • Nainstalované knihovny
  • Připojené poznámkové bloky

Řízení přístupu ke clusterům

Řízení přístupu ke clusteru v konzole Správa umožňuje správcům a delegovaným uživatelům poskytovat jemně odstupňovaný přístup ke clusteru jiným uživatelům. Existují dva typy řízení přístupu ke clusteru:

  • Oprávnění k vytváření clusteru: Správci můžou zvolit, kteří uživatelé mohou vytvářet clustery.

    Oprávnění k vytvoření clusteru

  • Oprávnění na úrovni clusteru: Uživatel, který má oprávnění Může spravovat cluster, může nakonfigurovat, jestli se ostatní uživatelé můžou připojit, restartovat, změnit velikost a spravovat tento cluster ze seznamu clusteru nebo na stránce s podrobnostmi o clusteru.

    V seznamu clusterů klikněte na nabídku Kebab menu kebab (/_static/images/clusters/cluster-3-buttons.png) a vyberte Upravit oprávnění.

    Nabídka seznamu clusterů

    Na stránce podrobností clusteru klikněte na další tlačítko a vyberte Oprávnění.

    Nabídka podrobností clusteru

Informace o konfiguraci řízení přístupu ke clusteru a oprávnění na úrovni clusteru najdete v tématu Řízení přístupu ke clusteru.

Spuštění clusteru

Kromě vytvoření nového clusteru můžete také spustit dříve ukončený cluster. To vám umožní znovu vytvořit dříve ukončený cluster s původní konfigurací.

Cluster můžete spustit ze seznamu clusteru, na stránce podrobností clusteru nebo poznámkového bloku.

  • Pokud chcete spustit cluster ze seznamu clusterů, klikněte na šipku:

    Spuštění clusteru ze seznamu clusterů

  • Pokud chcete spustit cluster ze stránky podrobností clusteru, klikněte na Tlačítko Start:

    Spuštění clusteru z podrobností clusteru

  • Pokud chcete spustit cluster z poznámkového bloku, klikněte na rozevírací seznam Připojit nad poznámkovým blokem. Tam můžete vybrat, který cluster se má připojit k poznámkovému bloku.

    Spuštění clusteru z rozevíracího seznamu připojení poznámkového bloku

Můžete také vyvolat koncový bod rozhraní Start API, který programově spustí cluster.

Azure Databricks identifikuje cluster s jedinečným ID clusteru. Když spustíte ukončený cluster, Databricks znovu vytvoří cluster se stejným ID, automaticky nainstaluje všechny knihovny a znovu připojí poznámkové bloky.

Poznámka

Pokud používáte zkušební pracovní prostor a platnost zkušební verze vypršela, nebudete moct spustit cluster.

Automatický start clusteru pro úlohy

Pokud je naplánované spuštění úlohy přiřazené k existujícímu ukončeném clusteru nebo připojení k ukončeném clusteru z rozhraní JDBC/ODBC, cluster se automaticky restartuje. Viz Vytvoření úlohy a připojení JDBC.

Automatický start clusteru umožňuje nakonfigurovat clustery tak, aby se automaticky roztáhly bez nutnosti ručního zásahu k restartování clusterů pro naplánované úlohy. Kromě toho můžete naplánovat inicializaci clusteru tím, že naplánujete úlohu, která se má spustit v ukončeného clusteru.

Před automatickým restartováním clusteru se zkontroluje oprávnění řízení přístupu ke clusteru a úlohě .

Poznámka

Pokud byl váš cluster vytvořen na platformě Azure Databricks verze 2.70 nebo starší, neexistuje žádný automatický start: úlohy naplánované ke spuštění na ukončených clusterech selžou.

Ukončení clusteru

Pokud chcete uložit prostředky clusteru, můžete cluster ukončit. Ukončený cluster nemůže spouštět poznámkové bloky nebo úlohy, ale jeho konfigurace se uloží tak, aby bylo možné ho později znovu použít (nebo v případě některých typů úloh) automaticky spustit. Cluster můžete ukončit ručně nebo nakonfigurovat, aby se cluster automaticky ukončil po zadané době nečinnosti. Azure Databricks zaznamenává informace při každém ukončení clusteru. Pokud počet ukončených clusterů překročí 150, odstraní se nejstarší clustery.

Pokud není cluster připnutý, 30 dní po ukončení clusteru se automaticky a trvale odstraní.

Ukončené clustery se zobrazí v seznamu clusterů se šedým kruhem vlevo od názvu clusteru.

Ikona ukončeného clusteru

Poznámka

Když spustíte úlohu v novém clusteru úloh (což se obvykle doporučuje), cluster se ukončí a po dokončení úlohy nebude k dispozici pro restartování. Pokud naopak naplánujete spuštění úlohy v existujícím All-Purpose clusteru , který byl ukončen, cluster se automaticky spustí.

Důležité

Pokud používáte pracovní prostor Zkušební verze Premium, ukončí se všechny spuštěné clustery:

  • Když upgradujete pracovní prostor na plnou úroveň Premium.
  • Pokud se pracovní prostor neupgraduje a zkušební verze vyprší.

Ruční ukončení

Cluster můžete ručně ukončit ze seznamu clusteru nebo na stránce podrobností clusteru.

  • Pokud chcete ukončit cluster ze seznamu clusterů, klikněte na čtverec:

    Ukončení clusteru v seznamu clusterů

  • Pokud chcete cluster ukončit ze stránky podrobností clusteru, klikněte na Tlačítko Ukončit:

    Ukončení clusteru v podrobnostech clusteru

Automatické ukončení

Můžete také nastavit automatické ukončení clusteru. Během vytváření clusteru můžete během několika minut zadat dobu nečinnosti, po které má cluster ukončit. Pokud je rozdíl mezi aktuálním časem a posledním spuštěním příkazu v clusteru více než zadané období nečinnosti, Azure Databricks tento cluster automaticky ukončí.

Cluster se považuje za neaktivní, když se dokončily všechny příkazy v clusteru, včetně úloh Sparku, strukturovaného streamování a volání JDBC.

Upozornění

  • Clustery neoznamují aktivitu vyplývající z použití DStreams. To znamená, že při spouštění DStreamů může být automaticky ukončený cluster. Vypněte automatické ukončení clusterů s DStreams nebo zvažte použití strukturovaného streamování.
  • Funkce automatického ukončení monitoruje pouze úlohy Sparku, nikoli uživatelem definované místní procesy. Proto pokud jsou všechny úlohy Sparku dokončené, může být cluster ukončen i v případě, že jsou spuštěné místní procesy.
  • Nečinné clustery stále hromadí poplatky za dbU a cloudové instance během období nečinnosti před ukončením.

Konfigurace automatického ukončení

Automatické ukončení nakonfigurujete v poli Automatické ukončení v poli Možnosti Autopilotu na stránce vytváření clusteru:

Automatické ukončení

Důležité

Výchozí hodnota nastavení automatického ukončení závisí na tom, jestli se rozhodnete vytvořit standardní nebo vysoce souběžný cluster:

  • Standardní clustery se konfigurují tak, aby se automaticky ukončily po 120 minutách.
  • Clustery s vysokou souběžností jsou nakonfigurované tak, aby se automaticky nekončily .

Automatické ukončení můžete zrušit zrušením zaškrtnutí políčka Automatické ukončení nebo zadáním období 0nečinnosti .

Poznámka

Automatické ukončení se nejlépe podporuje v nejnovějších verzích Sparku. Starší verze Sparku mají známá omezení, která můžou vést k nepřesným generování sestav aktivit clusteru. Například clustery s příkazy JDBC, R nebo streamování můžou hlásit zastaralou dobu aktivity, která vede k předčasnému ukončení clusteru. Upgradujte prosím na nejnovější verzi Sparku, abyste získali výhody oprav chyb a vylepšení automatického ukončení.

Neočekávané ukončení

Někdy se cluster neočekávaně ukončí, ne v důsledku ručního ukončení nebo nakonfigurovaného automatického ukončení.

Seznam důvodů ukončení a nápravných kroků najdete ve znalostní bázi Knowledge Base.

Odstranění clusteru

Odstranění clusteru ukončí cluster a odebere jeho konfiguraci.

Upozornění

Tuto akci nejde vrátit zpět.

Připnutý cluster nelze odstranit. Pokud chcete odstranit připnutý cluster, musí ho nejdřív odepnout správce.

V seznamu clusteru klikněte na nabídku se třemi tlačítky a v rozevíracím seznamu vyberte Odstranit .

Nabídka seznamu clusterů

Na stránce podrobností clusteru klikněte na další tlačítko a v rozevíracím seznamu vyberte Odstranit .

Nabídka podrobností clusteru

K programovému odstranění clusteru můžete také vyvolat koncový bod rozhraní API pro trvalé odstranění .

Restartováním clusteru ho aktualizujte pomocí nejnovějších imagí.

Při restartování clusteru získá nejnovější image pro kontejnery výpočetních prostředků a hostitele virtuálních počítačů. Je zvlášť důležité naplánovat pravidelné restartování pro dlouhotrvající clustery, které se často používají pro některé aplikace, jako je zpracování streamovaných dat.

Je vaším úkolem pravidelně restartovat všechny výpočetní prostředky, aby byla image aktuální s nejnovější verzí image.

Důležité

Pokud povolíte profil zabezpečení dodržování předpisů pro váš účet nebo pracovní prostor, dlouhotrvající clustery se po 25 dnech automaticky restartují. Databricks doporučuje, aby správci restartovali clustery před spuštěním po dobu 25 dnů a udělali to během naplánovaného časového období údržby. Tím se sníží riziko, že automatické restartování přeruší naplánovanou úlohu.

Cluster můžete restartovat několika způsoby:

Spusťte skript, který určuje, kolik dní jsou clustery spuštěné, a volitelně je restartujte.

Pokud jste správcem pracovního prostoru, můžete spustit skript, který určuje, jak dlouho je každý z vašich clusterů spuštěný, a volitelně je restartovat, pokud jsou starší než zadaný počet dnů. Azure Databricks tento skript poskytuje jako poznámkový blok.

První řádky skriptu definují parametry konfigurace:

  • min_age_output: Maximální počet dnů, po které může cluster běžet. Výchozí hodnota je 1.
  • perform_restart: Pokud Trueskript restartuje clustery s věkem větším než počet dnů určených uživatelem min_age_output. Výchozí hodnota je False, která identifikuje dlouhotrvající clustery, ale nerestartuje je.
  • secret_configuration: Nahraďte REPLACE_WITH_SCOPE obor REPLACE_WITH_KEYtajných kódů a názvem klíče. Další podrobnosti o nastavení tajných kódů najdete v poznámkovém bloku.

Upozornění

Pokud nastavíte perform_restartTrue, skript automaticky restartuje způsobilé clustery, což může způsobit selhání aktivních úloh a resetování otevřených poznámkových bloků. Pokud chcete snížit riziko narušení důležitých úloh pracovního prostoru, naplánujte časové období plánované údržby a nezapomeňte upozornit uživatele pracovního prostoru.

Identifikovat a volitelně restartovat poznámkový blok s dlouhotrvajícími clustery

Získat poznámkový blok

Zobrazení informací o clusteru v uživatelském rozhraní Apache Sparku

Podrobné informace o úlohách Sparku můžete zobrazit v uživatelském rozhraní Sparku, ke kterému máte přístup z karty uživatelského rozhraní Sparku na stránce s podrobnostmi o clusteru.

Uživatelské rozhraní Sparku

Můžete získat podrobnosti o aktivních a ukončených clusterech.

Pokud restartujete ukončený cluster, uživatelské rozhraní Sparku zobrazí informace o restartovaném clusteru, nikoli historické informace pro ukončený cluster.

Zobrazení protokolů clusteru

Azure Databricks poskytuje tři druhy protokolování aktivit souvisejících s clustery:

Tato část popisuje protokoly událostí clusteru a protokoly ovladačů a pracovních procesů. Podrobnosti o protokolech inicializačních skriptů najdete v tématu Protokoly inicializačních skriptů.

Protokoly událostí clusteru

Protokol událostí clusteru zobrazuje důležité události životního cyklu clusteru aktivované ručně akcemi uživatelů nebo automaticky službou Azure Databricks. Takové události mají vliv na provoz celého clusteru i úloh spuštěných v clusteru.

Podporované typy událostí najdete v datové struktuře ClusterEventType rozhraní REST API.

Události se ukládají po dobu 60 dnů, což je srovnatelné s jinými dobami uchovávání dat v Azure Databricks.

Zobrazení protokolu událostí clusteru

  1. Na bočním panelu klikněte na ikonu Výpočetní prostředky.

  2. Klikněte na název clusteru.

  3. Klikněte na kartu Protokol událostí .

    Protokol událostí

Chcete-li filtrovat události, klikněte na rozevírací seznam nabídky v poli Filtrovat podle typu události... a zaškrtněte jedno nebo více políček typu události.

Pomocí možnosti Vybrat vše můžete usnadnit filtrování tím, že vyloučíte konkrétní typy událostí.

Filtrování protokolu událostí

Zobrazení podrobností o události

Další informace o události získáte kliknutím na jeho řádek v protokolu a kliknutím na kartu JSON zobrazíte podrobnosti.

Podrobnosti o události

Protokoly ovladačů clusteru a pracovních procesů

Přímé příkazy pro tisk a protokoly z poznámkových bloků, úloh a knihoven přejdou do protokolů ovladačů Sparku. Tyto protokoly mají tři výstupy:

  • Standardní výstup
  • Standardní chyba
  • Protokoly Log4j

K těmto souborům se dostanete z karty Protokoly ovladačů na stránce s podrobnostmi o clusteru. Kliknutím na název souboru protokolu ho stáhněte.

Pokud chcete zobrazit protokoly pracovního procesu Sparku, můžete použít uživatelské rozhraní Sparku. Můžete také nakonfigurovat umístění pro doručování protokolů pro cluster. Protokoly pracovního procesu i clusteru se doručují do zadaného umístění.

Monitorování výkonu

Azure Databricks umožňuje monitorovat výkon clusterů Azure Databricks a poskytuje přístup k metrikám Ganglia na stránce s podrobnostmi o clusteru.

Kromě toho můžete nakonfigurovat cluster Azure Databricks tak, aby odesílal metriky do pracovního prostoru služby Log Analytics v Azure Monitoru, což je platforma pro monitorování Azure.

Agenty Datadog můžete nainstalovat na uzly clusteru, které odesílají metriky Datadog do vašeho účtu Datadog.

Metriky Ganglia

Pokud chcete získat přístup k uživatelskému rozhraní Ganglia, přejděte na kartu Metriky na stránce s podrobnostmi o clusteru. Metriky procesoru jsou k dispozici v uživatelském rozhraní Ganglia pro všechny moduly runtime Databricks. Metriky GPU jsou k dispozici pro clustery s podporou GPU.

Metriky Ganglia

Pokud chcete zobrazit živé metriky, klikněte na odkaz Uživatelské rozhraní Ganglia .

Pokud chcete zobrazit historické metriky, klikněte na soubor snímku. Snímek obsahuje agregované metriky za hodinu předcházející vybranému času.

Konfigurace shromažďování metrik

Azure Databricks ve výchozím nastavení shromažďuje metriky Ganglia každých 15 minut. Pokud chcete nakonfigurovat období shromažďování, nastavte DATABRICKS_GANGLIA_SNAPSHOT_PERIOD_MINUTES proměnnou prostředí pomocí inicializačního skriptu nebo pole spark_env_vars v rozhraní API pro vytvoření clusteru .

Azure Monitor

Cluster Azure Databricks můžete nakonfigurovat tak, aby odesílal metriky do pracovního prostoru Služby Log Analytics ve službě Azure Monitor, monitorovací platformě pro Azure. Kompletní pokyny najdete v tématu Monitorování Azure Databricks.

Poznámka

Pokud jste nasadili pracovní prostor Azure Databricks ve vlastní virtuální síti a nakonfigurovali jste skupiny zabezpečení sítě (NSG) tak, aby odepřely veškerý odchozí provoz, který Azure Databricks nevyžaduje, musíte nakonfigurovat další odchozí pravidlo pro značku služby AzureMonitor.

Metriky služby Datadog

Metriky služby Datadog

Agenty Datadog můžete nainstalovat na uzly clusteru, které odesílají metriky Datadog do vašeho účtu Datadog. Následující poznámkový blok ukazuje, jak nainstalovat agenta Datadog do clusteru pomocí inicializačního skriptu s oborem clusteru.

Pokud chcete nainstalovat agenta Datadog na všechny clustery, použijte po testování inicializačního skriptu s oborem clusteru globální inicializační skript .

Instalace poznámkového bloku inicializačního skriptu agenta Datadog

Získat poznámkový blok

Vyřazení spotových instancí z provozu

Poznámka

Tato funkce je k dispozici ve službě Databricks Runtime 8.0 a vyšší.

Vzhledem k tomu, že spotové instance můžou snížit náklady, vytváření clusterů s využitím spotových instancí místo instancí na vyžádání představuje běžný způsob spouštění úloh. Spotové instance však můžou být předem naplánovány mechanismy plánování poskytovatele cloudu. Preempce spotových instancí může způsobit problémy se spuštěnými úlohami, mezi které patří:

  • Selhání načítání náhodného prohazování
  • Ztráta dat náhodného náhodného prohazování
  • Ztráta dat RDD
  • Selhání úloh

Pokud chcete tyto problémy vyřešit, můžete povolit vyřazení z provozu. Vyřazení z provozu využívá oznámení, že poskytovatel cloudu obvykle odesílá před vyřazením spotové instance z provozu. Když spotová instance obsahující exekutor obdrží oznámení o předběžném ukončení provozu, proces vyřazení z provozu se pokusí migrovat data shuffle a RDD do exekutorů, které jsou v pořádku. Doba trvání před konečnou preempcí je obvykle 30 sekund až 2 minuty v závislosti na poskytovateli cloudu.

Databricks doporučuje povolit migraci dat také při vyřazení z provozu. Obecně platí, že možnost chyb se snižuje, protože se migruje více dat, včetně selhání načítání náhodného prohazování dat, ztráty dat náhodného prohazování a ztráty dat RDD. Migrace dat může také vést k menšímu výpočtu a úsporě nákladů.

Vyřazení z provozu je co nejlepší a nezaručuje, že všechna data je možné migrovat před dokončením předběžného nasazení. Vyřazení z provozu nemůže zaručit selhání načítání náhodného prohazování při načítání dat z exekutoru při spouštění úloh.

Při vyřazení z provozu se selhání úloh způsobených preempcí spotové instance nepřidávají k celkovému počtu neúspěšných pokusů. Selhání úkolů způsobená preempcí se nezapočítávají jako neúspěšné pokusy, protože příčina selhání je pro úkol externí a nezpůsobí selhání úlohy.

Pokud chcete povolit vyřazení z provozu, nastavte nastavení konfigurace Sparku a proměnné prostředí při vytváření clusteru:

  • Povolení vyřazení aplikací z provozu:

    spark.decommission.enabled true
    
  • Povolení migrace dat pro shuffle během vyřazení z provozu:

    spark.storage.decommission.enabled true
    spark.storage.decommission.shuffleBlocks.enabled true
    
  • Povolení migrace dat mezipaměti RDD během vyřazení z provozu:

    Poznámka

    Pokud je replikace RDD StorageLevel nastavená na více než 1, Databricks nedoporučuje povolit migraci dat RDD, protože repliky zajistí, že sady RDD nepřijdou o data.

    spark.storage.decommission.enabled true
    spark.storage.decommission.rddBlocks.enabled true
    
  • Povolení vyřazení pracovních procesů z provozu:

    SPARK_WORKER_OPTS="-Dspark.decommission.enabled=true"
    

Nastavení těchto vlastních vlastností konfigurace Sparku:

  1. Na stránce Nový cluster klikněte na přepínač Upřesnit možnosti .

  2. Klikněte na kartu Spark .

    Vyřazení konfigurace z provozu

Pokud chcete získat přístup ke stavu vyřazení pracovního procesu z uživatelského rozhraní, přejděte do uživatelského rozhraní clusteru Spark – hlavní karta:

Vyřazení pracovního procesu z provozu v uživatelském rozhraní

Po dokončení vyřazení z provozu exekutor, který se vyřadil z provozu, zobrazí na kartě Exekutory uživatelského rozhraní > Sparku na stránce podrobností clusteru důvod ztráty:

Vyřazení exekutoru z provozu v uživatelském rozhraní

Vyřazení exekutoru z provozu na časové ose