Metodtips för säker kod

I Azure Machine Learning kan du ladda upp filer och innehåll från valfri källa till Azure. Innehåll i Jupyter-notebook-filer eller skript som du läser in kan potentiellt läsa data från dina sessioner, komma åt känsliga data i din organisation i Azure eller köra skadliga processer åt dig.

Viktigt!

Kör endast notebook-filer eller skript från betrodda källor. Till exempel där du eller ditt säkerhetsteam har granskat notebook-filen eller skriptet.

Potentiella hot

Utveckling med Azure Machine Learning omfattar ofta webbaserade utvecklingsmiljöer, till exempel notebook-filer eller Azure Machine Learning-studio. När du använder webbaserade utvecklingsmiljöer är de potentiella hoten:

  • Skript mellan webbplatser (XSS)

    • DOM-inmatning: Den här typen av angrepp kan ändra användargränssnittet som visas i webbläsaren. Till exempel genom att ändra hur körningsknappen fungerar i en Jupyter Notebook.
    • Åtkomsttoken eller cookies: XSS-attacker kan också komma åt lokala lagrings- och webbläsarcookies. Din Microsoft Entra-autentiseringstoken lagras i lokal lagring. En XSS-attack kan använda den här token för att göra API-anrop åt dig och sedan skicka data till ett externt system eller API.
  • Förfalskning av begäranden mellan webbplatser (CSRF): Den här attacken kan ersätta URL:en för en bild eller länk med URL:en för ett skadligt skript eller API. När avbildningen läses in eller länken klickas görs ett anrop till URL:en.

Azure Machine Learning-studio notebook-filer

Azure Machine Learning-studio ger en värdbaserad notebook-upplevelse i webbläsaren. Celler i en notebook-fil kan mata ut HTML-dokument eller fragment som innehåller skadlig kod. När utdata återges kan koden köras.

Möjliga hot:

  • Skript mellan webbplatser (XSS)
  • Förfalskning av begäranden mellan webbplatser (CSRF)

Åtgärder som tillhandahålls av Azure Machine Learning:

  • Kodcellens utdata är begränsat i en iframe. Iframe hindrar skriptet från att komma åt överordnad DOM, cookies eller sessionslagring.
  • Markdown-cellinnehåll rensas med hjälp av biblioteket dompurify. Detta blockerar skadliga skript från att köras med markdown-celler återges.
  • Länkar för bild-URL och markdown skickas till en Microsoft-ägd slutpunkt som söker efter skadliga värden. Om ett skadligt värde identifieras avvisar slutpunkten begäran.

Rekommenderade åtgärder:

  • Kontrollera att du litar på innehållet i filerna innan du laddar upp till studion. Du måste bekräfta att du laddar upp betrodda filer.
  • När du väljer en länk för att öppna ett externt program uppmanas du att lita på programmet.

Azure Machine Learning-beräkningsinstans

Azure Machine Learning-beräkningsinstansen är värdar för Jupyter och JupyterLab. När du använder någon av dem kan kod i notebook-celler mata ut HTML-dokument eller fragment som innehåller skadlig kod. När utdata återges kan koden köras. Samma hot gäller när du använder RStudio eller Posit Workbench (tidigare RStudio Workbench) som finns på en beräkningsinstans.

Möjliga hot:

  • Skript mellan webbplatser (XSS)
  • Förfalskning av begäranden mellan webbplatser (CSRF)

Åtgärder som tillhandahålls av Azure Machine Learning:

  • Inga. Jupyter och JupyterLab är program med öppen källkod som finns på Azure Machine Learning-beräkningsinstansen.

Rekommenderade åtgärder:

  • Kontrollera att du litar på innehållet i filerna innan du laddar upp. Du måste bekräfta att du laddar upp betrodda filer.

Rapportera säkerhetsproblem eller problem

Azure Machine Learning är berättigat under Microsoft Azure Bounty-programmet. Mer information finns på https://www.microsoft.com/msrc/bounty-microsoft-azure.