Implementere Generative AI engineering med Azure Databricks
Rask oversikt
-
Nivå
-
Ferdighet
-
Produkt
-
Rolle
Generative Artificial Intelligence (AI) engineering med Azure Databricks bruker plattformens funksjoner til å utforske, finjustere, evaluere og integrere avanserte språkmodeller. Ved å bruke Apache Sparks skalerbarhet og Azure Databricks samarbeidsmiljø kan du utforme komplekse AI-systemer.
Forutsetninger
Før du starter denne modulen, bør du være kjent med grunnleggende AI-konsepter og Azure Databricks. Vurder å fullføre Kom i gang med kunstig intelligens læreprogram og Utforsk Azure Databricks modulen først.
Prestasjonskode
Vil du be om en prestasjonskode?
Moduler i dette læreprogrammet
Store språkmodeller (LLMs) har revolusjonert ulike bransjer ved å aktivere avanserte funksjoner for naturlig språkbehandling (NLP). Disse språkmodellene brukes i en rekke programmer, inkludert tekstoppsummering, sentimentanalyse, språkoversettelse, nullskuddsklassifisering og læring med få bilder.
Henting av utvidet generasjon (RAG) er en avansert teknikk i naturlig språkbehandling som forbedrer egenskapene til generative modeller ved å integrere eksterne informasjonshentingsmekanismer. Når du bruker både generative modeller og hentingssystemer, henter RAG dynamisk relevant informasjon fra eksterne datakilder for å øke genereringsprosessen, noe som fører til mer nøyaktige og kontekstavhengig relevante utdata.
Flertrinns resonneringssystemer deler opp komplekse problemer i flere faser eller trinn, der hvert trinn fokuserer på en bestemt resonneringsoppgave. Produksjonen av en fase fungerer som innspill for den neste, noe som gir en mer strukturert og systematisk tilnærming til problemløsning.
Finjustering bruker store språkmodellers generelle kunnskaper for å forbedre ytelsen på bestemte oppgaver, slik at organisasjoner kan opprette spesialiserte modeller som er mer nøyaktige og relevante, samtidig som de sparer ressurser og tid sammenlignet med opplæring fra bunnen av.
Lær hvordan du sammenligner evalueringer av stor språkmodell (LLM) og tradisjonell maskinlæring (ML), forstår deres forhold til systemevaluering av kunstig intelligens og utforsker ulike LLM-evalueringsmåledata og spesifikke oppgaverelaterte evalueringer.
Når du arbeider med store språkmodeller (LLM-er) i Azure Databricks, er det viktig å forstå de ansvarlige AI-prinsippene for implementering, etiske hensyn og hvordan du reduserer risikoer. Finn ut hvordan du implementerer viktige sikkerhetsverktøy for språkmodeller basert på identifiserte risikoer.
Effektiviser implementeringen av store språkmodeller (LLMs) med LLMOps (LLM Operations) i Azure Databricks. Lær hvordan du distribuerer og administrerer LLM-er gjennom hele livssyklusen ved hjelp av Azure Databricks.