Udostępnij za pośrednictwem


Wprowadzenie do tworzenia generacyjnych rozwiązań sztucznej inteligencji dla deweloperów

Generowanie sztucznej inteligencji, włączone przez duże modele językowe (LLMs), otwiera ekscytujące nowe możliwości dla deweloperów oprogramowania i organizacji. Usługi takie jak Azure OpenAI demokratyzują tworzenie sztucznej inteligencji, oferując łatwe w użyciu interfejsy API, umożliwiając deweloperom dowolnego poziomu umiejętności integrowanie zaawansowanych funkcji sztucznej inteligencji z aplikacjami bez konieczności posiadania specjalistycznej wiedzy lub konieczności inwestowania w sprzęt przez organizacje.

Jako deweloper aplikacji możesz mieć trudności z zrozumieniem, jaką rolę możesz odgrywać i gdzie się mieścisz. Na przykład być może zastanawiasz się, na jakim poziomie w "stosie sztucznej inteligencji" należy skoncentrować swoją naukę? A może zastanawiasz się, co jesteś w stanie tworzyć, biorąc pod uwagę istniejące technologie?

Aby odpowiedzieć na te pytania, ważne jest, aby najpierw opracować model mentalny, który mapuje, jak cała nowa terminologia i technologie pasują do tego, co już rozumiesz. Opracowanie modelu psychicznego ułatwia projektowanie i tworzenie funkcji generowania sztucznej inteligencji w aplikacjach. W tym celu celem tej serii artykułów jest pokazanie, w jaki sposób bieżące środowisko tworzenia oprogramowania ma zastosowanie do generowania sztucznej inteligencji. Artykuły zawierają również zestaw poziomów słów kluczowych i pojęć podczas rozpoczynania opracowywania pierwszych generacyjnych rozwiązań sztucznej inteligencji.

Co firma ma nadzieję osiągnąć dzięki generowaniu sztucznej inteligencji?

Aby zrozumieć, w jaki sposób bieżące środowisko tworzenia oprogramowania ma zastosowanie do generowania sztucznej inteligencji, ważne jest, aby zacząć od zrozumienia, w jaki sposób firmy zamierzają z niego korzystać.

Firmy postrzegają generowanie sztucznej inteligencji jako środek zwiększający zaangażowanie klientów, zwiększając wydajność operacyjną i zwiększając rozwiązywanie problemów i kreatywność. Zintegrowanie generowania sztucznej inteligencji z istniejącymi systemami otwiera możliwości dla firm w celu ulepszenia ekosystemów oprogramowania. Może ona uzupełniać tradycyjne funkcje oprogramowania zaawansowanymi funkcjami sztucznej inteligencji, takimi jak spersonalizowane zalecenia dla użytkowników lub inteligentny agent, który może odpowiedzieć na pytania dotyczące organizacji lub produktu.

Oto kilka typowych scenariuszy, w których generowanie sztucznej inteligencji może pomóc firmom:

  • Generowanie zawartości
    • Generuj tekst, kod, obrazy i dźwięk. Może to być przydatne w przypadku marketingu, sprzedaży, IT, komunikacji wewnętrznej i nie tylko.
  • Przetwarzanie języka naturalnego
    • Redaguj lub ulepszaj komunikację biznesową za pośrednictwem sugestii lub kompletnego generowania komunikatów.
    • "Porozmawiaj z danymi" lub innymi słowy, umożliwiając użytkownikowi zadawanie pytań w środowisku czatu przy użyciu danych przechowywanych w bazach danych lub dokumentach jako podstawy odpowiedzi.
    • Podsumowanie, organizacja i uproszczenie dużych treści zawartości w celu zwiększenia dostępności zawartości.
    • "Wyszukiwanie semantyczne", a raczej umożliwia użytkownikom wyszukiwanie dokumentów i danych bez używania dokładnych dopasowań słów kluczowych.
    • Tłumaczenie języka w celu zwiększenia zasięgu i dostępności zawartości.
  • Analiza danych
    • Analizowanie rynków i identyfikowanie trendów w danych.
    • Model "what if" scenariusze ułatwiające firmom planowanie możliwych zmian lub wyzwań w każdym obszarze działalności.
    • Analizowanie kodu w celu sugerowania ulepszeń, naprawiania usterek i generowania dokumentacji.

Jak widać, deweloperzy oprogramowania mogą znacznie zwiększyć ich wpływ, integrując generowanie aplikacji i funkcji sztucznej inteligencji z oprogramowaniem, na którym polegają organizacje.

Jak utworzyć te typy aplikacji?

Podczas gdy model dużego języka (LLM) wykonuje duże obciążenia, tworzysz systemy integrujące, aranżujące i monitorujące wyniki. Chociaż wiele do nauki, możesz zastosować już znane umiejętności:

  • Wykonywanie wywołań do interfejsów API przy użyciu interfejsów API REST, JSON lub zestawów SDK (Software Development Kit)
  • Organizowanie wywołań interfejsów API i wykonywanie logiki biznesowej
  • Przechowywanie i pobieranie z magazynów danych
  • Integrowanie danych wejściowych i wyników ze środowiskiem użytkownika
  • Tworzenie interfejsów API, które mogą być wywoływane z poziomu usługi LLMs

W ten sposób opracowywanie generacyjnych rozwiązań sztucznej inteligencji opiera się na istniejących umiejętnościach.

Jakie narzędzia i usługi są dostępne?

Firma Microsoft inwestuje w opracowywanie narzędzi, usług, interfejsów API, przykładów i zasobów szkoleniowych, które ułatwiają rozpoczęcie opracowywania generacyjnych rozwiązań sztucznej inteligencji. Każda z nich wyróżnia pewne poważne obawy lub odpowiedzialność, które są potrzebne do utworzenia generującego rozwiązania sztucznej inteligencji. Aby efektywnie korzystać z danej usługi, interfejsu API lub zasobu, wyzwanie polega na upewnieniu się, że:

  • Poznaj typowe funkcje, role i obowiązki w danym typie funkcji generowania sztucznej inteligencji? Na przykład w artykułach koncepcyjnych opisujących systemy czatów oparte na technologii Retrieval-Augmented Generation (RAG) omówiono na przykład wiele obowiązków związanych z architekturą w systemie. Ważne jest, aby dokładnie zrozumieć domenę problemu i ograniczenia przed zaprojektowaniem systemu, który rozwiązuje ten problem.
  • Rozumiesz, jakie interfejsy API, usługi i narzędzia istnieją dla danej funkcji, roli lub odpowiedzialności? Teraz, gdy rozumiesz domenę i ograniczenia problemu, możesz utworzyć ten aspekt systemu samodzielnie za pomocą kodu niestandardowego lub użyć istniejących narzędzi niskiego kodu/braku kodu lub wywołać interfejsy API dla istniejących usług.
  • Zapoznaj się z opcjami, w tym rozwiązaniami skoncentrowanym na kodzie i bez kodu/niskim kodem. Możesz zbudować wszystko samodzielnie, ale czy jest to efektywne wykorzystanie czasu i umiejętności? W zależności od wymagań zwykle można połączyć kombinację technologii i podejść (kod, bez kodu, niski kod, narzędzia).

Chodzi o to, że nie ma jednego właściwego sposobu tworzenia funkcji generacyjnych sztucznej inteligencji w aplikacjach. Istnieje wiele narzędzi i podejść. Ważne jest, aby ocenić kompromisy.

Rozpoczynanie pracy z fokusem na warstwie aplikacji

Nie musisz rozumieć wszystkiego, co dotyczy generowania sztucznej inteligencji, aby rozpocząć pracę i zapewnić produktywność. Jak wspomniano wcześniej, prawdopodobnie już wiesz wystarczająco dużo, ponieważ możesz używać interfejsów API i stosować istniejące umiejętności.

Na przykład nie musisz trenować własnego modułu LLM od podstaw. Trenowanie usługi LLM wymagałoby czasu i zasobów, których większość firm nie chce zatwierdzać. Zamiast tego opierasz się na istniejących wstępnie wytrenowanych podstawowych modelach, takich jak GPT-4, wykonując wywołania interfejsu API do istniejących usług hostowanych, takich jak interfejs API Usługi Azure OpenAI. W ten sposób dodawanie funkcji generowania sztucznej inteligencji do istniejącej aplikacji nie różni się od dodawania innych funkcji na podstawie wywołania interfejsu API.

Badanie sposobu szkolenia llms lub sposobu ich pracy może zaspokoić twoją ciekawość intelektualną, ale naprawdę zrozumienie sposobu pracy LLMs wymaga głębokiego zrozumienia nauki o danych i wiedzy matematycznej, aby ją wspierać. Może to obejmować kursy na poziomie absolwentów dotyczące statystyk, prawdopodobieństwa i teorii informacji.

Jeśli pochodzisz z informatyki, możesz docenić, że większość tworzenia aplikacji odbywa się w "stosie wyższej warstwy" badań i technologii. Możesz poznać poszczególne warstwy, ale prawdopodobnie specjalizujesz się w warstwie tworzenia aplikacji, koncentrując się na określonym języku programowania i platformie (dostępne interfejsy API, narzędzia, wzorce itd.).

To samo dotyczy pola sztucznej inteligencji. Możesz zrozumieć i docenić teorię, która jest oparta na llMs, ale prawdopodobnie skupisz swoją uwagę na warstwie aplikacji lub pomożesz zaimplementować wzorce lub procesy, aby umożliwić generowanie zasobów sztucznej inteligencji w firmie.

Oto nadmiernie uproszczona reprezentacja warstw wiedzy wymaganych do zaimplementowania funkcji generacyjnych sztucznej inteligencji w nowej lub istniejącej aplikacji:

Diagram warstw wiedzy. W dolnej części pola zawierającego słowa podstawowe nauki o danych, sztuczne inteligentne badania, statystyki i teorię prawdopodobieństwa. Następny poziom w górę, słowa szkoleniowe dla dużych modeli językowych. Następny poziom, tworzenie usług, narzędzi i opracowywanie interfejsów API. A na najwyższym poziomie warstwa aplikacji, wzorce i procesy.

Na najniższym poziomie masz analityków danych, którzy wykonują badania nad nauką o danych w celu rozwiązywania lub ulepszania sztucznej inteligencji na podstawie głębokiego matematycznego zrozumienia statystyk, teorii prawdopodobieństwa i tak dalej. Jedna warstwa w górę, oparta na najniższej warstwie fundamentalnej, masz analityków danych, którzy implementują koncepcje teortyczne w llMs, tworząc sieci neuronowe i szkoląc wagi i uprzedzenia, aby zapewnić praktyczne oprogramowanie, które może akceptować dane wejściowe (monity) i generować wyniki (uzupełnienia). Proces obliczeniowy tworzenia uzupełniania na podstawie monitów jest znany jako wnioskowanie. Są tacy, którzy są odpowiedzialni za zaimplementowanie sposobu, w jaki neurony sieci neuronowej przewidują następny wyraz lub piksel do wygenerowania.

Biorąc pod uwagę ilość mocy obliczeniowej wymaganej do trenowania modeli i generowania wyników na podstawie danych wejściowych, modele są często trenowane i hostowane w dużych centrach danych. Istnieje możliwość trenowania lub hostowania modelu na komputerze lokalnym, ale wyniki są często powolne (bez dedykowanych kart wideo procesora GPU, aby ułatwić obsługę obliczeń wymaganych do wygenerowania wyników).

W przypadku hostowania w dużych centrach danych dostęp programowy do tych modeli jest zapewniany za pośrednictwem interfejsów API REST, a czasami są one "opakowane" przez zestawy SDK i dostępne dla deweloperów aplikacji w celu ułatwienia ich użycia. Inne narzędzia mogą pomóc ulepszyć środowisko deweloperskie, zapewniając możliwość obserwowania lub inne narzędzia. Deweloperzy aplikacji mogą wykonywać wywołania tych interfejsów API w celu zaimplementowania funkcji biznesowych.

Poza monitowaniem modeli programowo istnieją wzorce i procesy, które ułatwiają firmom tworzenie niezawodnych funkcji biznesowych na podstawie generowania sztucznej inteligencji. Istnieją na przykład wzorce pomagające firmom w zapewnieniu wygenerowanego tekstu, kodu, obrazów i dźwięku zgodnego ze standardami etycznymi i bezpieczeństwa, a także zobowiązaniami dotyczącymi prywatności danych klientów.

W tym stosie problemów lub warstw, jeśli jesteś deweloperem aplikacji odpowiedzialnym za tworzenie funkcji biznesowych, możesz wypchnąć poza warstwę aplikacji do opracowywania i trenowania własnego modułu LLM. Jednak uzyskanie tego poziomu zrozumienia wymaga nowego zestawu umiejętności, które są często dostępne tylko za pośrednictwem środowiska akademickiego. Jeśli nie możesz zobowiązać się do opracowywania kompetencji w nauce o danych akademickich, aby pomóc w tworzeniu "następnej warstwy w stosie" (tak mówiąc), możesz skupić się na zrozumieniu rzeczy w warstwie aplikacji, na przykład:

  • Omówienie dostępnych interfejsów API i zestawów SDK, dostępnych informacji, różnych punktów końcowych itp.
  • Zrozumienie powiązanych narzędzi i usług ułatwia tworzenie wszystkich funkcji wymaganych przez rozwiązanie do generowania sztucznej inteligencji gotowej do produkcji.
  • Zrozumienie inżynierów monitów, takich jak sposób uzyskiwania najlepszych wyników przez zadawanie lub przesłanie pytań.
  • Zrozumienie, gdzie pojawiają się wąskie gardła i jak skalować rozwiązanie. Zrozumienie, co jest związane z rejestrowaniem lub uzyskiwaniem danych telemetrycznych bez naruszania kwestii dotyczących prywatności klientów.
  • Zrozumienie cech różnych modułów LLM (ich mocnych, przypadków użycia, testów porównawczych i pomiarów, kluczowych różnic między dostawcami i modelami tworzonymi przez każdego dostawcę itp.), aby wybrać odpowiedni model dla potrzeb firmy.
  • Poznaj najnowsze wzorce, przepływy pracy i procesy używane do tworzenia efektywnych i odpornych funkcji sztucznej inteligencji w aplikacjach.

Dostępne usługi i narzędzia firmy Microsoft

W firmie Microsoft dostępne są narzędzia i usługi sztucznej inteligencji bez kodu, które ułatwiają kompilowanie części lub całego rozwiązania. Różne usługi platformy Azure mogą odgrywać kluczowe role, z których każdy przyczynia się do wydajności, skalowalności i niezawodności rozwiązania:

Interfejsy API i zestawy SDK dla podejścia skoncentrowanego na kodzie

Sercem każdego generowanego rozwiązania sztucznej inteligencji jest model LLM, a usługa Azure OpenAI zapewnia dostęp do wszystkich funkcji dostępnych w modelach, takich jak GPT-4.

Rezultat opis
Azure OpenAI Hostowana usługa, która zapewnia dostęp do zaawansowanych modeli językowych, takich jak GPT-4. Istnieje kilka różnych interfejsów API, które umożliwiają wykonywanie wszystkich typowych funkcji llM, takich jak tworzenie osadzania, tworzenie środowiska czatu itp. z pełnym dostępem do ustawień i dostrajania w celu dostosowania wyników zgodnie z potrzebami.

Środowiska wykonywania

Ponieważ tworzysz logikę biznesową, logikę prezentacji lub interfejsy API do integrowania generowania sztucznej inteligencji z aplikacjami organizacji, musisz gdzieś hostować i wykonywać logikę.

Rezultat opis
aplikacja systemu Azure Service (lub jeden z kilku usług w chmurze opartych na kontenerach) Ta platforma może hostować interfejsy internetowe lub interfejsy API, za pośrednictwem których użytkownicy wchodzą w interakcję z systemem rag-chat. Obsługuje szybkie opracowywanie, wdrażanie i skalowanie aplikacji internetowych, co ułatwia zarządzanie składnikami frontonu systemu.
Azure Functions Przetwarzanie bezserwerowe umożliwia obsługę zadań opartych na zdarzeniach w systemie RAG-chat. Na przykład służy do wyzwalania procesów pobierania danych, przetwarzania zapytań użytkowników lub obsługi zadań w tle, takich jak synchronizacja danych i oczyszczanie. Umożliwia to bardziej modułowe, skalowalne podejście do tworzenia zaplecza systemu.

Kod z małą ilością kodu/bez kodu

Alternatywnie niektóre logiki wymagane przez rozwiązanie mogą być tworzone szybko i niezawodnie hostowane przez rozwiązania z małą ilością kodu lub bez kodu.

Rezultat opis
Azure AI Studio Usługa Azure AI Studio może służyć do trenowania, testowania i wdrażania niestandardowych modeli uczenia maszynowego, które mogą usprawnić system czatów RAG. Na przykład użyj usługi Azure AI Studio, aby dostosować generowanie odpowiedzi lub poprawić istotność pobranych informacji.

Wektorowa baza danych

Niektóre rozwiązania generowania sztucznej inteligencji mogą wymagać przechowywania i pobierania danych używanych do generowania rozszerzonego (na przykład systemów czatów opartych na technologii RAG, które umożliwiają użytkownikom czatowanie z danymi organizacji). W tym przypadku użycia potrzebny jest wektorowy magazyn danych.

Rezultat opis
Azure AI Search Tej usługi można używać do wydajnego wyszukiwania dużych zestawów danych w celu znalezienia odpowiednich informacji, które mogą służyć do informowania o odpowiedziach generowanych przez modele językowe. Jest to przydatne w przypadku składnika pobierania systemu RAG, zapewniając, że wygenerowane odpowiedzi są tak informacyjne i kontekstowe, jak to możliwe.
Cosmos DB Ta rozproszona globalnie wielomodelowa usługa bazy danych może przechowywać ogromne ilości ustrukturyzowanych i nieustrukturyzowanych danych, do których system RAG-chat musi uzyskać dostęp. Jego szybkie możliwości odczytu i zapisu sprawiają, że idealnie nadaje się do obsługi danych w czasie rzeczywistym w modelu językowym i przechowywania interakcji użytkownika w celu dalszej analizy.
Azure Cache for Redis Ten w pełni zarządzany magazyn danych w pamięci może służyć do buforowania często używanych informacji, zmniejszając opóźnienia i poprawiając wydajność systemu CZAT RAG. Szczególnie przydatne jest przechowywanie danych sesji, preferencji użytkownika i typowych zapytań.
Serwer elastyczny usługi Azure Database for PostgreSQL Ta zarządzana usługa bazy danych może przechowywać dane aplikacji, w tym dzienniki, profile użytkowników i historyczne dane czatu. Jego elastyczność i skalowalność obsługują dynamiczne potrzeby systemu czatu RAG, zapewniając spójne i bezpieczne dane.

Każda z tych usług platformy Azure przyczynia się do tworzenia kompleksowej, skalowalnej i wydajnej architektury dla generującego rozwiązania sztucznej inteligencji, dzięki czemu deweloperzy mogą korzystać z najlepszych możliwości chmury i technologii sztucznej inteligencji platformy Azure.

Programowanie aplikacji sztucznej inteligencji skoncentrowanej na kodzie za pomocą interfejsu API usługi Azure OpenAI

W tej sekcji skoncentrujemy się na interfejsie API usługi Azure OpenAI. Jak wspomniano wcześniej, dostęp do funkcji LLM uzyskuje się programowo za pośrednictwem internetowego interfejsu API RESTful. Do wywołania tych interfejsów API można użyć dosłownie dowolnego nowoczesnego języka programowania. W wielu przypadkach istnieją zestawy SDK specyficzne dla języka lub platformy, które działają jako "otoki" wokół wywołań interfejsu API REST, aby środowisko było bardziej idiotyczne.

Jeśli zestaw SDK języka lub platformy jest niedostępny, najgorszym scenariuszem jest wykonanie wywołań REST bezpośrednio do internetowego interfejsu API. Jednak większość deweloperów zna sposób wywoływania internetowych interfejsów API.

Usługa Azure OpenAI oferuje szereg interfejsów API zaprojektowanych w celu ułatwienia różnych typów zadań opartych na sztucznej inteligencji, co umożliwia deweloperom integrowanie zaawansowanych funkcji sztucznej inteligencji z aplikacjami. Oto omówienie kluczowych interfejsów API dostępnych w usłudze OpenAI:

  • Interfejs API uzupełniania czatów: ten interfejs API koncentruje się na scenariuszach generowania tekstu, w tym możliwościach konwersacyjnych, umożliwiając tworzenie czatbotów i wirtualnych asystentów, które mogą angażować się w naturalny dialog przypominający człowieka. Jest zoptymalizowany pod kątem interaktywnych przypadków użycia, w tym obsługi klienta, asystentów osobistych i interaktywnych środowisk szkoleniowych. Jest ona jednak również używana dla wszystkich scenariuszy generowania tekstu, w tym podsumowania, autouzupełniania, pisania dokumentów, analizowania tekstu, tłumaczenia itd. Jest to punkt wejścia do możliwości przetwarzania obrazów obecnie w wersji zapoznawczej (czyli przekazywanie obrazu i zadawanie pytań na jego temat).
  • Interfejs API moderowania: ten interfejs API ułatwia deweloperom identyfikowanie i filtrowanie potencjalnie szkodliwej zawartości w tekście, zapewniając narzędzie zapewniające bezpieczniejsze interakcje użytkowników przez automatyczne wykrywanie obraźliwych, niebezpiecznych lub w inny sposób nieodpowiednich materiałów.
  • Interfejs API osadzania: interfejs API osadzania generuje wektorowe reprezentacje danych wejściowych tekstu, konwertowanie wyrazów, zdań lub akapitów na wektory wielowymiarowe. Te osadzania mogą służyć do wyszukiwania semantycznego, klastrowania, analizy podobieństwa zawartości i nie tylko. Przechwytuje podstawowe znaczenie i semantyczne relacje w tekście.
  • Interfejs API generowania obrazów: ten interfejs API umożliwia generowanie oryginalnych, wysokiej jakości obrazów i sztuki na podstawie opisów tekstowych. Jest on oparty na języku DALL platformy OpenAI· Model E, który może tworzyć obrazy pasujące do szerokiej gamy stylów i tematów na podstawie otrzymywanych monitów.
  • Interfejs API audio: ten interfejs API zapewnia dostęp do modelu audio openAI przeznaczonego do automatycznego rozpoznawania mowy. Może ona transkrybować język mówiony w tekście lub tekst w mowę, obsługując różne języki i dialekty. Jest to przydatne w przypadku aplikacji wymagających poleceń głosowych, transkrypcji zawartości audio i nie tylko.

Podczas gdy generowanie sztucznej inteligencji może służyć do pracy z wieloma różnymi modalnościami multimediów, w pozostałej części tego artykułu koncentrujemy się na rozwiązaniach generowania sztucznej inteligencji opartych na tekście. Obejmuje to scenariusze, takie jak czat, podsumowanie itd.

Jak rozpocząć tworzenie aplikacji za pomocą generowania sztucznej inteligencji

Deweloperzy oprogramowania, którzy są nowi w nieznanym języku, interfejsie API lub technologii, zwykle zaczynają go uczyć, postępując zgodnie z samouczkami lub modułami szkoleniowymi w celu tworzenia małych aplikacji. Niektórzy deweloperzy oprogramowania wolą stosować podejście samodzielne i tworzyć małe aplikacje eksperymentalne. Oba podejścia są prawidłowe i przydatne.

W miarę rozpoczynania pracy najlepiej zacząć od małego, obiecywać niewiele, iterować i rozwijać swoją wiedzę i umiejętności, ponieważ programowanie za pomocą generowania sztucznej inteligencji ma unikatowe wyzwania. Na przykład w tradycyjnym tworzeniu oprogramowania można polegać na danych wyjściowych deterministycznych — w przypadku dowolnego zestawu danych wejściowych można oczekiwać dokładnie tych samych danych wyjściowych za każdym razem. Jednak generowanie nie jest deterministyczne — nigdy nie otrzymasz dokładnie tej samej odpowiedzi dwa razy dla danego monitu, który jest źródłem wielu nowych wyzwań. Podczas rozpoczynania pracy przed zbyt daleko weź pod uwagę następujące wskazówki:

Porada nr 1: Uzyskaj jasne informacje na temat tego, co próbujesz osiągnąć.

  • Uzyskaj szczegółowe informacje na temat problemu, który próbujesz rozwiązać: Generowanie sztucznej inteligencji może rozwiązać szeroką gamę problemów, ale powodzenie wynika z jasnego zdefiniowania konkretnego problemu, który chcesz rozwiązać. Czy próbujesz wygenerować tekst, obrazy, kod lub coś innego? Tym bardziej szczegółowe jest, tym lepiej możesz dostosować sztuczną inteligencję do własnych potrzeb.
  • Zrozumienie odbiorców: Znajomość odbiorców pomaga dostosować dane wyjściowe sztucznej inteligencji do swoich oczekiwań, niezależnie od tego, czy jest to przypadkowi użytkownicy, czy eksperci w danym obszarze.

Porada nr 2: Odtwórz mocne strony LLMs.

  • Zapoznaj się z ograniczeniami i uprzedzeniami llMs: Chociaż llMs są zaawansowane, mają ograniczenia i nieodłączne uprzedzenia. Znajomość ograniczeń i uprzedzeń może pomóc w zaprojektowaniu ich lub włączeniu środków zaradczych.
  • Dowiedz się, gdzie llMs excel: LLMs excel w zadaniach, takich jak tworzenie zawartości, podsumowywanie, tłumaczenie języka itd. Chociaż ich możliwości podejmowania decyzji i możliwości dyskryminacyjne są coraz silniejsze w każdej nowej wersji, mogą istnieć inne typy sztucznej inteligencji, które są bardziej odpowiednie dla danego scenariusza lub przypadku użycia. Wybierz odpowiednie narzędzie dla zadania.

Porada nr 3: Najlepsze wyniki zaczynają się od dobrych monitów.

  • Poznaj najlepsze rozwiązania inżynieryjne z monitami: Tworzenie skutecznych monitów jest sztuką. Poeksperymentuj z różnymi monitami, aby zobaczyć, jak wpływają one na dane wyjściowe. Bądź zwięzły, ale opisowy.
  • Zatwierdź do iteracyjnego uściślenia: często pierwszy monit może nie zwracać żądanego wyniku. Jest to proces prób i błędów. Użyj danych wyjściowych, aby dokładniej uściślić monity.

Tworzenie pierwszego rozwiązania do generowania sztucznej inteligencji

Jeśli chcesz od razu rozpocząć eksperymentowanie z tworzeniem generowania rozwiązania sztucznej inteligencji, zalecamy zapoznanie się z omówieniem rozpoczynania czatu przy użyciu własnego przykładu danych dla języka Python. Istnieją również wersje samouczka dostępne na platformie .NET, Java i w języku JavaScript.

Ostateczne zagadnienia, które mogą mieć wpływ na decyzje projektowe aplikacji

Poniżej przedstawiono krótką listę kwestii, które należy wziąć pod uwagę i inne wnioski z tego artykułu, które mają wpływ na decyzje projektowe aplikacji:

  • Jasno zdefiniuj przestrzeń problemu i odbiorców, aby dopasować możliwości sztucznej inteligencji do oczekiwań użytkowników, optymalizując skuteczność rozwiązania dla zamierzonego przypadku użycia.
  • Używaj platform o niskim kodzie/braku kodu do szybkiego tworzenia prototypów i programowania, jeśli spełniają one wymagania projektu, oceniając kompromis między szybkością programowania i możliwościami dostosowywania. Poznaj możliwości rozwiązań z małą ilością kodu i bez kodu dla części aplikacji, aby przyspieszyć tworzenie aplikacji i umożliwić członkom zespołu nietechnistycznego współtworzenie projektu.