Aracılığıyla paylaş


Üretken yapay zeka çözümleri oluşturan geliştiriciler için önemli kavramlar ve önemli noktalar

Büyük Dil Modelleri (LLM' ler) şaşırtıcıdır, ancak sınırlamaları bile vardır. Geliştiricilerin bu sınırlamaları, LLM'lerin "kullanıma hazır" yapabileceklerini ve geliştirdikleri üretken yapay zeka çözümleri için en iyi sonuçları elde etmek için bunları nasıl ayarlayabileceklerini anlamaları gerekir. Bu makalede çeşitli zorluklar ve sınırlayıcı faktörler tanımlanmaktadır ve uygulamanızda ne tür bir yapay zeka özelliği oluşturduğunuzdan bağımsız olarak bu zorlukların üstesinden gelmek ve içerik oluşturma sürecinin denetimini ele almak için yaygın yollar açıklanmaktadır.

LLM'lerle çalışırken karşılaşılan mühendislik zorlukları

LLM'lerle çalışırken dikkat edilmesi gereken en önemli zorluklar veya sınırlamalar:

  • Bilgi kesintisi - Bir LLM'yi eğitmek için yüksek maliyet nedeniyle, bilgi vücutları belirli bir zamanda eğitilenlerle sınırlıdır. Eklentiler veya diğer konaklama birimleri olmadan, gerçek zamanlı bilgilere veya özel verilere erişimleri yoktur.

  • Halüsinasyon - LLM, bilgi oluşturmak için istatistiksel olasılıkları ve biraz rastgeleliği kullanır. Oluşturulan yanıtların, sorulan sorularda ve eğitildiği bilgilerde insanın amacına uygun kalmasını sağlayan mekanizmalar vardır, ancak doğru olmayan yanıtlar oluşturmaları mümkündür.

  • Saydamlık - Modellerin eğitim şekli nedeniyle, artık eğitildikleri temel bilgilere erişemeyecekler. Ve öyle olsa bile, bilgilerin doğru ve temele dayandırıldığına dair bir garanti yoktur. Ayrıca, oluşturulan yanıtın doğru olduğundan emin olmak için doğrulama adımı yoktur.

  • Etki alanına özgü bilgi yok - "bilgi kesintisine benzer şekilde, yalnızca şirket içi belgeler gibi özel bilgileriniz varsa, LLM bu bilgiler hakkında eğitilmemiştir ve dolayısıyla etki alanına özgü bir bilgiye sahip değildir.

LLM'lerle ilgili olası zorlukları veya sorunları azaltmak ve kullanıcılarınıza ve kuruluşunuza yardımcı olmak için mümkün olan en iyi sonuçları almak için ne yapabilirsiniz? LLM'nin verilerini nereden aldığına ekleyebileceğiniz yolları anlayarak başlayın.

LLM'lerin bilgilerini nereden edindiği anlama

LLM'den en iyi sonuçları almanın iyi bir başlangıç noktası, LLM'lerin bilgilerini nereden veya nasıl edineceklerini anlamaktır. Aşağıdaki kategoriler, LLM'lerin yanıt oluşturmak için çeşitli bilgi kaynaklarıyla nasıl etkileşime geçtiğini gösteren farklı yaklaşımları temsil eder.

En üstte alma-çıkarma oluşturma ile üç farklı alma oluşturma türünü gösteren diyagram, en önceden eğitilmiş bilgiyle, sonra alma artırılmış oluşturmayla, sonra en altta alma merkezli nesille en çok alınan bilgiyle bağıntılıdır.

  • Alma-Kapalı Nesil (ROG) - Bu, geleneksel LLM'lerin çalışma şeklidir ve model, üretim sürecinde herhangi bir dış bilgiye erişmeden veya bu bilgileri almadan yalnızca eğitildiği bilgiye göre yanıtlar oluşturur. Modelin bilgileri statiktir ve kesme tarihine kadar eğitim verilerine dahil edilen bilgilerle sınırlıdır. Yaratıcı yazıya ek olarak, İnternet'te büyük ölçüde bulunan bilgilerle ilgili soruları yanıtlayabilir.

  • Alma-Artırılmış Oluşturma (RAG) - LLM'lerin üretken özelliklerini, dış veritabanlarından veya belgelerden gerçek zamanlı olarak bilgi alma özelliğiyle birleştirir. Model, ilgili bilgileri bulmak için bir dış kaynağı sorgular ve ardından yanıtını bilgilendirmek için kullanır. Bu yaklaşım, modelin yalnızca önceden eğitilmiş bilgilerinden elde edebileceğinden daha doğru ve güncel bilgiler sağlamasına olanak tanır. Kullanım örnekleri arasında olgu denetimi, gerçek zamanlı verilere veya özel, etki alanına özgü verilere göre soruları yanıtlama sayılabilir.

  • Alma Merkezli Oluşturma (RCG) - Dışarıdan alınan içeriğe daha fazla vurgu uygular ve genellikle dış kaynaklardan getirilen bilgilerin etrafında yanıtları yapılandırır. Model, alınan metnin büyük kesimlerini çıkışlarına doğrudan dahil edebilir ve bunları kullanıcının sorgusuna uyacak şekilde düzenler veya bunlara açıklama ekleyebilir. Bu yaklaşım, dengenin modelin kendi oluşturucu özelliklerine göre alınan bilgilere büyük ölçüde destek olabileceği alma tabanlı ve üretken yöntemler arasında bir karma olarak görülebilir. Kullanım örnekleri arasında daha uzun bir belgenin özetlenmesi, birden çok benzer belgede karşılaştırmalar ve tematik keşifler sağlamak için araştırma yardımı ve farklı malzeme kaynaklarının birleştirilmiş bir çıktıda derlenmesi veya harmanlanması yer alır.

Geri Alma-Kapatma (ROG) için iyi bir örnek ChatGPT'dir. Buna karşılık, gerekirse Copilot (Bing aracılığıyla) haber kaynaklarından dış kaynakları kullanarak (ve bu kaynaklara bağlantılar sağlayarak) LLM'yi genişletir.

İlk bakışta, Her ikisi de dış bilgileri dil oluşturma süreciyle tümleştirmeyi içerdiğinden, Alma-Artırılmış Nesil (RAG) ve Alma Merkezli Nesil (RCG) birbirine benzer. Ancak, alınan bilgileri oluşturma sürecinde önceliklendirme ve kullanma şekli bakımından farklılık gösterir.

RAG sistemlerinde dış veri alma, önceden eğitilmiş bir dil modelinin üretken özelliklerini artırmak için kullanılır. Alınan bilgiler, modelin yanıtlarını bilgilendirmek için kullandığı daha fazla bağlam veya belirli veri sağlar. Burada, dil modelinin üretken yönü yanıtın merkezinde kalırken, alınan veriler doğruluğu veya derinliği geliştirmek için destekleyici bir öğe görevi görür.

RCG sistemleri ise alınan bilgilerin kendisine daha güçlü bir vurgu ekler. Bu sistemlerde, alınan veriler genellikle yanıtın orta parçasıdır ve oluşturucu modelin rolü öncelikli olarak alınan metni daraltmak, biçimlendirmek veya biraz geliştirmektir. Bu yaklaşım özellikle bilgilerin doğruluğu ve doğrudan ilgisi çok önemli olduğunda ve daha az yaratıcı sentez veya tahmin gerektiğinde kullanılır.

HEM RAG hem de RCG'yi destekleyen verilerin dışarıdan alınmasına yönelik mekanizmalar, ilk eğitimine dayalı olarak LLM'nin sahip olduğu bilgileri desteklemek için yaygın olarak kullanılan iki yaklaşım olan, belgelerin vektörleştirilmiş eklemelerini depolama ve bir LLM'de ince ayarlama ile ilgili makalelerde ele alınmıştır.

Alma modelleri arasındaki ayrımları anlamak, belirli uygulamalar için doğru yaklaşımın seçilmesine yardımcı olabilir ve yaratıcı sentez gereksinimini kaynak malzemeye doğruluk ve aslına uygunluk gereksinimine karşı dengeleyebilir.

Çıkarımın nasıl çalıştığını etkileyen faktörleri anlama

ChatGPT'nin web tabanlı kullanıcı arabirimini büyük olasılıkla bildiğinizden, soruları yanıtlamak için nasıl çalıştığını anlamak, kendi uygulamalarınızda üretken yapay zeka özellikleri oluştururken önemli olacak kavramları anlamanıza yardımcı olabilir.

Kullanıcı ChatGPT ile sohbet ettiğinde kullanıcı arabirimi tasarımı, siz ve LLM arasındaki birkaç ileri geri alışveriş sırasında durumu koruyan uzun süre çalışan bir sohbet oturumu izlenimi verir. Gerçekte, belirli bir sohbet oturumu için tüm istemler ve LLM'nin tüm yanıtları (tamamlama olarak da bilinir) her yeni istemle gönderilir. Bu nedenle, konuşmanız büyüdükçe, işlenmek üzere LLM'ye giderek daha fazla metin gönderiyorsunuz( önceki tüm istemler ve tamamlamalar). ChatGPT, geçerli isteminize yanıt oluştururken yalnızca geçerli istemi değil sohbet oturumunun bağlamını da kullanır. Sohbet oturumunun tamamı bağlam penceresi olarak adlandırılır.

Çalıştığınız ChatGPT sürümüne bağlı olarak bir bağlam penceresi uzunluk sınırı vardır. Sohbet konuşmanızın bağlam penceresi uzunluk sınırını aşan herhangi bir bölümü, en son isteminize yanıt oluştururken yoksayılır.

Uzun konuşmalar ilk başta iyi bir fikir gibi görünebilir, ancak uzun bağlam pencereleri istemi işlemek ve bir tamamlama oluşturmak için gereken hesaplama miktarını etkileyebilir. Bu, yanıtın gecikme süresini ve OpenAI'nin isteği işleme maliyetini etkiler.

ChatGPT'nin bağlam penceresi sınırı nedir? Daha doğrusu, ChatGPT kaç sözcükle çalışabilir? Bağlam penceresi sınırı, üzerinde çalıştığınız LLM modeline, sürümüne ve sürümüne bağlıdır. Ayrıca bağlam uzunlukları sözcüklerle değil belirteçlerle ölçülür. Belirteçler, modelin anlayıp oluşturabileceği en küçük metin birimleridir. Bu birimler sözcükler, sözcüklerin parçaları (heceler veya saplar gibi) ve hatta tek tek karakterler olabilir. Belirteçler, doğal dil işlemenin (NLP) merkezindedir.

Belirteçlerin kullanımı geliştiriciler için dikkat edilmesi gereken iki önemli noktadır:

  • Bağlam penceresi üst sınırı
  • İstem ve tamamlama başına fiyat

Belirteç oluşturma nedir?

"Belirteçleştirme", metni belirteçlere dönüştürme işlemidir. LlM ile verileri eğitim veya çıkarım (istemlere göre tamamlama oluşturma işlemi) için hazırlamanın önemli bir adımıdır. Bu işlem, karmaşık metinleri yönetilebilir parçalara (belirteçler) bölmek de dahil olmak üzere modelin işleyebileceği çeşitli adımları içerir. Bu işlem, metni boşluklara ve noktalama işaretlerine bölme gibi basit veya daha karmaşık olabilir; farklı dilleri, morfolojileri (sözcüklerin yapısı) ve söz dizimlerini (sözcüklerin yerleşimi) işlemek için gelişmiş algoritmalar içerir. LLM araştırmacıları ve geliştiriciler, neyi gerçekleştirmeye çalıştıklarına bağlı olarak belirteç oluşturma yöntemine karar verir. OpenAI,belirteç oluşturma hakkında daha fazla bilgi veren yararlı bir sayfaya ve hatta bir cümlenin veya paragrafın belirteçlere nasıl bölündüğünü gösteren bir hesap makinesine sahiptir.

OpenAI Belirteci sayfasının alt kısmındaki notta da belirtildiği gibi, tipik İngilizce metinlerde bir belirteç yaklaşık dört karaktere eşdeğerdir. Bu, ortalama olarak 100 belirtecin yaklaşık 75 sözcüeğe veya belirteç başına bir sözcüğün dörtte üçüne eşit olduğu anlamına gelir.

OpenAI Belirteç Oluşturucu sayfası, OpenAI API'sine gönderilen belirli bir istem için kaç belirteç kullanacağınızı program aracılığıyla tahmin etmenizi sağlayan Python ve JavaScript paketi tiktoken'den de bahseder.

Belirteç kullanımı faturalamayı etkiler

Her Azure OpenAI API'sinde farklı bir faturalama metodolojisi vardır. Sohbet Tamamlamaları API'siyle metin işlemek ve oluşturmak için, istem olarak gönderdiğiniz belirteç sayısına ve sonuç olarak oluşturulan belirteç sayısına (tamamlama) göre faturalandırılırsınız.

Her LLM modelinin (örn. gpt-3.5, gpt-3.5-turbo, gpt-4 vb.) genellikle farklı bir fiyatı vardır ve bu da belirteçleri işlemek ve oluşturmak için gereken hesaplama miktarını yansıtır. Çoğu zaman, fiyat "1.000 belirteç başına fiyat" veya "bir milyon belirteç başına fiyat" olarak sunulur.

Bu fiyatlandırma modeli, kullanıcı etkileşimlerini nasıl tasarladığınız ve eklediğiniz ön ve son işlem miktarı üzerinde önemli bir etkiye sahiptir.

Sistem ve kullanıcı istemleri karşılaştırması

Bu noktaya kadar, tartışma yalnızca "kullanıcı istemlerine" odaklanmıştır: kullanıcı ile ChatGPT arasındaki değişimi oluşturan istemler.

OpenAI, tanımladığınız ve tüm sohbet konuşmalarınıza eklenen fazla kemerli bir yönerge kümesi olan "sistem istemini" ("özel yönergeler" olarak da bilinir) tanıttı. Bunu, LLM'nin her yeni sohbet oturumu başlattığınızda her zaman gözlemlemesini istediğiniz bir dizi meta yönerge olarak düşünün. Örneğin, sistem istemini "her zaman şiirsel haiku biçiminde yanıtla" olarak ayarlayabilirsiniz. Bu noktadan sonra, ChatGPT'ye yönelik her yeni istem yanıtı içeren bir haiku ile sonuçlandı.

"haiku biçiminde yanıtla" yararlı bir örnek olmasa da, istemin kendisini değiştirerek LLM'nin tamamlanmasını sizin isteminize etkileyebileceğiniz fikrini gösterir.

Kullanıcının istemini neden değiştirmek istiyorsunuz? Profesyonel bir hedef kitle için şirket çalışanlarını, müşterileri ve iş ortaklarını içerebilen üretken bir yapay zeka özelliği veya uygulaması oluşturuyorsanız, yanıtlamasına izin verilen konuların veya etki alanlarının kapsamını sınırlamak için şüphesiz güvenlik önlemleri eklemek istersiniz.

Ancak kullanıcının istemini değiştirmek, kullanıcılar için metin oluşturma deneyimini geliştirmek için yalnızca bir yöntemdir.

ChatGPT'de kullanıcılar için metin oluşturma deneyimini iyileştirme yöntemleri

Metin oluşturma sonuçlarını geliştirmek için geliştiriciler yalnızca istemi geliştirmekle sınırlıdır ve yardımcı olabilecek birçok istem mühendisliği tekniği vardır. Ancak, kendi üretken yapay zeka uygulamanızı oluşturuyorsanız, kullanıcılar için metin oluşturma deneyimini geliştirmenin çeşitli yolları vardır ve bunların tümünü uygulama denemeleri yapmak isteyebilirsiniz:

  • Kullanıcı istemlerini program aracılığıyla değiştirme
  • Çıkarım işlem hattı uygulama
  • Alma-Artırılmış Nesil (diğer makalelerde ele alınıyor)
  • İnce ayar (diğer makalelerde ele alındı)

Program aracılığıyla kullanıcı istemlerini değiştirme

Program aracılığıyla bakıldığında, kullanıcılarınızın konuşmalarına sistem istemi eklemek için özel bir API yoktur. Yönergeleri yalnızca gerektiği gibi isteme eklersiniz. Ancak, kullanıcı istemlerini iyileştirmeye yönelik birkaç teknik vardır:

  • Bağlamsal Hazırlama: İstediğiniz etki alanı içindeki konuşmanın bağlamını açıkça ayarlayan craft sistemi istemleri. Bu, her etkileşimin başında kısa bir açıklama veya bir dizi yönerge sağlamayı ve yapay zekanın sorun etki alanında kalmasını sağlamayı içerir.
  • Örnek Tabanlı Kılavuz: İlk istemde etki alanınızla ilgili soru ve yanıt türlerinin örneklerini ekleyin. Bu, yapay zekanın beklenen yanıt türlerini anlamasına yardımcı olur.

Ayrıca, tüm istem mühendisliği teknikleri uygulanabilir. Bunu program aracılığıyla bir şekilde gerçekleştirebiliyorsanız kullanıcının istemini kendi adına geliştirebilirsiniz.

Bu yaklaşıma ilişkin uyarı, istem ne kadar uzun olursa LLM'ye yapılan her çağrının o kadar pahalı olmasıdır. Yine de, bu muhtemelen tartışılacak yaklaşımların en ucuzudur.

Çıkarım işlem hattı uygulama

Kullanıcının istemini program aracılığıyla değiştirmenin ötesindeki bir sonraki adım, çıkarım işlem hattının tamamını oluşturmaktır.

Çıkarım işlem hattı , birincil isteminizi (ön işleme) gerçekleştirmek için kullanmadan önce ham girişi (metin veya görüntüler gibi) alan ve "temizleyen" veya kullanıcıya görüntülemeden önce kullanıcının gereksinimlerini karşıladığından emin olmak için tamamlanmayı denetleyebilen (işlem sonrası) uçtan uca işlemdir.

Ön işleme, anahtar sözcük denetimi, ilgi puanlaması veya sorgunun beklenen etki alanı diline daha uygun olacak şekilde dönüştürülmesini içerebilir. Örneğin, kullanıcı tarafından gönderilen ilk istemi analiz edebilir ve llM'ye istemin mantıklı olup olmadığını, kabul etmek istediğiniz şeyin sınırları içinde olup olmadığını, hatalı bir şirkete bağlı olup olmadığını veya belirli yanlılıkları önlemek için yeniden yazılması gerekip gerekmediğini sorabilirsiniz. LLM istemi analiz eder ve sorunları bulursa, bir adım daha ileri gidebilirsiniz: LLM'nin yanıtı geliştirmesi için istemi yeniden adlandırmasını isteyin.

İşlem sonrası, yanıtın etki alanıyla ilgisi ve uygunluğunu doğrulamayı içerebilir. Bu, etki alanı gereksinimlerine uymayan yanıtları kaldırmayı veya işaretlemeyi içerebilir. Örneğin, kalite ve güvenlik gereksinimlerinizi karşıladığından emin olmak için LLM tarafından sağlanan tamamlanmayı incelemek isteyebilirsiniz. LLM'den yanıtı değerlendirmesini isteyebilirsiniz ve yanıta uymasını istediğiniz gereksinimleri karşılayıp karşılamadığınıza bakabilirsiniz. Aksi takdirde, LLM'nin tamamlama işlemini değiştirmesini isteyebilir ve tatmin edici bir sonuç elde edene kadar bu işlemi yineleyebilirsiniz.

Ön işleme adımları eklemeye yönelik bir uyarı vardır: Çıkarım işlem hattınızda bir LLM'ye her çağrı eklediğinizde, genel gecikme süresini (yanıt verme süresi) ve kullanıcıyla yapılan her etkileşimin maliyetini artırırsınız. Deneyimli bir yazılım geliştiricisi olarak, yazılım sisteminin bütçesini, performansını ve etkinliğini etkileyen liderlik tarafından yapılması gereken bu tür dengelerin zaten farkındasınızdır.

Gelişmiş Alma Artırılmış Nesil sistemleri oluşturma makalesi çıkarım işlem hattı oluşturmanın belirli adımlarını ayrıntılı olarak ele almaktadır.

Tamamlamaları etkileyen diğer faktörler

İstemi program aracılığıyla değiştirmenin, çıkarım işlem hattı oluşturmanın ve diğer tekniklerin ötesinde, Daha fazla ayrıntı Alma Artırılmış Oluşturma ve İnce Ayar ile Büyük Dil Modelini Artırma bölümünde ele alınmaktadır. Ayrıca, Azure OpenAI API'sine çağrı yapılırken değiştirilebilen parametreler de vardır.

Sohbet bitiş noktası belgelerinde, tamamlanmasının çeşitli yönlerini etkileyebilecek geçirebileceğiniz gerekli ve isteğe bağlı parametreler listelenir. Bunun yerine bir SDK kullanıyorsanız, tercih ettiğiniz dil için SDK belgelerine bakın. Parametrelerle deneme yapmak istiyorsanız, bunu Playground'da yapabilirsiniz.

  • Sıcaklık: Model tarafından oluşturulan çıkışın rastgeleliğini denetleyin. Sıfırda model belirleyici hale gelir ve sürekli olarak eğitim verilerinden en olası sonraki belirteci seçer. 1 sıcaklığında model, yüksek olasılık belirteçleri seçme ve çıkışa rastgelelik ekleme arasında denge sağlar.

  • En Fazla Belirteç: Yanıtın uzunluk üst sınırını denetler. Daha yüksek veya daha düşük bir sınır ayarlamak, oluşturulan içeriğin ayrıntılarını ve kapsamını etkileyebilir.

  • Üst P (Çekirdek Örnekleme): Yanıtın rastgeleliğini denetlemek için sıcaklıkla birlikte kullanılır. İlk P, yapay zekayı her belirteci oluştururken olasılık kütlesinin yalnızca ilk P yüzdesini dikkate alacak şekilde sınırlar. Daha düşük değerler daha odaklanmış ve öngörülebilir metinlere yol açarken, daha yüksek değerler daha fazla çeşitliliğe olanak sağlar.

  • Sıklık Cezası: Modelin aynı satırı veya tümceciği yineleme olasılığını azaltır. Bu değerin artırılması, oluşturulan metinde yedekliliği önlemeye yardımcı olur.

  • İletişim Durumu Cezası: Modeli tamamlamada yeni kavramlar ve terimler tanıtmaya teşvik eder. İletişim Durumu Cezası, daha çeşitli ve yaratıcı çıkışlar oluşturmak için yararlıdır.

  • Sıraları Durdur: API'ye daha fazla belirteç oluşturma işlemini durdurmasını bildirmek için bir veya daha fazla dizi belirtebilirsiniz. Mağaza Sıraları, bir cümlenin veya paragrafın sonunda tamamlanmayı sonlandırmak gibi çıkışın yapısını denetlemek için kullanışlıdır.

  • Logit Yanlılığı: Belirtilen belirteçlerin tamamlanmada görünme olasılığını değiştirmenize olanak tanır. Logit Yanlılık, tamamlama işlemini belirli bir yönde yönlendirmek veya istenmeyen içeriği bastırmak için kullanılabilir.

Microsoft OpenAI Kasa guard'ları anlama

LLM'nin yanıtlarını belirli konu veya etki alanlarına bağlı tutmanın yanı sıra, kullanıcılarınızın LLM hakkında sorduğu soru türleri hakkında da endişe duymanız olasıdır. Ne tür yanıtlar oluşturacaklarını göz önünde bulundurmak önemlidir.

İlk olarak, Microsoft OpenAI Services'a yapılan API çağrıları, rahatsız edici olabilecek içeriği otomatik olarak filtreler ve bunu birçok filtreleme kategorisinde size bildirir.

OpenAI'nin Moderation API'sini doğrudan kullanarak herhangi bir içeriği zararlı olabilecek içeriğe karşı açıkça kontrol edebilirsiniz.

İkinci olarak, metin denetimi, görüntü moderasyonu, jailbreak risk algılama ve korumalı malzeme algılama konusunda yardımcı olması için Azure AI İçerik Kasa ty kullanabilirsiniz. Bu, zararlı içeriği tanımlamak için uygulamanıza ekleyebileceğiniz kodla bir portal kurulum, yapılandırma ve raporlama deneyimini birleştirir.

Uygulama tasarımı kararlarınızı etkileyebilecek son noktalar

Belirteç oluşturmayı, fiyatlandırmayı, bağlam pencerelerini anlamak ve kullanıcıların metin oluşturma deneyimini geliştirmek için programlı iyileştirmeler uygulamak, üretken yapay zeka sisteminizi tasarlama şeklinizi etkiler. İşte dikkate alınacak şeylerin kısa bir listesi ve bu makaleden uygulama tasarımı kararlarınızı etkileyen diğer şeyler:

  • Maliyetle ilgili dikkat edilmesi gerekenlere karşı en son yapay zeka modelini kullanmanın gerekliliğini değerlendirin. Daha düşük maliyetli modeller uygulamanızın ihtiyaçlarına uygun olabilir ve performansı bütçe kısıtlamalarıyla dengeler.
  • Kullanıcı deneyimini önemli ölçüde etkilemeden maliyetleri yönetmek için bağlam penceresi uzunluğunu iyileştirmeyi göz önünde bulundurun. Konuşmanın gereksiz bölümlerini kırpmak, kalite etkileşimlerini korurken işleme ücretlerini düşürebilir.
  • Belirteç oluşturmanın ve girişlerinizin ve çıkışlarınızın ayrıntı düzeyinin performansı nasıl etkilediğini değerlendirin. Seçtiğiniz LLM'nin belirteçleştirmeyi nasıl işlediğini anlamak, API çağrılarınızın verimliliğini iyileştirmenize, maliyetleri azaltmanıza ve yanıt sürelerini iyileştirmenize yardımcı olabilir.

Hemen üretken bir yapay zeka çözümü oluşturmaya başlamak istiyorsanız RAG kullanarak Python kurumsal sohbet örneğini kullanmaya başlama bölümüne göz atmanızı öneririz. Öğreticinin .NET, Java ve JavaScript sürümlerinde de kullanılabilir.