Bagikan melalui


Menyempurnakan model dengan Microsoft Foundry (klasik)

Nota

Dokumen ini mengacu pada portal Microsoft Foundry (klasik ).

🔍 Lihat dokumentasi Microsoft Foundry (baru) untuk mempelajari tentang portal baru.

Penyempurnaan menyesuaikan model AI yang telah dilatih sebelumnya dengan pelatihan tambahan pada tugas atau himpunan data tertentu untuk meningkatkan performa, menambahkan keterampilan baru, atau meningkatkan akurasi. Hasilnya adalah model GenAI baru yang dioptimalkan berdasarkan contoh yang disediakan. Artikel ini memandu Anda melalui konsep dan keputusan utama yang harus dibuat sebelum Anda menyempurnakan, termasuk jenis penyempurnaan yang tepat untuk kasus penggunaan Anda, dan kriteria pemilihan model berdasarkan teknik pelatihan kasus penggunaan untuk penyempurnaan dan bagaimana hal itu membantu Anda dalam perjalanan GenAI Anda.

Jika Anda baru memulai dengan penyetelan, kami merekomendasikan GPT-4.1 untuk keterampilan kompleks seperti terjemahan bahasa, adaptasi domain, atau pembuatan kode tingkat lanjut. Untuk tugas yang lebih fokus (seperti klasifikasi, analisis sentimen, atau moderasi konten) atau saat menyaring pengetahuan dari model yang lebih canggih, mulailah dengan GPT-4.1-mini untuk perulangan yang lebih cepat dan biaya yang lebih rendah.

Skenario penggunaan teratas untuk penyempurnaan

Penyempurnaan unggul dalam menyesuaikan model bahasa untuk aplikasi dan domain khusus. Beberapa kasus penggunaan utama meliputi:

  • Domain Specialization: Mengadaptasi model bahasa untuk bidang khusus seperti kedokteran, finance, atau hukum – di mana pengetahuan dan terminologi khusus domain penting. Ajarkan model untuk memahami jargon teknis dan memberikan respons yang lebih akurat.
  • Performa Tugas: Optimalkan model untuk tugas tertentu seperti analisis sentimen, pembuatan kode, terjemahan, atau ringkasan. Anda dapat secara signifikan meningkatkan performa model yang lebih kecil pada aplikasi tertentu, dibandingkan dengan model general purpose.
  • Gaya dan Nada: Ajarkan model agar sesuai dengan gaya komunikasi pilihan Anda - misalnya, sesuaikan model untuk penulisan bisnis formal, suara khusus merek, atau penulisan teknis.
  • Instruksi Berikut: Tingkatkan kemampuan model untuk mengikuti persyaratan pemformatan tertentu, instruksi multi-langkah, atau output terstruktur. Dalam kerangka kerja multi-agen, ajarkan model untuk memanggil agen yang tepat untuk tugas yang tepat.
  • Kepatuhan dan Keamanan: Latih model yang disempurnakan untuk mematuhi kebijakan organisasi, persyaratan peraturan, atau panduan lain yang unik untuk aplikasi Anda.
  • Adaptasi Bahasa atau Budaya: Sesuaikan model bahasa untuk bahasa, dialek, atau konteks budaya tertentu yang mungkin tidak diwakili dengan baik dalam data pelatihan. Penyempurnaan sangat berharga ketika model tujuan umum tidak memenuhi persyaratan spesifik Anda - tetapi Anda ingin menghindari biaya dan kompleksitas pelatihan model dari awal.

Komputasi Tanpa Server atau Terkelola?

Sebelum memilih model, penting untuk memilih produk penyempurnaan yang sesuai dengan kebutuhan Anda. Foundry Microsoft menawarkan dua modalitas utama untuk penyempurnaan: komputasi tanpa server dan terkelola.

  • Serverless memungkinkan Anda untuk menyesuaikan model menggunakan kapasitas kami dengan harga berbasis konsumsi mulai dari USD 1,70 per sejuta token input. Kami mengoptimalkan pelatihan untuk kecepatan dan skalabilitas saat menangani semua manajemen infrastruktur. Pendekatan ini tidak memerlukan kuota GPU dan menyediakan akses eksklusif untuk model OpenAI, meskipun dengan lebih sedikit opsi untuk hiperparameter daripada komputasi yang dikelola.
  • Komputasi terkelola menawarkan berbagai model yang lebih luas dan penyesuaian tingkat lanjut melalui AzureML, tetapi mengharuskan Anda untuk menyediakan VM Anda sendiri untuk pelatihan dan hosting. Meskipun ini memberikan kontrol penuh atas sumber daya, ini menuntut kuota tinggi yang tidak dimiliki banyak pelanggan, tidak termasuk model OpenAI, dan tidak dapat menggunakan pengoptimalan multi-penyewa kami.

Bagi sebagian besar pelanggan, serverless memberikan keseimbangan terbaik dari kemudahan penggunaan, efisiensi biaya, dan akses ke model premium. Dokumen ini berfokus pada opsi tanpa server.

Untuk menemukan langkah-langkah untuk menyempurnakan model di Foundry, lihat Menyempurnakan Model di Foundry atau Menyempurnakan model menggunakan komputasi terkelola. Untuk panduan terperinci tentang penyempurnaan OpenAI, lihat Penyetelan Azure Model OpenAI.

Teknik Pelatihan

Setelah mengidentifikasi kasus penggunaan, Anda perlu memilih teknik pelatihan yang sesuai - yang memandu model yang Anda pilih untuk pelatihan. Kami menawarkan tiga teknik pelatihan untuk mengoptimalkan model Anda:

  • Fine-Tuning yang diawasi (SFT): Teknik dasar yang melatih model Anda pada pasangan input-output, mengajarkannya untuk menghasilkan respons yang diinginkan untuk input tertentu.

    • Terbaik untuk: Sebagian besar kasus penggunaan termasuk spesialisasi domain, pelaksanaan tugas, gaya dan nada, mengikuti instruksi, dan adaptasi bahasa.
    • Kapan menggunakan: Mulai di sini untuk sebagian besar proyek. SFT menangani berbagai skenario penyetelan paling banyak dan memberikan hasil yang andal dengan data pelatihan masukan-keluaran yang jelas.
    • Model yang Didukung: GPT 4o, 4o-mini, 4.1, 4.1-mini, 4.1-nano; Llama 2 dan Llama 3.1; Phi 4, Phi-4-mini-instruct; Mistral Nemo, Ministral-3B, Mistral Large (2411); NTT Tsuzumi-7b
  • Pengoptimalan Preferensi Langsung (DPO): Melatih model untuk lebih memilih jenis respons tertentu daripada yang lain dengan belajar dari umpan balik komparatif, tanpa memerlukan model hadiah terpisah.

    • Terbaik untuk: Meningkatkan kualitas respons, keamanan, dan keselarasan dengan preferensi manusia.
    • Kapan menggunakan: Ketika Anda memiliki contoh output pilihan vs. yang tidak disukai, atau ketika Anda perlu mengoptimalkan kualitas subjektif seperti membantu, tidak berbahaya, atau gaya. Kasus penggunaan termasuk menyesuaikan model dengan gaya dan nada tertentu, atau menyesuaikan model dengan preferensi budaya.
    • Model yang Didukung: GPT 4o, 4.1, 4.1-mini, 4.1-nano
  • Penguatan Fine-Tuning (RFT): Menggunakan pembelajaran penguatan untuk mengoptimalkan model berdasarkan sinyal imbalan, memungkinkan tujuan pengoptimalan yang lebih kompleks.

    • Terbaik untuk: Skenario pengoptimalan kompleks di mana pasangan input-output sederhana tidak cukup.
    • Kapan menggunakan: RFT sangat ideal untuk domain objektif seperti matematika, kimia, dan fisika di mana ada jawaban yang benar dan salah yang jelas dan model sudah menunjukkan beberapa kompetensi. Ini bekerja paling baik ketika menebak keberuntungan sulit dan evaluator ahli akan secara konsisten menyetujui jawaban yang tidak ambigu dan benar. Membutuhkan lebih banyak keahlian ML untuk diterapkan secara efektif.
    • Model yang Didukung: o4-mini

Sebagian besar pelanggan sebaiknya mulai dengan SFT, karena ini menangani berbagai kasus penggunaan penyempurnaan yang paling luas.

Ikuti tautan ini untuk melihat dan mengunduh himpunan data example untuk mencoba penyempurnaan.

Modalitas Pelatihan

  • Teks ke Teks (Semua Model): Semua model kami mendukung penyempurnaan teks ke teks standar untuk tugas berbasis bahasa.
  • Visi + Teks (GPT 4o, 4.1): Beberapa model mendukung penyempurnaan penglihatan, menerima input gambar dan teks saat menghasilkan output teks. Kasus penggunaan untuk penyempurnaan penglihatan termasuk menginterpretasikan bagan, grafik, dan data visual; moderasi konten; penilaian kualitas visual; pemrosesan dokumen dengan teks dan gambar campuran; dan katalog produk dari foto.

Tabel Perbandingan Model

Tabel ini menyediakan gambaran umum tentang model yang tersedia

Model Modalitas Teknik Kekuatan
GPT 4.1 Teks, Visi SFT, DPO Performa unggul pada tugas canggih, pemahaman bernuansa
GPT 4.1-mini Teks SFT, DPO Iterasi cepat, hemat biaya, baik untuk tugas-tugas sederhana
GPT 4.1-nano Teks SFT, DPO Penggunaan sumber daya yang cepat, hemat biaya, dan minimal
GPT 4o Teks, Visi SFT, DPO Model unggulan generasi sebelumnya untuk tugas yang kompleks
GPT 4o-mini Teks SFT Model kecil generasi sebelumnya untuk tugas sederhana
o4-mini Teks RFT Model penalaran cocok untuk tugas logis yang kompleks
Phi 4 Teks SFT Opsi hemat biaya untuk tugas yang lebih sederhana
Ministral 3B Teks SFT Opsi biaya rendah untuk iterasi yang lebih cepat
Mistral Nemo Teks SFT Keseimbangan antara ukuran dan kemampuan
Mistral Large (2411) Teks SFT Model Mistral yang paling mampu, lebih baik untuk tugas yang kompleks

Mulai dengan Penyempurnaan

  1. Tentukan kasus penggunaan Anda: Identifikasi apakah Anda memerlukan model tujuan umum yang sangat mampu (misalnya GPT 4.1), model hemat biaya yang lebih kecil untuk tugas tertentu (GPT 4.1-mini atau nano), atau model penalaran kompleks (o4-mini).
  2. Siapkan data Anda: Mulailah dengan 50-100 contoh berkualitas tinggi untuk pengujian awal, penskalaan ke 500+ contoh untuk model produksi.
  3. Pilih teknik Anda: Mulailah dengan Supervised Fine-Tuning (SFT) kecuali Anda memiliki persyaratan khusus untuk model penalaran / RFT.
  4. Iterasi dan evaluasi: Penyempurnaan adalah proses berulang—mulailah dengan garis besar, ukur performa, dan persingkat pendekatan Anda berdasarkan hasil.

Untuk menemukan langkah-langkah untuk menyempurnakan model di Foundry, lihat Menyetel Model di Foundry, Menyetel Model Azure OpenAI, atau Menyetel Model menggunakan komputasi terkelola.

Fine-Tuning Ketersediaan

Sekarang setelah Anda tahu kapan menggunakan penyempurnaan untuk kasus penggunaan Anda, Anda dapat membuka Microsoft Foundry untuk menemukan model yang tersedia untuk menyempurnakan.

Untuk mengoptimalkan model Foundry menggunakan serverless, Anda harus memiliki hub/proyek di wilayah di mana model dapat disetel. Lihat Ketersediaan Wilayah untuk model dalam penerapan API serverless untuk informasi terperinci tentang ketersediaan model dan wilayah, dan Cara Membuat Proyek Berbasis Hub untuk membuat proyek Anda.

Untuk menyempurnakan model OpenAI Anda dapat menggunakan Sumber Daya OpenAI Azure, sumber daya Foundry, atau project default, atau hub/project. GPT 4.1, 4.1-mini, 4.1-nano dan GPT 4o, 4omini tersedia di semua wilayah dengan Pelatihan Global. Untuk ketersediaan regional, lihat Ketersediaan dan Batas Azure OpenAI Fine Tuning secara Regional. Lihat Buat proyek untuk Foundry untuk petunjuk cara membuat proyek baru.

Untuk menyempurnakan model menggunakan Komputasi Terkelola Anda harus memiliki hub/project dan kuota VM yang tersedia untuk pelatihan dan inferensi. Lihatlah penyetelan model menggunakan komputasi terkelola (pratinjau) untuk detail selengkapnya tentang cara menggunakan penyetelan komputasi terkelola, dan Cara Membuat proyek berbasis Hub untuk membuat proyek Anda.