שתף באמצעות


מבט כולל על הנחיות

מאמר זה מסביר את המושג הנדסת הנחיות ומושגי מפתח נוספים שיעזרו לך ליצור יישומים רבי עוצמי כדי ליצור טקסט על סמך קלט (הנחיה).

הנחיה היא הוראה בשפה טבעית שאומרת למודל שפה גדול (LLM) לבצע משימה. התהליך נקרא גם כוונון הוראות. המודל פועל לפי ההנחיה כדי לקבוע את המבנה והתוכן של הטקסט שעליו להפיק. הנדסת הנחיות היא תהליך של יצירה וחידוד של ההנחיה המשמשת את המודל.

AI Builder מספק בונה הנחיות שמאפשר ליוצרים לכתוב, לבדוק, לשמור ולהשתמש בהנחיות ליצירת טקסט.

חשוב

‏‫דרישות מוקדמות‬

  • יש לך הבנה בסיסית כיצד לכתוב הנחיות.
  • הסביבה שלך נמצאת ברשימת האזורים הזמינים.
  • אתה צריך רישיון Power Apps או Power Automate.
  • מסד נתונים של Microsoft Dataverse מותקן בסביבה.
  • יש לך תוסף AI Builder.

מהי הנחיה וכיצד להשתמש בה

חשוב על הנחיה כעל משימה או יעד שאתה מגדיר למודל השפה הגדול (LLM). עם בונה ההנחיות אפשר ליצור, לבדוק ולשמור את ההנחיות המותאמות אישית שלך. אתה יכול גם להשתמש במשתני קלט כדי לספק נתוני הקשר דינמיים בזמן ריצה. אתה יכול לשתף את ההנחיות האלה עם אחרים ולהשתמש בהן ב- Power Automate, Power Apps או Copilot Studio. לדוגמה, אתה יכול להנחות לבחור פריטי פעולה מהודעות הדואר של החברה שלך ולהשתמש בהם בזרימת Power Automate לאוטומציה של עיבוד דואר אלקטרוני.

בונה ההנחיות מאפשר ליוצרים לתכנן הנחיות מותאמות אישית שנותנות מענה לצרכים העסקיים הספציפיים שלהם באמצעות שפה טבעית. ניתן להשתמש בהנחיות אלו למגוון משימות או תרחישים עסקיים, כגון סיכום תוכן, סיווג נתונים, חילוץ ישויות, תרגום שפות, הערכת סנטימנט או ניסוח תגובה לתלונה.

ניתן לשלב הנחיות בזרימות כדי לבנות אוטומציה חכמה. היוצרים יכולים גם לבנות יכולות בינה מלאכותית מתקדמות לאפליקציות שלהם על ידי תיאורם כהנחיות בשפה טבעית. ניתן להשתמש בהנחיות אלה כדי להרחיב Copilot מותאם אישית, ובכך לייעל את הפעילות העסקית היומיומית ולהגביר את היעילות."

פיקוח אנושי

פיקוח אנושי הוא שלב חשוב בעבודה עם תוכן שנוצר ממודל GPT. מודלים גדולים של שפה כמו GPT מאומנים על כמויות אדירות של נתונים. תוכן שנוצר על-ידי בינה מלאכותית יכול להכיל שגיאות והטיות. אדם צריך לסקור את התוכן לפני שהוא מתפרסם באינטרנט, נשלח ללקוח או משמש לקבלת החלטה עסקית. פיקוח אנושי עוזר לא רק לזהות שגיאות והטיות פוטנציאליות, אלא גם לוודא שהתוכן רלוונטי למקרה השימוש המיועד ומתיישר עם ערכי החברה.

סקירה אנושית יכולה גם לעזור לזהות בעיות במודל ה- GPT עצמו. לדוגמה, אם המודל מייצר תוכן שאינו רלוונטי למקרה השימוש המיועד, ייתכן שיהיה עליך להתאים את ההנחיה.

AI אחראי

אנו מחויבים ליצור בינה מלאכותית אחראית משלב התכנון. העבודה שלנו מונחית על-ידי מערכת ליבה של עקרונות: הוגנות, אמינות ובטיחות, פרטיות ואבטחה, הכלה, שקיפות ואחריות. אנו מיישמים את העקרונות הללו בכל רחבי החברה כדי לפתח ולפרוס בינה מלאכותית שיש לה השפעה חיובית על החברה. אנו נוקטים בגישה מקיפה, המשלבת מחקר חדשני, הנדסה יוצאת דופן ופיקוח אחראי. לצד המחקר המוביל של OpenAI בנושא תיאום בינה מלאכותית, אנו מקדמים מסגרת לפריסה בטוחה של טכנולוגיות AI משלנו, שמטרתה לעזור להנחות את התעשייה לקראת תוצאות אחראיות יותר.

למידע נוסף על שקיפות ב- Azure OpenAI Service