שאלות נפוצות עבור הנחיות

שאלות נפוצות אלה (שאלות נפוצות) מתארות את השפעת הבינה המלאכותית של בונה ההנחיות.

מהן הנחיות?

תכונת ההנחיות בבונה ההנחיות מציעה למשתמשים יכולת רב-תכליתית לפיתוח זרימות עבודה, יישומים, המרת נתונים והתאמה אישית של בעלי בינה מלאכותית. היא מאפשרת ליצור זרימות עבודה ויישומים המסכמים מסמכים, ליצור תגובות טיוטה, לסווג טקסט ולתרגם שפות. יכולת זו מופעלת על-ידי השירות Azure OpenAI, שעושה שימוש בטכנולוגיית Transformer שהוכשרה מראש (GPT) גנרטיבית. מודלים אלה אוכשו בכמויות עצומות של נתוני טקסט, ומאפשרים להם ליצור טקסט הדומה לתוכן שנכתב על-ידי בני אדם.

קבל מידע נוסף ב- Transparency Note עבור Azure OpenAI Service.

למה מיועדות ההנחיות?

מחולל ההנחיות מעצים אותך לבנות אפליקציות חכמות, זרימות עבודה ולהרחיב את תפקידי הכוחות המסייעים. הם ממנפים את היכולות של מודלים מאומנים מראש של GPT, אשר מבטלים את הצורך בהכשרת מודלים מותאמים אישית. לדוגמה, ייתכן שהכוונת היא לבנות זרימת עבודה המסכמת תלונות נכנסות של לקוחות. לאחר מכן, הוא יוצר כרטיס בכלי לניהול אירועים בהתבסס על הקטגוריה של התלונה הנכנסת. בדוגמה זו, היוצרים יכולים להנחות את המודל לסווג ולסכם את התלונה הנכנסת כדי ליצור מקרה חדש.

הרשימה הבאה מכילה את מקרי השימוש הפופולריים ביותר עבור שירות זה:

  • סיכום הודעות דואר אלקטרוני, שיחות, תעתיקים, מסמכים ועוד.
  • הצעות של תגובות טיוטה לשאילתות של לקוחות, תלונות, דואר אלקטרוני ועוד.
  • חילוץ מידע מחוזים, הודעות דואר אלקטרוני, חשבונית, הזמנות ועוד.
  • סיווג תוכן בקטגוריות הרצויות (לדוגמה, אם הודעת דואר אלקטרוני היא הזמנה, תלונה או החזרה).
  • ניתוח סנטימנט של טקסט נתון (לדוגמה, זיהוי סנטימנט של סקירת מוצר).

בכל המקרים הללו, המשתמשים אחראים לתוצאה הסופית של המערכת. הם נדרשים לסקור את התוכן שנוצר כדי לאתר אי-דיוקים פוטנציאליים של חוסר שלמות לפני השימוש בו.

כיצד הוערך המוכנות של תכונת ההנחיות? אילו מדדים משמשים למדידת ביצועים?

הערכת יכולת זו כרוכה בבדיקות מקיפות במגוון רחב של פרמטרים של בטיחות. בדיקה זו מבטיחה שהתכונה תתואם לתקנים ולעקרונות של הארגון שלנו ליישום אחראי של בינה מלאכותית. השירות גם מבצע הערכה מתמשכית עבור פגיעויות אפשריות. מדדי הביצועים שבהם אנו משתמשים מערבים בעיקר את יעילות סינון התוכן ואת מידת ההסכם בין אדם למחשב בתוכן מסונן לעומת תוכן לא מסונן.

איזה סוג של בקרת תוכן מיושם עבור הנחיות?

מודלי השפות הנהדרים מתרגלים לנתונים באינטרנט, וזה נהדר לבניית מודל עולמי כללי. בו-זמנית, הוא יכול לרשת תוכן רעיל, מזיק והטיה מאותם מקורות. המודלים מאומנים להתנהג בבטחה ולא מייצרים תוכן מזיק (שנאה והוגן, מיניות, אלימות, פגיעה עצמית), אך לפעמים הוא יכול ליצור פלט רעיל. בקשות של בונה תרחישים ממנפות את שירות Azure AI Content Safety כדי להטמיע יכולות מתקדמות של פיקוח על תוכן בתוך ההנחיות של הבינה המלאכותית. הדבר כולל שירותים לניתוח הפלט שנוצר באמצעות סורקים לתוכן מזיק ברמות חומרה שונות ובטיחות מפני מתקפות הזרקת פקודות. הפלט נסרק גם לregurgitation של חומר מוגן.

יצרנים יכולים לקבוע את התצורה של רמת קביעת התוכן לתוכן מזיק בלבד. נחיה נמוכה יותר מגדילה את הסיכון לתוכן מזיק בתגובות הבקשה. מתינות גבוהה יותר מקטינה את הסיכון, אך עשויה להפחית את מספר התגובות.

קבל מידע נוסף ברמת אירוח תוכן.

מהן המגבלות של תכונת ההנחיות? כיצד יכולים המשתמשים למזער את ההשפעה של מגבלות בקשה בעת שימוש במערכת?

השימוש בטכנולוגיה זו חייב להיות בהתאם לדרישות ב- קוד ההתנהגות עבור Azure OpenAI Service. אין להשתמש בטכנולוגיה זו ליצירת תוכן הקשור להפצה פוליטית, לדיבור שנאה, להצגה מוטעית, לפגיעה עצמית, להפלות, חומרים מיניים מפורשים או תוכן אחר שנאסר על-ידי קוד ההתנהגות. יישומים לא נתמכים של טכנולוגיה זו כוללים מתן ייעוץ, שימוש להנחיות משפטיות, פיננסיות, הקשורות לבריאות או תחזיות עתידיות, וכן חישובים פיננסיים, מדעיים או מתמטיים וכל שימוש אחר שאינו נתמך המוזכר ב- הערת שקיפות עבור Azure OpenAI Service.

תוכן שנוצר על-ידי בינה מלאכותית יכול לכלול טעויות, ולכן יצרנים צריכים ליידע את משתמשי הקצה של הפתרון שלהם שבינה מלאכותית יוצרת את יצירת התוכן על-ידי מודל זה בצורה שקופה. תקשורת ברורה של תוכן שנוצר מסייעת במניעת תלות יתר. היוצרים צריכים גם להפיכתו לאפשרות של שלב הסקירה האנושית כדי לוודא שהתוכן שנוצר על-ידי בינה מלאכותית מדויק שמתאים לפני השימוש בו.

אילו גורמים והגדרות תפעוליות מאפשרים שימוש יעיל ואחראי במערכת?

התוכן שנוצר על-ידי מודל הבינה המלאכותית הוא רבי-ערך בטבע, ולכן תגובות המודל עשויות להשתנות בהתאם לאותה בקשה. התגובה שנוצרה עשויה להיות שגויה או מטעה ועלולה לגרום לתוצאות לא מכוונות מהזרימה או מהיישום. לדוגמה, לקוחות עסקיים עשויים לקבל מידע, המלצות או תמיכה שגויים או שגויים. היוצרים צריכים ליישם פיקוח אנושי משמעותי בזרימות ובאפליקציות שלהם, ולבחון את ההנחיות שלהם לגבי הפוטנציאל להוביל ליצירת התנהגויות מזיקות או לתוכן אסור כמפורט בקוד ההתנהגות של Microsoft. מפתחים עם קוד נמוך צריכים גם להיות שקופים לגבי השימוש בבינה מלאכותית באפליקציות שלהם ותזרימות כדי ליידע את המשתמש העסקי, המציין שבינה מלאכותית יוצרת את התוכן. בנוסף, ייתכן שתגובות שנוצרו לא יתאימו לציפיות של מפתח קוד נמוך עקב הגבלות אורך, סינון תוכן או בחירת מודל.

כיצד נקרא מודל GPT, היכן הוא מתארח וכיצד ניתן לגשת אליו?

בונה ההנחיות תומך במודלים של GPT 4.1 mini, GPT 4.1 ו- GPT 5, המתארחים בשירות ה-Azure OpenAI. באפשרותך לגשת למודלים אלה באמצעות ההנחיות ברחבי Power Platform, באפליקציות, בזרימות ובהודעות.

קבל מידע נוסף מה חדש ב- Azure OpenAI Service?

האם הנתונים שלי משמשים לתרגל או לשפר את מודלי השפה גדולים הזמינים בבונה ההנחיות?

מניעי בונה המניעים מתבצעים על שירות Azure OpenAI המתארח על ידי Microsoft. נתוני לקוחות אינם משמשים להכשרת מודלי הבסיס של Azure OpenAI Service או לשיפורם. Microsoft אינו משתף את נתוני הלקוח שלך עם ספק חיצוני, אלא אם תעניק הרשאה לעשות זאת. בקשות הלקוח (קלט) עם הנתונים המשויכים שלה ותגובות המודל (פלט) אינן משמשות לתרגל או לשפר את מודלים בסיסיים של Azure OpenAI Service.

האם התוכן שנוסף לפעולה 'הפעל פקודה' נגיש לציבור?

הכרטיסיה About עבור הפעולה מציינת, פעולה זו מספקת גישה להנחיות שלך באמצעות מודל GPT הפועל ב- Azure OpenAI Service.

ההנחיות שתוסיף ל- הפעל בקשה ב- Power Automate הן פרטיות כברירת מחדל. הם גלויים ושונים רק בתוך הארגון שלך, שאינם נגישים לעולם. ההנחיות הן פרטיות המיועדות לשימוש פנימי בחברה שלך.

בקשות חדשות שנוצרו הן פרטיות כברירת מחדל. משמעות הדבר היא שהם גלויים ושניתנים לשימוש ב- Power Automate, Power Apps ו- Microsoft Copilot Studio רק על-ידי האדם שיצר אותם. הדבר מאפשר לי היצרן את הזמן לבדוק ולהעריך אותן באפליקציות או בזרימות עבודה ולהבטיח את הדיוק שלהם לפני שיתוףן.

אם ברצונך שמשתמשים אחרים של הסביבה או הקבוצות ישתמשו בבקשה שלך Power Apps או Power Automate, עליך לשתף אותם.

קבל מידע נוסף בשיתוף הבקשה שלך.

כיצד תמונות של אנשים מעובדים בהנחיות של בונה ההנחיות?

בונה בקשות אינו מיועד לשמש לזיהוי אנשים בהתבסס על תכונות הפנים או הנתונים הביומטריים. בעת שליחת תמונות המכילות אנשים במחולל בקשות, המערכת מחילה באופן אוטומטי תכונה של טשטוש פנים לפני שהיא מנתחת את התמונות, כדי להגן על פרטיות הפרט. שלב טשטוש זה עוזר לטפל בחששות בנושא פרטיות על-ידי מניעת זיהוי בהתבסס על תכונות הפנים. עם טשטוש, אין צורך בזיהוי פנים או בהתאמה של תבניות פנים. במקום זאת, כל זיהוי של אנשים ידועים מסתמך על רמזים הקשריים, כגון מדים או הגדרות ייחודיות, ולא על פניהם. אמצעי פרטיות זה לא אמור להשפיע על איכות התוצאות שאתה מקבל. לעתים יש הפניה לטשטוש פנים בתגובות המערכת.

קבל מידע נוסף בטשטוש פנים.

פגיעה פוטנציאלית בעת שימוש בתמונות או במסמכים בהנחיות

בונה ההנחיות מצמצם את רוב הסיכונים הכרוכו בשימוש בתמונות או במסמכים בהנחיות, אך סיכונים מסוימים עדיין דורשים טיפול נוסף מיצירת הבקשה:

  • תמונות או מסמכים יכולים להכיל טקסט מזיק או פריטים חזותיים שעשויים להשפיע על התהליכים שלך במורד הזרם.
  • תמונות או מסמכים יכולים לכלול הוראות מיוחדות שעשויות להיות מוסתרות שעלולות לסכן את הבקשה הראשונית או לעקוף אותה.
  • תמונות או מסמכים יכולים להכיל הוראות שעלולות להוביל ליצירת תוכן הכלול בקניין רוחני (IP).
  • בקשות יכולות להפיק הערות מוטות בתמונות או במסמכים.
  • חילוץ מידע מתמונות או ממסמך באיכות נמוכה עלול להוביל למידע שגוי, הידוע גם בשם הזיה.

כיצד מודל o3 שונה מהמודלים של GPT?

מודל o3 בולט ממודלים של GPT בעיקר בשל יכולות הנמקה המתקדמות שלו. הוא יוצר שרשראות מחשבה פנימיות מפורטות לפני תגובה, מה שמוביל לביצועים משופרים במשימות מתמטיות, קידוד וניתוח. עם זאת, גישה זו התוצאה של דרישות חישוביות מוגברות ושעות תגובה איטיות יותר בהשוואה למודלים של GPT. GPT-4o או GPT-4.1, לדוגמה, מצטיין במטלות שפה כלליות ומספק תגובות מהירות וחסכוניות, מה שהופך אותו למתאים ליישומים שבהם הפלט המהיר הוא חיוני.

מהן בקשות ופונקציות בינה מלאכותית?

הנחיות

בקשות מעניקות לי יצרנים את החופש להנחות את מודל השפה הגדול (LLM) לפעול בדרך מסוימת, או לבצע משימה ספציפית. על-ידי יצירת בקשה בקפידה, באפשרותך ליצור תגובות שמתאימות לצרכים העסקיים הספציפיים שלך. פעולה זו הופכת את מודל ה- LLM לכלי גמיש לביצוע משימות שונות.

לדוגמה, באמצעות מודל שפה, בקשה יכולה להדריך את המודל לענות על שאלה, להשלים טקסט, לתרגם שפות, לסכם מסמך ולזהות משימות, משימות לביצוע ופריטים של פעולה בטקסט. המורכבות של בקשה מותאמת אישית יכולה להיות בטווח ממשפט אחד ועד למשפט מורכב יותר, בהתאם לפעילות.

פונקציות בינה מלאכותית

פונקציות בינה מלאכותית שנבנו מראש הן בקשות שתצורתן תקבעו מראש על-ידי Microsoft צוות הבינה המלאכותית כדי לסייע לי יצרנים בביצוע משימות נפוצות בקלות. הם מציעים יכולות בינה מלאכותית מוכנות לשימוש במקרי שימוש שונים, מה שמפשט את חוויית היוצרת כדי להשתמש בבינה בפתרונות שלהם.

לדוגמה, בקשה שנבנתה מראש של מודל שפה עשויה להיראות כך:

חלץ כרשימה ממוספרת את נקודות הפעולה מתוך: [TextToExtract]

במקרה זה, המשתמש צריך רק לספק את הטקסט ממנו [TextToExtract] הוא רוצה לחלץ נקודות פעולה. ההנחיה שנבנתה מראש מטפלת בשאר.