הערה
גישה לעמוד זה דורשת אישור. אתה יכול לנסות להיכנס או לשנות תיקיות.
גישה לעמוד זה דורשת אישור. אתה יכול לנסות לשנות מדריכים.
מהי הערת שקיפות?
מערכת בינה מלאכותית כוללת לא רק את הטכנולוגיה, אלא גם את האנשים שישתמשו בה, את האנשים שהושפעו מהטכנולוגיה ואת הסביבה שבה היא תיפרס. יצירת מערכת שמתאימה למטרה המיועדת שלה דורשת הבנה של אופן הפעולה של הטכנולוגיה, מה היכולות והמגבלות שלה וכיצד להשיג את הביצועים הטובים ביותר. הערות השקיפות של Microsoft נועדו לעזור לך להבין כיצד טכנולוגיית הבינה המלאכותית שלנו פועלת, את האפשרויות שהבעלים של המערכת יכולים להפוך להשפיע על ביצועי המערכת ועל אופן הפעולה, ואת החשיבות של החשיבה על המערכת כולה, כולל הטכנולוגיה, האנשים והסביבה. נמשיך לעדכן מסמך זה עם התפתחות השירות.
הערות השקיפות של Microsoft הן חלק ממאמץ נרחב יותר ב- Microsoft לתרגל את עקרונות הבינה המלאכותית שלנו. לקבלת מידע נוסף, ראו את עקרונות הבינה המלאכותית של Microsoft.
יסודות Microsoft 365 Copilot
מבוא
Microsoft 365 Copilot הוא כלי פרודוקטיביות שמו פועל באמצעות בינה מלאכותית המשתמש במודלים גדולים של שפות (LLMs) ומשלב נתונים עם האפליקציות והשירותים של Microsoft Graph ו- Microsoft 365. הוא פועל לצד יישומי Microsoft 365 פופולריים כגון Word, Excel, PowerPoint, Outlook, Teams ועוד.
Microsoft 365 Copilot משתמש בשילוב של דגמים שסופקו על-ידי Azure OpenAI Service ו- Anthropic. הדבר מאפשר לנו להתאים את הצרכים הספציפיים של כל תכונה – לדוגמה, מהירות, יצירתיות – למודל הנכון, כך ש- Microsoft 365 Copilot יכול לספק סיוע חכם בזמן אמת המאפשר למשתמשים לשפר את היצירתיות, הפרודוקטיביות והמיומנויות שלהם.
לקבלת מידע מפורט נוסף אודות ה- LLMs שסופקו ל- Microsoft על-ידי OpenAI, עיין בתיעוד הציבורי שלהם, הזמין ב- Models - OpenAI API.
לקבלת מידע מפורט נוסף על ה- LLMs שסופקו ל- Microsoft על-ידי Anthropic, עיין בכרטיס המערכת של ה-ניחים של ה-ניחים של 4.5.
מונחים עיקריים
| מונח | תיאור |
|---|---|
| הצגת בקשה למשתמש | בקשת משתמש היא הטקסט שנשלח אל Microsoft 365 Copilot לבצע משימה ספציפית או לספק מידע. לדוגמה, משתמש עשוי להזין את הבקשה הבאה: כתוב הודעת דואר אלקטרוני המברךת את הצוות שלי בסוף שנת הכספים. |
| עיבוד | עיבוד של בקשת משתמש ב- Microsoft 365 Copilot כולל כמה שלבים, כולל בדיקת בינה מלאכותית אחראית, כדי להבטיח Microsoft 365 Copilot מספק תגובות רלוונטיות וניתן לפעולה. |
| הארקה | הארקת מתייחסת לתהליך של אספקת מקורות קלט ל- LLM הקשור לבקשת המשתמש. על-ידי Microsoft 365 Copilot גישה לנתונים לשימוש כמקורות קלט – כגון נתונים מ- Microsoft Graph או מ- Bing – Microsoft 365 Copilot עשוי לספק תגובות מדויקות ורלוונטיות יותר למשתמשים. |
| Microsoft Graph | Microsoft Graph הוא השער לנתונים ולבינה ב- Microsoft 365. הוא כולל מידע אודות קשרי הגומלין בין משתמשים, פעילויות ותוני ארגון. |
| מחברים של Microsoft Graph | מחברי Microsoft Graph מציעים דרך להביא תוכן מהשירותים החיצוניים ל- Microsoft Graph, ולאפשר לנתונים חיצוניים להפעיל חוויות חכמות של Microsoft 365, כגון Microsoft Search ו- Microsoft 365 Copilot. |
| יצירת אינדקס | Microsoft משתמשת הן באינדקס לקסי והן באינדקס סמנטי של נתוני Microsoft Graph כדי להניף תגובות Microsoft 365 Copilot נתונים ארגוניים. יצירת אינדקס מפרש את ההנחיות של המשתמשים להפיק תגובות רלוונטיות להקשר. לקבלת מידע נוסף אודות יצירת אינדקס, ראה אופן פעולה של המערכת. |
| בקשה מועשרת | בקשה מועשרת כאשר הוראות נוספות מתווספות לבקשה המוזנת של משתמש כדי להנחות Microsoft 365 Copilot ליצירת תגובה ספציפית ורלוונטית יותר. |
| תוכן של אינטראקציות | המונח המשמש לתיאור הבקשה של המשתמש Microsoft 365 Copilot תגובה לבקשה זו. |
| מודל שפה גדול (LLM) | מודלי שפה גדולים (LLMs) בהקשר זה הם מודלים של בינה מלאכותית שמוכשמים בכמויות גדולות של נתוני טקסט לחיזוי מילים ברצף. ל- LLMs יש אפשרות לבצע מגוון משימות, כגון יצירת טקסט, סיכום, תרגום, סיווג ועוד. |
| תגובת LLM | התוכן שנוצר על-ידי ה- LLM כתגובה לבקשת המשתמש המוחזרת Microsoft 365 Copilot. |
| לאחר העיבוד | עיבוד Microsoft 365 Copilot לאחר שהוא מקבל תגובה מ- LLM. לאחר העיבוד כולל קריאות הארה נוספות ל- Microsoft Graph, לבינה מלאכותית אחראית, לאבטחה, לתאימות ולבדיקת פרטיות. |
| יישום אחראי של בינה מלאכותית | שיטות העבודה של Microsoft בנושא בינה מלאכותית, מחקר והנדסיות, הקיימות בעקרונות הבינה המלאכותית שלנו ותפעוליות באמצעות התקן שלנו ליישום אחראי של בינה מלאכותית. |
| Agents | סוכנים מיועדים להפוך תהליכים עסקיים לאוטומטיים ולבצע אותם באמצעות בינה מלאכותית, בהתבסס על הוראות מוגדרות מראש וגישה לנתונים ארגוניים. הם יכולים לסייע או לפעול בנפרד בשם אנשים או צוותים - החל מאינטראקציות פשוטות של בקשות ותגובה וכלה בביצוע משימות באופן אוטומטי. למידע נוסף על השימוש בבינה מלאכותית בנציגי Copilot, עיינו בהצעות אלה ישירות. |
| בדיקת צוות אדומה | טכניקות המשמשות מומחים כדי להעריך את המגבלות והפגיעות של מערכת ולבחון את היעילות של צמצום סיכונים מתוכנן. בדיקות צוות אדומות משמשות לזיהוי סיכונים פוטנציאליים והיא ייחודית מדידה מערכתית של סיכונים. |
יכולות
תכונות
| תכונה | תיאור |
|---|---|
| Microsoft 365 Copilot ב- Word | Microsoft 365 Copilot ב- Word מחוללת שינוי בכתיבה באמצעות יעילות ויצירתיות – כך שהמשתמשים יכולים ליצור, לסכם, להבין, למקד ולרומם מסמכים. המשתמשים יכולים גם להשתמש ביכולות משופרות, כגון הצגה חזותית וה המרת טקסט לטבלה. יכולות אחרות כוללות גם הוספה להנחיות קיימות, יצירת טיוטה של מסמך על-ידי הפניה למסמכים אחרים וגילוי מידע אודות מסמכים. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- Word. |
| Microsoft 365 Copilot ב- PowerPoint | Microsoft 365 Copilot ב- PowerPoint מאפשר למשתמשים ליצור מצגת חדשה מתוך בקשה או Word, באמצעות תבניות ארגוניות. תכונת הצ'אט מאפשרת פקודות סיכום&A ו- Light מאפשרת למשתמשים להוסיף שקופיות, תמונות או לבצע שינויי עיצוב כלל-ארגוניים. ניתן להשתמש גם בקובצי PowerPoint לצורך ביסוס הנתונים (grounding). לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- PowerPoint. |
| Microsoft 365 Copilot ב- Excel | Microsoft 365 Copilot ב- Excel מסייע למשתמשים עם הצעות לנוסחאות, סוגי תרשימים ותובנות לגבי נתונים בגליונות אלקטרוניים. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- Excel. |
| Microsoft 365 Copilot ב- Outlook | Microsoft 365 Copilot ב- Outlook עוזר לנהל את תיבת הדואר הנכנס של הדואר האלקטרוני וליצור תקשורת משפיעה בצורה יעילה יותר. Microsoft 365 Copilot ב- Outlook יכול לסכם רצף תגובות של דואר אלקטרוני, להציע פריטי פעולה, תשובות ופגישות המשך טיפול. הוא יכול גם להתאים את האורך ואת הטון בעת טיוטה של הודעת דואר אלקטרוני. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- Outlook. |
| Microsoft 365 Copilot ב- Teams | Microsoft 365 Copilot Teams יכול לסכם שיחות, לארגן נקודות דיון עיקריות ולסכם פעולות עיקריות. המשתמשים יכולים לקבל תשובות לשאלות ספציפיות ולהתעדכן פריטים שהם החמצת בפגישות או בצ'אט לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- Microsoft Teams. |
| Microsoft 365 Copilot ב- Loop | Microsoft 365 Copilot ב- Loop מאפשר למשתמשים ליצור תוכן שניתן לשפר באופן שיתופי באמצעות עריכה ישירה או עידון על-ידי Copilot. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- Loop. |
| Microsoft 365 Copilot ב- Microsoft Stream | Microsoft 365 Copilot ב Microsoft Stream מסייעת לקבל מידע מכל סרטון וידאו באמצעות תעתיק. Microsoft 365 Copilot ב- Stream לספק סיכום של סרטון הווידאו, לענות על שאלות ספציפיות, לדלג במהירות לנושאים ספציפיים או לנקודות דיון ספציפיות ולזהות שיחות לפעולה. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- Stream. |
| Microsoft 365 Copilot ב- Whiteboard | Microsoft 365 Copilot ב- Whiteboard עוזר להתחיל את תהליך הרעיונות כדי ליצור, לסווג לקטגוריות ולסכם רעיונות. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- Whiteboard. |
| Microsoft 365 Copilot ב- OneNote | Microsoft 365 Copilot ב- OneNote מאפשר למשתמשים ליצור תוכניות טיוטה, ליצור רעיונות, ליצור רשימות ולארגן מידע כדי לעזור להם למצוא את הדרוש להם ביישום OneNote. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- OneNote. |
| Microsoft 365 Copilot Chat | Microsoft 365 Copilot Chat (נקרא בעבר 'צ'אט עסקי') משלב את העוצמה של מודלים של שפה גדולה עם האינטרנט, תוכן העבודה והקשר ואפליקציות אחרות, כדי לעזור למשתמשים ליצור תוכן טיוטה, להתעדכן בפריטים שלא נענו ולקבל תשובות לשאלות באמצעות הנחיות. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Microsoft 365 Copilot Chat. |
| Microsoft 365 Copilot בעורך טקסט עשיר של SharePoint | Microsoft 365 Copilot בעורך טקסט עשיר של Microsoft SharePoint מפשט את יצירת התוכן בדפים ובפרסומים של SharePoint. באמצעות Copilot, באפשרותך לשכתב טקסט, לכוונן את הטון, לדחוס מידע ולפרט רעיונות. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- SharePoint. |
| Microsoft 365 Copilot ב- OneDrive | Microsoft 365 Copilot ב- OneDrive הוא מסייע חדשני המבוסס על בינה מלאכותית, שנועד לעזור לך לקיים אינטראקציה עם המסמכים שלך על-ידי חילוץ מידע, השוואת ההבדלים העיקריים, סיכום קבצים ויפקת תובנות. לקבלת מידע נוסף, ראה שאלות נפוצות אודות Copilot ב- OneDrive. |
| Microsoft 365 Copilot 'מבט מהיר' | כרטיסי מבט מהיר מציעים תצוגה מקדימה מהירה של ישויות עבודה, כגון מסמכים, כדי לסייע בהערכת הרלוונטיות או האחזור. ניתן לגשת אליהם על-ידי ריחוף מעל קבצים בכרטיסיה חיפוש של Microsoft 365 Copilot שלך. |
| חיפוש חכם | חיפוש חכם מאפשר חיפוש באפליקציות Dataverse כגון Dynamics 365 Sales, שירות וכספים & באמצעות שפה טבעית. |
| מחברי Power Platform | מחברי Power Platform מאפשרים ללקוחות לגשת לנתונים בזמן אמת מאוסף של יישומי פרודוקטיביות עסקיים ואישיים Microsoft 365 Copilot אישית. |
| מחברים של Microsoft Graph | מחברי Microsoft Graph מאפשרים חיבורים למקורות נתונים חיצוניים, כולל עד 500 פריטים לכל Microsoft 365 Copilot רשיון. |
| Microsoft Purview | Microsoft Purview הוא פתרון שמסייע לארגונים לנהל את הנתונים שלהם ולהגן על הנתונים שלהם. היא מספקת פלטפורמה מאוחדת לפיקוח על נתונים, הגנה על מידע, ניהול סיכונים ותאימות. לקוחות יכולים להרחיב את יכולות Microsoft Purview שסופקו על-ידי מנויי Microsoft של הלקוחות (לדוגמה, Microsoft 365 E3 או E5) כדי Microsoft 365 Copilot נתונים ואינטראקציות. |
| כוונון Microsoft 365 Copilot | כוונון Microsoft 365 Copilot לארגונים לכוונן מודלי שפה גדולים (LLMs) באמצעות נתוני דיירים משלהם. ניתן להשתמש במודלים אלה כדי לבצע משימות ספציפיות לתחום בהתבסס על הידע הייחודי של הארגון. לקבלת מידע נוסף, ראה שאלות נפוצות בנושא יישום אחראי של בינה מלאכותית כוונון Microsoft 365 Copilot. |
| Microsoft Copilot Studio | Microsoft Copilot Studio היא פלטפורמה רבת-עוצמה לבניית סוכנים מאובטחים, מדרגים וחכם פועלים במערכות Microsoft 365 ומערכות קו פעולה עסקיות. לקבלת מידע נוסף, ראה Copilot Studio כללית. |
| התכונה Agent Builder ב- Microsoft 365 Copilot | התכונה 'בונה סוכן' ב- Microsoft 365 Copilot מספקת ממשק פשוט שניתן להשתמש בו כדי לבנות במהירות ובקלות סוכנים הצהרתיים, באמצעות שפה טבעית או באופן ידני. לקבלת מידע נוסף, ראה בניית סוכן הצהרתי באמצעות Agent Builder ב- Microsoft 365 Copilot. |
| Microsoft 365 Copilot עם סוכן שימוש במחשב | Microsoft 365 Copilot עם סוכן המשתמש במחשב מאפשר לך להפוך משימות דפדפן או משימות שולחן עבודה לאוטומטיות כדי שההנחיות שלך יוכלו להוסיף שימוש בתוכן ובהקשר שלך. מאחר שהסוכן יכול לבצע משימות בשמך, ייתכן שיש סיכון מוגבר לאבטחת המערכת או לפרטיות. כדי לסייע בצמצום סיכון זה, לסוכן יש אמצעי הגנה מרובים, כולל בדיקת בטיחות מונחית-מודל על-פני תוכן ופעולות, וכן בקרות ניהול דיירים המאפשרות או משביתות את סוכן השימוש במחשב ומגבילות את אתרי האינטרנט והתחום שאליהם הסוכן יכול לגשת. מומלץ להחיל פקדים אלה ולנטר את השימוש בסוכן. |
אופן פעולה של המערכת
Microsoft 365 Copilot משתמש בשילוב של LLMs כדי לסכם, לחזות וליצור תוכן. רשתות LLM אלה כוללות מודלים מתורגלים מראש, כגון Generative Pre-Trained Transformers (GPT) כמו GPT-4 ו- GPT-5 מ- OpenAI, ו- קלאוד סונט 4.5 מ- Anthropic, שנועדו להוסיף Excel למשימות אלה.
היכולות שהמשתמשים רואים ביישומי Microsoft 365 מופיעות כתכונות, פונקציונליות ויכולות הצגת בקשות נוספות. תוכניות LLMs וטכנולוגיות קנייניות של Microsoft פועלות יחד במערכת המשמשת תחילה, המסייעת לאנשים לגשת לנתונים הארגוניים שלהם, להשתמש בהם ולנהל אותם באופן מאובטח.
אפליקציות Microsoft 365 (כגון Word, Excel, PowerPoint, Outlook, OneNote, Teams ו- Loop) פועלות עם Microsoft 365 Copilot כדי לתמוך במשתמשים בזרימת העבודה שלהם. לדוגמה, Microsoft 365 Copilot ב- Word מיועד לסייע למשתמשים בתהליך יצירה, הבנה ועריכה של מסמכים. באופן דומה, Microsoft 365 Copilot ביישומים האחרים עוזר למשתמשים בהקשר של עבודתם בתוך אפליקציות אלה.
Microsoft Graphכבר מזמן בסיסי ב- Microsoft 365. הוא כולל מידע אודות קשרי הגומלין בין משתמשים, פעילויות ותוני ארגון. ה- API של Microsoft Graph מספק הקשר נוסף מאותות לקוחות לבקשה, כגון מידע מהודעות דואר אלקטרוני, צ'אטים, מסמכים ופגישות. לקבלת מידע נוסף, ראה מבט כולל על Microsoft Graph ואת השירותים והתכונות העיקריים ב- Microsoft Graph.
Microsoft 365 Copilot Chat מאפשרת ללקוחות להביא תוכן עבודה והקשר ליכולות הצ'Microsoft 365 Copilot של המשתמשים. באמצעות Microsoft 365 Copilot Chat, המשתמשים יכולים ליצור טיוטות של תוכן, להתעדכן בפריטים שהם פספסו ולקבל תשובות לשאלות באמצעות הנחיות פתוחות – כולם מקורקעים בבטחה נתוני עבודה. השתמש Microsoft 365 Copilot Chat במשטחים רבים, כולל בתוך Microsoft Teams, ב- Microsoft365.com, וב- copilot.microsoft.com.
אינדקס סמנטי הוא אינדקס שנוצר מתוכן ב- Microsoft Graph. הוא משמש לסיוע בעיבוד בקשות המשתמשים כדי להפיק תגובות רלוונטיות להקשר. הוא מאפשר לארגונים לחפש מיליארדי וקטורים (ייצוגים מתמטיים של תכונות או מאפיינים) ולהחזיר תוצאות קשורות. האינדקס הסמנטי נועד לכבד את הקשר האבטחה של משתמשים בודדים, ורק תוכן שהמשתמש יכול לגשת אליו מוצג. האינדקס הסמנטי בנוי על הגישה המקיפה של Microsoft לאבטחה, לתאימות, לפרטיות ולכבד את כל הגבולות הארגוניים בדייר של הלקוח. לקבלת מידע נוסף, ראה אינדקס סמנטי עבור Copilot.
להלן הסבר לגבי אופן הפעולה של Microsoft 365 Copilot:
Microsoft 365 Copilot מקבל הודעת קלט ממשתמש ביישום, כגון Word או PowerPoint.
Microsoft 365 Copilot מכן מעבד את הבקשה של המשתמש, דבר המשפר את הספציפיות של הבקשה, כדי לעזור למשתמש לקבל תשובות רלוונטיות וניתן לפעול למשימה הספציפית שלו. הבקשה יכולה לכלול טקסט מקובצי קלט או מתוכן אחר שהתגלה על-ידי Microsoft 365 Copilot באמצעות Microsoft Graph, Microsoft 365 Copilot שולח בקשה זו ל- LLM לעיבוד. Microsoft 365 Copilot רק לנתונים שלמשתמש בודד יש גישה קיימת, בהתבסס על פקדי גישה קיימים המבוססים על תפקידים של Microsoft 365, לדוגמה.
Microsoft 365 Copilot לוקח את התגובה מ- LLM ומעבד אותה לאחר עיבוד. לאחר העיבוד כולל קריאות הארה אחרות ל- Microsoft Graph, בדיקת בינה מלאכותית אחראית כגון מסווגי תוכן, אבטחה, בדיקת תאימות ופרטיות והפקת פקודה.
Microsoft 365 Copilot מחזירה את התגובה לאפליקציה, שבה המשתמש יכול לסקור ולהעריך את התגובה.
הנתונים מוצפנים בזמן שהוא מאוחסן ולא משמשים להכשיר הודעות מיידיות (LLMS) של קרן OpenAI Service Azure Anthropic או Microsoft 365 Copilot. לקבלת מידע נוסף על כך, ראה נתונים, פרטיות ואבטחה עבור Microsoft 365 Copilot.
כיצד Microsoft 365 Copilot תגובות ללא תוכן אינטרנט או נתונים ארגוניים
Microsoft 365 Copilot אינו דורש תוכן אינטרנט או נתונים ארגוניים כדי לספק תגובה, אך מידע זה יכול לעזור לשפר את האיכות, הדיוק ורלבונטיות התגובה שלו. בעת תגובה ללא נתונים באינטרנט או בנתונים ארגוניים, Microsoft 365 Copilot מסתמך רק על ה- LLM שלו כדי להבין בקשות וליצור תגובות. התהליך כרוך בניתוח מבנה הטקסט של הקלט, מינוף ה- Knowledge Base הפנימי של המודל ומיקוד התגובה כדי להבטיח שהיא מתאימה להקשר.
הרחבה והתאמה אישית
התכונה 'בונה הסוכן' ב- Microsoft 365 Copilot ו- Copilot Studio היא כלים לבניית סוכנים מאובטחים, מדרגים וחכם פועלים במערכות Microsoft 365 ומערכות קו פעולה עסקיות. שני הכלים מאפשרים לך ליצור סוכנים, אך הם משרתים צרכים שונים. השתמש בתכונה 'בונה הסוכן' אם ברצונך ליצור במהירות סוכן עבור עצמך או עבור צוות קטן, באמצעות שפה טבעית ותוכן קיים. בחר Copilot Studio אם אתה זקוק לסוכן עבור קהל רחב יותר או אם הסוכן דורש יכולות מתקדמות כגון זרימות עבודה מרובות שלבים או שילובים מותאמים אישית. לקבלת מידע נוסף, ראה בחירה בין Microsoft 365 Copilot לבין Copilot Studio לבנות את הסוכן שלך ונציגים הצהרתיים עבור Microsoft 365 Copilot.
עבור מפתחים, Microsoft 365 Agents SDK מספק את הכלים לבניית סוכנים שמשתלבים באופן עמוק עם אפליקציות ושירותים של Microsoft 365.
מקרי שימוש
Microsoft 365 Copilot הוא שירות מטרה כללית, המיועד לסייע במגוון רחב של משימות יומיומיות בכל ארגון על-ידי התחברות לנתונים בעבודה ושילוב עם האפליקציות שהלקוחות משתמשים בהן מדי יום. לדוגמה:
אינטראקציה ויצירה של צ'אטים ושיחות: משתמשים יכולים לקיים אינטראקציה עם משתמשים Microsoft 365 Copilot Chat וליצור תגובות שצוירו ממסמכים מהימנים, כגון תיעוד פנימי של החברה או תיעוד תמיכה טכנית.
חיפוש: משתמשים יכולים לחפש במסמכי מקור מהימנים כגון תיעוד פנימי של החברה.
סיכום: משתמשים יכולים לשלוח תוכן לסיכום עבור נושאים מוגדרים מראש המוכללים ביישום. דוגמאות לכך כוללות סיכום של צ'אטים, הודעות דואר אלקטרוני, דפי אינטרנט Word צוותים.
סיוע בכתיבה בנושאים ספציפיים: משתמשים יכולים ליצור תוכן חדש או לשכתב תוכן שנשלח על-ידי המשתמש כעזר כתיבה עבור תוכן עסקי או נושאים מוגדרים מראש. לדוגמה, כתיבת הודעות דואר אלקטרוני ב- Microsoft Outlook או כתיבת תוכן ב- Microsoft Word.
כתוביות או תמלול: משתמשים יכולים לתמלל קבצי שמע לטקסט כדי להבין שפה טבעית או משימות אנליטיות כגון סיכום. הדוגמאות כוללות תעתיקי פגישות וסרטוני וידאו של Teams Microsoft Stream.
Microsoft מספקת הדרכה מפורטת המתמקדת במקרים ובתרחישים נפוצים, כדי לעזור ללקוחות להאיץ את השילוב Microsoft 365 Copilot היכולות של הארגון שלהם. קבל מידע נוסף בספריית Microsoft Copilot – Microsoft Adoption.
שיקולים בעת בחירת מקרה שימוש
אנו ממליצים למשתמשים לסקור את כל התוכן שנוצר על-ידי Microsoft 365 Copilot לפני השימוש בו. איכות התגובה והדיוק תלויים במספר גורמים, כולל המודלים שבהם נעשה שימוש. בנוסף, קיימים תרחישים מסוימים שמומלץ להימנע בהם. במקרים מסוימים, פיקוח וסקירה אנושיים בעלי משמעות יכולים להפחית עוד יותר את הסיכון לתוצאות מזיקות.
הימנע משימוש או שימוש לרעה במערכת עלול לגרום לפציעה פיזית או פסיכולוגית משמעותית. לדוגמה, לתרחישים שמבחנים מטופלים או קובעים תרופות יש פוטנציאל לגרום נזק משמעותי.
הימנע משימוש או שימוש לרעה במערכת עשויות להשפיע כתוצאה מכך על הזדמנויות חיים או על מצב משפטי. דוגמאות לכך כוללות תרחישים שבהם מערכת הבינה המלאכותית עשויה להשפיע על המצב המשפטי, הזכויות המשפטיות או הגישה שלהם לזכויות זכות, חינוך, תעסוקה, שירותי בריאות, דיור, ביטוח, הטבות רווחה חברתיות, שירותים, הזדמנויות או התנאים שבהם הם מסופקים.
שקול בקפידה את מקרי השימוש בתחום או בתעשייה בעלי סיכון גבוה. הדוגמאות כוללות אך אינן מוגבלות לרפואה או לכלכלית.
מגבלות
מגבלות ספציפיות של Microsoft 365 Copilot
שילוב ותאימות: למרות ש- Microsoft 365 Copilot מיועד להשתלב בצורה חלקה עם יישומי Microsoft 365, יכולות להיות מגבלות או בעיות תאימות בסביבות מסוימות, במיוחד עם אפליקציות של ספקים חיצוניים (שאינם של Microsoft) ותצורות מותאמות אישית או לא סטנדרטיות.
התאמה אישית וגמישות: למרות שניתן Microsoft 365 Copilot אישית, ישנן מגבלות לגבי ההתאמה האישית שלו כך שתתאים לצרכים ארגוניים ספציפיים או לזרימות עבודה ספציפיות. ארגונים עשויים למצוא תכונות או תגובות מסוימות כדי להיות קשיחים או לא תואמים באופן מלא לדרישות ארגוניות.
תלות בקישוריות אינטרנט: Microsoft 365 Copilot מסתמך על קישוריות לאינטרנט כדי לתפקד. כל הפרעה בקישוריות יכולה להשפיע על הזמינות והביצועים של השירות.
הדרכה והטמעה של משתמשים: שימוש יעיל Microsoft 365 Copilot דורש מהמשתמשים להבין את היכולות והמגבלות שלו. ייתכן שקיים עקומת למידה, ויש לאמן את המשתמשים לקיים אינטראקציה יעילה עם השירות ולהנות ממנו.
עוצמת משאבים: הפעלת מודלים מתקדמים של בינה מלאכותית דורשת משאבים חישוביים משמעותיים, שעשויים להשפיע על הביצועים, במיוחד בסביבות עם אילוצי משאבים. המשתמשים עשויים להיתקל בבעיות השהיה או ביצועים במהלך זמני השימוש המרביים.
שיקולים משפטיים ושיקולי תאימות: ארגונים צריכים לשקול את התחייבויותיהם המשפטיות והתאימות הספציפיות בעת שימוש Microsoft 365 Copilot, במיוחד בתעשיות מוסדרות. Microsoft בודקת דרישות רגולטוריות החלות על Microsoft כספק של הטכנולוגיה וממוענת בהן בתוך המוצר באמצעות תהליך של שיפור מתמשך.
הטיה, סטריאוטיפ ותוכן לא מוארק: למרות ההכשרה האינטנסיבית של OpenAI ו- Anthropic וההטמעה של אמצעי בקרה אחראיים של בינה מלאכותית על-ידי Microsoft הן בהנחיות המשתמש והן בפלט LLM, שירותי הבינה המלאכותית הם שגויים ורבי-ערך. הדבר מקשה על חסימה מקיפה של כל התוכן הבלתי הולם, המוביל להטיה פוטנציאלית, סטריאוטיפים או אי-קדמה בתוכן שנוצר על-ידי בינה מלאכותית. לקבלת מידע נוסף על המגבלות הידועות של תוכן שנוצר על-ידי בינה מלאכותית, ראה הערת שקיפות עבור שירות Azure OpenAI, הכוללת הפניות ל- LLM שמאחורי Microsoft 365 Copilot. לקבלת מידע נוסף על המגבלות הידועות של תוכן שנוצר על-ידי בינה מלאכותית ממודלים של Anthropic, עיין בכרטיס המערכת של Anthropic Sonnet 4.5.
Microsoft 365 Copilot ביצועים
במערכות בינה מלאכותית רבות, הביצועים מוגדרים לעתים קרובות ביחס לדיוק - זאת, באיזו תדירות מערכת הבינה המלאכותית מציעה חיזוי או פלט נכונים. עם Microsoft 365 Copilot, שני משתמשים שונים עשויים להסתכל על אותו פלט ויש להם דעות שונות לגבי האופן שבו הם שימושיים או רלוונטיים, כך שיש להגדיר את הביצועים עבור מערכות אלה באופן גמיש יותר. אנו שוקלים באופן נרחב לבצע את הביצועים כך שהיישום פועל כצפוי על-ידי המשתמשים.
שיטות עבודה מומלצות לשיפור חוויית Microsoft 365 Copilot אישית
כדי לשפר את הביצועים ביחס לדיוק הפלט של Microsoft 365 Copilot, מומלץ שארגונים ישקול את הנקודות הבאות:
כתוב הנחיות טובות. כתיבת הנחיות טובות היא המפתח לקבלת תוצאות טובות יותר באמצעות Microsoft 365 Copilot. בדיוק כמו בטכניקות שיעזרו לאנשים לקיים תקשורת יעילה עם בני אדם, ישנן קווים מנחים שעשויים לעזור למשתמשים לקבל תוצאות טובות יותר באמצעות Microsoft 365 Copilot בעת כתיבת בקשות. לדוגמה: כוללים פרטים, בקשות מבנה, מספקים הוראות חיוביות, איטרציה ויצירה מחדש, ותמיד בודקים ואמת תגובות שנוצרו על-ידי בינה מלאכותית. לקבלת מידע נוסף, ראה קבלת תוצאות טובות יותר עם הצגת בקשה ל- Copilot.
אפשר הפניה לתוכן אינטרנט. מתן Microsoft 365 Copilot לעיון בתוכן אינטרנט יכול לשפר את האיכות, הדיוק וה הרלוונטיות של תגובות Microsoft 365 Copilot שבהן תגובה תנותן תועלת ממידע ציבורי עדכני מהאינטרנט. עם זאת, שים לב כי כאשר Microsoft 365 Copilot מפנה לתוכן אינטרנט, הדבר עושה זאת באמצעות שירות חיפוש Bing ושיטות עבודה לטיפול בנתונים עבור שאילתות חיפוש Bing שונות מהאופן שבו נתונים מטופלים על-ידי Microsoft 365 Copilot. השימוש ב- Bing מכוסה על-ידי הסכם השירותים של Microsoft בין כל משתמש ל- Microsoft, יחד עם הצהרת הפרטיות של Microsoft.
הארך את היסודות ב- Microsoft Graph. Microsoft 365 Copilot בנתונים מ- Microsoft Graph כדי להקרקע תגובות בנתונים ספציפיים לארגון, כגון הודעות דואר אלקטרוני, צ'אטים, קבצים ולוחות שנה. על-ידי הרחבת Microsoft Graph באמצעות נתונים ארגוניים ממקורות כגון מערכות CRM או מאגרי קבצים חיצוניים, ארגונים יכולים לכלול מידע רלוונטי ספציפי להקשר נוסף, המגביר עוד יותר את העשירות והדיוק של תגובות Microsoft 365 Copilot אלה.
מיפוי, מדידה וניהול של סיכונים
כמו טכנולוגיות טרנספורמציה אחרות, נצלת היתרונות של בינה מלאכותית אינה מבוססת על סיכונים, והליבה של תוכנית הבינה המלאכותית האחראית של Microsoft נועדה לזהות סיכונים פוטנציאליים, למדוד את ההפצה שלהם ולבנות צמצום סיכונים כדי לנהל אותם. במדריכים של עקרונות הבינה המלאכותית שלנו והבינה המלאכותית האחראית Standard שלנו, ובנייה של למידה ממוצרי בינה מלאכותית אחרים ושל תשתית צמצום הסיכונים המרכזית שלנו (לדוגמה, בטיחות תוכן של Azure בינה מלאכותית), אנו מבקשים למפות, למדוד ולנהל סיכונים פוטנציאליים ושימוש לרעה ב- Microsoft 365 Copilot תוך שמירה על שינוי השימושים המוטבים שהחוויה החדשה מספקת. בסעיפים הבאים אנו מתארים את הגישה האיטרטיבית שלנו למפות, למדוד ולנהל סיכונים פוטנציאליים.
מפה
ברמת המודל, העבודה שלנו התחילה עם ניתוחים גישוש של GPT-4 בסוף הקיץ של 2022. הדבר כלל ביצוע בדיקות נרחבות של צוות אדום בשיתוף פעולה עם OpenAI. בדיקה זו תוכננה כדי להעריך כיצד הטכנולוגיה העדכנית ביותר ת לפעול ללא כל אמצעי הגנה נוספים שחלים עליה. הכוונה הספציפית שלנו בשלב זה הייתה לזהות סיכונים, ליצור שדרות פוטנציאליות לשימוש לרעה ולזהות יכולות ומגבלות. הלמידה המשולבת שלנו ברחבי OpenAI ו- Microsoft תורמת להתקדמות בפיתוח מודלים, ובבשבילנו ב- Microsoft, הודיעו לנו על ההבנה של סיכונים ותרמו לאסטרטגיות צמצום מוקדם של כל טכנולוגיות הבינה המלאכותית הגנטית שלנו, כולל Microsoft 365 Copilot.
בנוסף לבדיקת צוות אדום ברמת המודל, צוות רב תחומי של מומחים ביצע בדיקות צוות אדום ברמת היישום ב- Microsoft 365 Copilot לפני הפיכתם לזמינים לציבור. תהליך זה עזר לנו להבין טוב יותר כיצד ניתן לנצל את המערכת ולשפר את צמצום הסיכונים. לאחר ההפצה, חוויות הבינה המלאכותית Microsoft 365 Copilot משולבות בתשתית הקיימת של מדידת ייצור ובדיקות של ארגון ההנדסה.
למדוד
בדיקות צוות אדומות יכולות להציג מופעים של סיכונים ספציפיים, אך בקרב משתמשי הייצור יהיו מיליוני סוגים שונים של אינטראקציות עם Microsoft 365 Copilot. בנוסף, אינטראקציות הן הקשריות ולתדירות מרובות, וזיהוי תוכן מזיק בתוך אינטראקציה הוא משימה מורכבת. כדי להבין טוב יותר ול לטפל בפוטנציאל לסיכונים עבור שירותי הבינה המלאכותית הגנטית שלנו, כולל חוויות Microsoft 365 Copilot, פיתחנו הערכות בינה מלאכותית אחראיות ספציפיות לחוויות החדשות של בינה מלאכותית למדידת סיכונים פוטנציאליים כגון שבבירות מהכלא, תוכן מזיק ותוכן לא מואר.
כדוגמה אילוסטרציה, קו צינור המידה האוטומטי החלקי המעודכן עבור תוכן מזיק כולל שני חידושים עיקריים: הדמיות שיחה וביאור אוטומטי של שיחה שאומתה על-ידי בני אדם. תחילה, מומחי בינה מלאכותית אחראית בנו תבניות לתיעד המבנה והתוכן של שיחות שעלולות לגרום לסוגים שונים של תוכן מזיק. תבניות אלה ניתנו לאחר מכן לסוכן שיחה, אשר קיים אינטראקציה כמשתמש היפותטי עם Microsoft 365 Copilot, יוצר שיחות מדומה. כדי לזהות אם שיחות מדומה אלה הכילו תוכן מזיק, בוצעו קווים מנחים המשמשים בדרך כלל מומחים linguists כדי לתייג נתונים ושינו אותם לשימוש על-ידי משתתפים מקצועיים כדי לתייג שיחות בקנה מידה גדול, ולמקד את הקווים המנחים עד שהיה הסכם משמעותי בין שיחות עם תוויות מודל ושיחות עם תוויות אנושיות. לבסוף, השתמשנו בשיחות עם תוויות המודל כדי להבין את היעילות של Microsoft 365 Copilot בהפחתת תוכן מזיק.
קווי הצינור של המידות מאפשרים לנו לבצע מדידה במהירות עבור סיכונים פוטנציאליים בקנה מידה גדול. כאשר אנו מזהים בעיות חדשות במהלך תקופת התצוגה המקדימה ובבדיקה המתמשכת של הצוות האדום, אנו ממשיכים להרחיב ולשפר את ערכות המידות כדי להעריך סיכונים נוספים.
ניהול
כשזיהינו סיכונים אפשריים ולהשתמש לרעה בתהליכים כמו בדיקות צוות אדומות ומדדנו אותם, פיתחנו צמצום סיכונים כדי להפחית את הפוטנציאל לפגיעה. להלן, אנו מתארים כמה מסיכונים אלה. נמשיך לנטר את החוויות Microsoft 365 Copilot לשפר את ביצועי המוצרים ואת צמצום הסיכונים.
הפצה בשלבים, הערכה מתמשכית. אנו מחויבים ללמוד ולשפר את הגישה שלנו ליישום אחראי של בינה מלאכותית באופן רציף ככל שהטכנולוגיות וההתפתחות של המשתמשים מתפתחים. אנו בוצעו שינויים ב- Microsoft 365 Copilot באופן קבוע כדי לשפר את ביצועי המוצר, לשפר צמצום סיכונים קיימים וליישם צמצום סיכונים חדש בתגובה ללמידה שלנו.
הארתקעות בנתונים עסקיים. סיכון ידוע עם מודלים גדולים של שפה הוא היכולת שלהם ליצור תוכן לא מוארק - תוכן שמופיע נכון אך אינו קיים בחומרי מקור. צמצום סיכונים Microsoft 365 Copilot הוא לבסס תוכן שנוצר על-ידי בינה מלאכותית בנתונים עסקיים רלוונטיים שלמשתמש יש גישה אליו בהתבסס על ההרשאות שלו. לדוגמה, בהתבסס על הבקשה של המשתמש, Microsoft 365 Copilot עם מסמכים עסקיים רלוונטיים כדי לבסס את התגובה שלו במסמכים אלה. עם זאת, בסיכום תוכן ממקורות שונים, Microsoft 365 Copilot עשוי לכלול מידע בתגובה שלו שאינו נמצא במקורות הקלט שלו. במילים אחרות, הוא עשוי להביא לתוצאות לא מוארכות. המשתמשים צריכים תמיד לנקוט משנה זהירות ולהשתמש בשיקול דעת מיטבי בעת שימוש בפלט Microsoft 365 Copilot. נקטנו בכמה אמצעים כדי לצמצם את הסיכון שמשתמשים עשויים להשתמש בהתנגדות יתר לתוכן שלא נוצר על-ידי בינה מלאכותית. כאשר הדבר אפשרי, תגובות Microsoft 365 Copilot המבוססות על מסמכים עסקיים כוללות הפניות למקורות עבור משתמשים כדי לאמת את התגובה וללמוד עוד. המשתמשים ניתנים גם עם הודעה מפורשת שהם מקיים אינטראקציה עם מערכת בינה מלאכותית, ונעצים להם לבדוק את חומרי המקור כדי לעזור להם להשתמש בשיקול דעתם הטוב ביותר.
מסווגים מבוססי בינה מלאכותית ומט-הגנה כדי לצמצם סיכונים פוטנציאליים או שימוש לרעה. השימוש ב- LLMs עלול לגרום לתוכן בעייתי שעלול לגרום נזק. דוגמאות יכולות לכלול פלט הקשור לפגיעה עצמית, אלימות, תוכן גרפי, בעיות ביוסיות, חומר מוגן, מידע לא מדויק, דיבור שנאה או טקסט שעשוי להיות קשור לפעילויות בלתי חוקיות. מסווגים כגון אלה הזמינים בבטיחות תוכן בינה מלאכותית ובמטה-הגנה של Azure הם שתי דוגמאות של צמצום סיכונים שהושמו ב- Microsoft 365 Copilot כדי לסייע בהפחתת הסיכון של סוגי תוכן אלה. מסווגים מסווגים טקסט כדי לסמן סוגים שונים של תוכן שעלול להיות מזיק בהנחיות המשתמש או בתגובות שנוצרו. Microsoft 365 Copilot משתמש בסיווגים ובמסנן תוכן המבוססים על בינה מלאכותית. דגלים מובילים לצמצום סיכונים פוטנציאליים, כגון אי-החזרת תוכן שנוצר למשתמש או העברת המשתמש לנושא אחר. Microsoft מציעה פקדים מסוימים לסינון תוכן עבור מנהלי מערכת ומשתמשים, שבהם סינון של תוכן שעלול להיות מזיק או רגיש ב- Microsoft 365 Copilot Chat אינו עונה על צרכיהם. חילוף החומרים כולל מתן הוראות למודל להדריך את אופן הפעולה שלו, כולל כך שהמערכת מתנהגת בהתאם לעקרונות הבינה המלאכותית ולציפיות המשתמשים של Microsoft. לדוגמה, המטה-הגנה עשוי לכלול שורה כגון "נהל תקשורת בשפת הבחירה של המשתמש".
העשרת הנחיה. במקרים מסוימים, הבקשה של משתמש עשויה להיות חד-משמעית. במקרה זה, Microsoft 365 Copilot להשתמש ב- LLM כדי לסייע בבנייה של פרטים נוספים בהנחיה כדי להבטיח שהמשתמשים יקבלו את התגובה שהם מחפשים. העשרת הנחיה כזו אינה מסתסת על ידע כלשהו של המשתמש או החיפושים שבהם הוא היה קודם, אלא ב- LLM.
התערבות של עיצוב וחוויה של משתמש המרכז על-ידי המשתמש. חוויות עיצוב ומשתמשים המרכזות על-ידי המשתמש הן היבט חיוני של הגישה של Microsoft ליישום אחראי של בינה מלאכותית. המטרה היא לשורש עיצוב המוצר בצרכים ובציפיות של המשתמשים. כאשר המשתמשים מקיימים אינטראקציה עם Microsoft 365 Copilot בפעם הראשונה, אנו מציעים נקודות מגע שונות שנועדו לעזור להם להבין את יכולות המערכת, לחשוף בפניהם Microsoft 365 Copilot מופעל באמצעות בינה מלאכותית, ולמסור להם מגבלות.
גילוי בינה מלאכותית. Microsoft 365 Copilot מספקת מספר נקודות מגע לחשיפה משמעותית של בינה מלאכותית, שבהן משתמשים יודעים שהם מקיים אינטראקציה עם מערכת בינה מלאכותית וכן הזדמנויות לקבל מידע נוסף על Microsoft 365 Copilot. לדוגמה, בעת שימוש Microsoft 365 Copilot ביישום Word, תוכן שנוצר על-ידי בינה מלאכותית מקבל לצד הודעה שתוכן שנוצר על-ידי בינה מלאכותית עשוי להכיל שגיאות. העצמת משתמשים באמצעות ידע זה יכולה לעזור להם להימנע מהתסמך על פלט שנוצר על-ידי בינה מלאכותית וללמוד על נקודות החוזק והמגבלות של המערכת.
הוכחת מדיה. עבור כל התמונות שנוצרו באמצעות תכונות העריכה של Designer מתוך Microsoft 365 Copilot, יישמנו אישורי תוכן, הוכחות המבוססים על תקן C2PA, כדי לעזור לאנשים לזהות אם תמונות נערכו או נוצרו באמצעות בינה מלאכותית. ניתן להציג מטה-נתונים מוכחים באתר 'אישורי תוכן'.
משוב והערכה מתמשכת. חוויית Microsoft 365 Copilot בונה על כלי קיים שמאפשר למשתמשים לשלוח משוב על המוצרים שלנו. המשתמשים יכולים לשלוח משוב על תוכן שנוצר על Microsoft 365 Copilot על-ידי שימוש בחלונית שמופיעה לאחר בחירת אגודלים כלפי מעלה או עם אגודלים כלפי מטה בתגובות. המשוב שנשלח על-ידי המשתמשים משמש לשיפור ההצעות שלנו כחלק מהמחויבות שלנו לשיפור ביצועי המוצר. מנהלי לקוחות יכולים לסקור משוב שנשלח מרכז הניהול של Microsoft 365. בנוסף, אנו משפרים ומבחנים ללא התמשך את הביצועים של Microsoft 365 Copilot וסיכונים ספציפיים כחלק מההערכה המתמשכת והשיפורים של השירות. קבל מידע נוסף בנושא מתן משוב על Microsoft Copilot עם יישומי Microsoft 365.
הגישה שלנו למיפוי, למדידה ולניהול של סיכונים תמשיך להתפתח ככל שנלמד עוד, ואנו כבר משתתפים בשיפורים בהתבסס על משוב שקיבלנו מלקוחות.
הערכה ושילוב של Microsoft 365 Copilot עבור הארגון שלך
מיטוב פריסה והטמעה
Microsoft מספקת כלים כגון לוח המחוונים של Microsoft Copilot עבור לקוחות ודוחות של Microsoft 365 מרכז הניהול של Microsoft 365. כלים אלה נועדו לעזור לארגונים למדוד את השימוש, ההטמעה וההשפעה של Microsoft 365 Copilot. לדוגמה:
Microsoft 365 Copilot שימוש מאפשר למנהלי מערכת להציג סיכום של אופן ההטמעה, השמירה והמעורבות של המשתמשים עם Microsoft 365 Copilot. לקבלת מידע נוסף, ראה Microsoft 365 Copilot השימוש.
'ניקוד הטמעה' מציע למנהלי מערכת תובנות לגבי אופן הפעולה של הארגון שלהם עם Microsoft 365 Copilot. הוא מספק ציון בקנה מידה של 100 נקודות, תצוגת לוח מחוונים של נתוני אימוץ ומגמות, וכלי ליצירת סקרי משתמשים כדי לאסוף משוב.
לוח המחוונים ' תובנות חוויה' (תצוגה מקדימה) מציג נתונים על-פני שימוש כדי לספק תצוגה מלאה יותר של חוויית הארגון ב- Microsoft 365, כולל תובנות לגבי הדרכה, אפליקציות בנתוני שירותים ומשוב של משתמשים.
קבל מידע נוסף על Microsoft 365 Copilot
- מבט כולל על Microsoft 365 Copilot
- מערכת Copilot: מוסברת על-ידי Microsoft
- נתונים, פרטיות ואבטחה עבור Microsoft 365 Copilot
- יכולת ההרחבה של Microsoft 365 Copilot
קבל מידע נוסף אודות סוכנים
- Copilot Studio כללית
- בניית סוכן הצהרתי באמצעות Agent Builder ב- Microsoft 365 Copilot
- סוכנים הצהרתיים עבור Microsoft 365 Copilot
- יצירה ופריסה של סוכן באמצעות Microsoft 365 Agents SDK