Microsoft 365 Copilot: סיכונים במרחב הארגוני
דמיינו את Microsoft 365 Copilot כמנהל מופע קרקס חדשני שמבטיח לייעל את העבודה, אבל בפועל נותן לכל ליצן גישה בלתי מוגבלת למאחורי הקלעים. הוא משלים משפטים כמו אמן טרפז, משחרר מידע בלי לבדוק הרשאות, ומאמין לכל תוקף שמשכנע אותו לבצע Prompt Injection כמו קוסם עם טריק ישן. אם לא תגבילו את הגישה עם DLP ואפשרויות Conditional Access, הוא עלול להפוך את הדאטה הארגוני ללהטוט פתוח לכל עובר ושב. בכדי שלא נמצא את עצמנו במופע אימים של AI Data Harvesting, חובה לוודא ש Microsoft 365 Copilot נשאר מאחורי חבל הביטחון ולא נותן לכל פעלולן מידע מסווג.
כידוע, Microsoft 365 Copilot משנה באופן מהפכני את פרודוקטיביות של סביבת העבודה – עד כאן לא חדש. לצד זה הוא מציב אינספור שאלות וסוגיות אבטחה: האם Microsoft 365 Copilot מספיק מאובטח? כיצד ניתן לאזן בין חדשנות טכנולוגית לבין הגנה אפקטיבית? וזאת, כאשר ארגונים משקיעים בהקמת ורכישת תשתיות מחשוב מתקדמות, האתגר האמיתי טמון בהבטחת הסייען המונע מבינה מלאכותית מפני איומי סייבר מתפתחים.
המאמר, ״Microsoft 365 Copilot: סיכונים במרחב הארגוני״ הוא חלק מתוך מאמרי AI Security ומביא תובנות, פרטיקות והמון מידע מהשטח.
חשוב לומר, מרחב פעילות התקיפה שהיה בעבר פתוח לכל ניסיון מול Microsoft 365 Copilot מצטמצם עם הזמן, למה? ביום רגיל Microsoft 365 Copilot מקבל מיליונים רבים של הנחיות, יותר מכל מודל או Copilot אחר. לכן, זה שם אותו במקום למידה מתקדם מאוד. עדיין, כמו בכל מצב אחר, שוום מערכת אינה חסינה ויש מה לשפר.
סיכוני AI, חשוב?
סיכונים הינם מרכיב קריטי עבור כל ארגון וכל מנהל אבטחת מידע, ובפרט כאשר מדובר באבטחת AI. מדוע? משום שאלה הצעדים הראשונים של הבינה המלאכותית בארגונים, והתמודדות עם אתגרי אבטחה שעדיין אינם מוכרים לחלוטין. זה לא בגדר המלצה – אלא הכרח אסטרטגי.
בשנה הקרובה (2025) צפוי גידול משמעותי באימוץ כלי בינה מלאכותית, דוגמת Microsoft 365 Copilot, לשיפור פרודוקטיביות, אוטומציה וייעול תהליכי עבודה והרבה אחרים. עם זאת, לצד ההזדמנויות, טמון בכך גם סיכון מהותי – מערכות AI שאינן מאובטחות עלולות להוביל לחשיפת מידע רגיש, הפרות רגולטוריות והגברת האיומים הקיברנטיים, לרבות מתקפות פנימיות מתוחכמות.
האבטחה של AI חורגת מעבר להגנה על מידע בלבד – היא מהווה אבן יסוד בשמירה על מוניטין הארגון, יציבותו הפיננסית והמשכיותו העסקית. כדי להבטיח שילוב מאובטח של מערכות AI, יש צורך בגישה רב שכבתית הכוללת שיתוף פעולה הדוק עם צוותי האבטחה, לצד פריסה של פתרונות מתקדמים לניהול, ניטור ותגובה בזמן אמת. רק באמצעות אסטרטגיית אבטחה מקיפה ניתן למזער ולצמצם את חשיפת הנתונים ולמקסם את היתרונות של AI באופן בטוח ואחראי.
האם AI הוא כלי אסטרטגי או סיכון עסקי?
בשנת 2025, מרבית הארגונים יאמצו פתרונות מבוססי בינה מלאכותית לצורך פרודוקטיביות של משתמש קצה, ייעול תהליכים, אוטומציה של אבטחה ועוד. אך יחד עם יתרונותיו, AI מרחיב את שטח התקיפה ומחייב אסטרטגיית חדשה. מערכות AI מעבדות כמויות עצומות של מידע רגיש, ולכן יש ליישם בקרות גישה קפדניות, ניהול הרשאות, ופיקוח על גישות מבוססות הקשר (Context Aware Access Controls) ואמצעי אבטחה נוספים.
אילו סיכונים נובעים משימוש ב AI ללא הגנות מתאימות?
אימוץ מערכות AI ללא בקרות אבטחה קפדניות עלול להוביל לדליפות מידע רגיש, הפרת רגולציות מחמירות (כגון GDPR / NIST AI RMF), ולהגברת הסיכון להתקפות. איומי סייבר המתמקדים ב AI כוללים בין היתר:
- מניפולציה של נתונים ללימוד תובנות שגויות (Model Poisoning)
- ניצול לרעה של מודלים לשאיבת מידע – (Prompt Injection & Data Exfiltration)
- שינוי מינימלי בקלט לצורך עקיפת מנגנוני האבטחה – (Adversarial Attacks)
הגנת המוניטין והמשכיות
עבור מנהלי מערכות מידע ומובילי אבטחת סייבר, אבטחת Microsoft 365 Copilot אינה מסתכמת בהגנה על נתונים בלבד – היא חומת הגנה קריטית לשמירה על מוניטין הארגון, יציבות פיננסית והמשכיות עסקית. בתקופה שבה AI הופך לחלק אינטגרלי מהפעילות הארגונית, כל פרצת אבטחה עלולה להוביל לאובדן אמון הלקוחות, חשיפה משפטית ורגולטורית, ונזק כלכלי משמעותי.
מבט מלמעלה על סיכוני האבטחה של Microsoft 365 Copilot
Microsoft 365 Copilot מציף את השאלה המרכזית: האם אנו מתמודדים עם איומים חדשים לגמרי או עם גרסה מתקדמת של סיכונים מוכרים? התשובה אינה חד משמעית – Microsoft 365 Copilot לא יוצר איומים מאפס, אלא מרחיב את שטח התקיפה בכך שהוא משלב בין מודלים, נתונים רגישים ותהליכי אוטומציה חכמים. חלק מהאיומים שהוא מביא איתו נשענים על עקרונות סייבר ואבטחת מידע קיימים, מעט חדשים, אך קיומו של AI משנה את דפוסי התקיפה ומעצים חולשות קיימות ואף כאלה שאינן מוכרות.
כמו שאני תמיד אומר, Microsoft 365 Copilot לא רק מחבר בין מערכות – הוא מחבר בין נקודות: בין אם זה נקודות גלויות – תשתיות קיימות, הרשאות גישה, ניהול זהויות, ושיטות התקיפה הידועות. לבין הנקודות האפורות – חולשות לא גלויות, גישות ישירות/עקיפות למידע, ודרכים חדשות שבהן ניתן לנצל AI להרחבת ההתקפה.
האתגר הוא לא רק להבין איך Microsoft 365 Copilot פועל, אלא איך תוקפים יפרשו את השימוש בו וינצלו את החיבורים החדשים שהוא יוצר. בדיוק כמו שתוקפים בעבר למדו לנצל שירותי ענן, API, ותהליכים אוטומטיים, כעת הם יחפשו את הדלתות האחוריות במודלים שמנהלים את המידע שלנו.
אז מהם הסיכונים של Microsoft 365 Copilot? טוב, אין תשובה מוחצת, עדיין משהו שאפשר להתחיל ממנו.
סיכוני AI משתרעים על פני סוגים שונים החל מבעיות של זליגת מידע (Data Leakage), הרצות וניצול Prompt Injection, והטיות במודלים (Model Bias) המסכנות את שלמות הנתונים. הגדרת סיכוני AI יכולה להתבצע תחת מודל Zero Trust AI, המשלב Risk Based Authentication, בקרות גישה אדפטיביות (Adaptive Access Control) וניטור התנהגותי (UEBA).
בייסליין אבטחה חייב להיות אחיד ומתודולוגי, כלומר אפשר להשתמש בין היתר, בבקרות Data Provenance, והצפנה הומומורפית למניעת עיבוד מידע רגיש בגישה לא מבוקרת. במילים פשוטות יותר, כדי למנוע דלף מידע, מתקפות על מודלים (Adversarial Attacks), וכן חשיפה לא מבוקרת – אבטחת AI חייבת להתבסס על Data Provenance והצפנה הומומורפית. Data Provenance מספק שרשרת אמון (Chain of Trust) באמצעות מעקב אחר מקור הנתונים, מניעת Data Tampering, וזיהוי Poisoned Data שיכול להשפיע על תוצאות המודל.
שימוש בהצפנה הומומורפית (Homomorphic Encryption) מאפשר עיבוד מידע רגיש במצב מוצפן, כך שגם אם המידע נתון לגישה חיצונית במהלך עיבוד, התוכן עצמו לא נחשף. כך ניתן להבטיח Least Privilege AI Processing, שבו כל מודל או משתמש יכול לגשת רק למידע ההכרחי עבורו, ללא גישה ישירה לנתונים גולמיים.
גישה זו מצמצמת סיכוני AI ארגוני ומורידה את וקטור התקיפה.
כדי לבנות מסגרת אחידה, יש להכיר בכך שנתונים רגישים אינם רק PII או מידע מסחרי, אלא כל מידע שעלול להוות Tactical Threat Intelligence בידי יריב מתוחכם. לכן, צריך לשאול: מהם נתונים רגישים? הם אינם רק מידע סטטי אלא תלוי הקשר (Context-Aware Sensitivity). המידע הופך למסוכן לא רק בשל התוכן הגלוי, אלא בשל יכולת החיבור שלו לקורלציה אל מאגרי מידע נוספים.
ארגון שמתייחס ברצינות לסיכוני בינה מלאכותית מטמיע גישה אסטרטגית לניהול סיכונים המשלבת שקיפות מובנית במודלים (Explainability by Design) המבטיחה הבנה ופיקוח על החלטות ה AI לצד מערכות לניטור איומים באופן רציף (Continuous Threat Modeling) הממפות את שטח התקיפה של המודל ומזהות חולשות אבטחה בזמן אמת בנוסף לכך נדרשת יכולת תגובה אוטומטית כנגד התקפות אדברסריות (Automated Adversarial AI Defense) המאפשרת ניטרול איומים כמו Model Poisoning, Prompt Injection ו-Inference Attacks לפני שהם פוגעים בשלמות ואמינות המערכת תוך שמירה על מסגרת Zero Trust AI ואכיפת אבטחת מידע פרואקטיבית.
במקרה הזה של Microsoft 365 Copilot אין אפשרות לברוח ממודל האחריות המשותף. שכן, התשתית של Microsoft 365 Copilot מוגדרת עם גבולות ברורים (כלי אבטחה, בקרות ומדיניות) שמבצעים אכיפה מתקדמת. עם זאת, צריכים להבין שהארגון קצה עדיין מחזיק באחריות נוספת – כל מה שיוצא מהתחנה הוא באחריות הישירה של הלקוח קצה (הסביבה/הארגון).

סקירת סיכונים של Microsoft 365 Copilot
לאחרונה הרצתי תריסרים רבים של פעולות מול סביבות מבצעיות, החל מבדיקות אבטחה (היבטי משתמש קצה + סרוויס), כתיבת מסמכי מדיניות ל AI, דרך אפשרויות ניטור ועד איפיון צורות עבודה של משתמשי קצה – מתוך כל הטוב הזה הוצאתי לא מעט מידע מעניין כולל סיכונים.
התרשים המצורף מתאר את הסיכונים המובילים אל מול Microsoft 365 Copilot. התרשים מציג דירוג של הסיכונים העיקריים בשימוש בתשתית Microsoft 365 Copilot, לפי רמת חומרה (Risk Severity), מרמת חומרה נמוכה עד גבוהה. הסיכון המוביל כרגע (נכון לפברואר 2025) הוא Data Exposure – חשיפת נתונים, בעיקר עקב הרשאות יתר (מוכר כבעיית OverSharing).
הנתונים המופיעים במאמר מבוססים על מספר סביבות מבצעיות ונאספו מתוך פעולות משתמשים, פעולות צוותי פיתוח, בדיקות אבטחה, ועוד. המידע נשלף ונותח באמצעות פוורשל, תוך סיכום הנתונים במטרה לספק הבנה טובה יותר של אופן הופעת הסיכונים בפועל. סיכוני האבטחה המוזכרים מבוססים על OWASP Top 10 LLM והקשרים מול Microsoft 365 Copilot. יש לציין כי רמות הסיכונים עשויים להשתנות בין סביבות שונות, אך סוגי הסיכונים עצמם רלוונטיים לכל סביבה בה נעשה שימוש במערכת Microsoft 365 Copilot.

הסיכון: חשיפת מידע
Microsoft 365 Copilot מבוסס על גישה למידע ארגוני רוחבי הנמצא במרחב הכלים הקיימים של Microsoft 365 ובפרט בגישה אל Microsoft Graph, וזאת במטרה להציע תובנות והשלמות תוכן, אך תוקף בעל גישה מסוימת למערכת (אפילו ברמת משתמש רגיל) יכול לבצע מתקפות Data Harvesting ולחשוף נתונים רגישים באמצעות שאילתות עוינות ומניפולציות מגוונות, לעיתים גם הנחיות בסיסיות יספיקו. במקרים בהם הרשאות הגישה לא מוגדרות היטב, Microsoft 365 Copilot עלול להציע תוכן מסווג, נתונים עם חשיפה גבוהה או נתונים מסווגים גם למשתמשים שאינם מורשים, תוך דליפת מידע לא מבוקרת. כמו גם, משתמש פנימי או תוקפים יכולים להשתמש בטכניקות Inference Attacks כדי להרכיב מידע חסוי מתוך תשובות לגיטימיות של המערכת.
כידוע, התשתית של SharePoint Online חושפת מספר בעיות פשוטות ומורכבות כאחד שמגיעות מתוך צורת העבודה של התשתית ואופי העבודה של משתמשי קצה. במקרים לא מעטים, אופי עבודה שאינו נמנע. איך נראים בעיות תצורה בתשתית SharePoint Online? התרשים הבא נותן מבט מלמעלה על בעיות מרכזיות בלבד שמביאות לחשיפת מידע – בעיה זאת נובעת בתצורות שגויות – OverSharing.

טיפ: במקרים מסוימים, הפוליסי בתשתית SharePoint Online אינו סוגר את כל הקצוות ולכן ישאיר חשיפות.
הסיכון: הזרקת הנחיות ופקודות (Prompt Injection)
Microsoft 365 Copilot מתבסס על אינטגרציה עמוקה עם Microsoft Graph API לצורך שליפת נתונים והעשרת חוויית המשתמש, אך מנגנוני OAuth 2.0 Authorization Flow עלולים להוות יעד לתוקפים המנסים למנף Token Exploitation לצורך Session Hijacking או Privilege Escalation.
בתרחישים מתקדמים, תוקפים יכולים לבצע Token Theft Attacks על ידי גניבת Refresh Tokens או Access Tokens, תוך ניצול פגמים בתצורת ה-Consent Model של Azure AD. לאחר השגת טוקן תקף, תוקף יכול לבצע API Enumeration Attacks ולחשוף Attack Surfaces בלתי מוגנים בתוך ה-Graph API, מה שמאפשר Discovery of Sensitive Endpoints והרחבת תקיפה.
יתרה מכך, שימוש בטכניקות Overprivileged Token Abuse יכול לאפשר Lateral API Movement, שבו טוקן שנגנב משמש לאינטראקציה עם ממשקים נוספים מעבר להרשאות הצפויות, תוך כדי Access Scope Expansion. מתקפות מסוג Covert API Invocation מאפשרות לתוקף להפעיל שאילתות זדוניות ולהפיק מידע רגיש ללא חשד, במיוחד אם לא נעשה שימוש במדיניות Conditional Access מחמירה או Anomalous Token Detection.
הסיכון: Shadow AI
אמנם סיכון ה-Shadow AI ב-Microsoft 365 Copilot נתפס כנמוך ביחס לשירותי AI חיצוניים, אך הוא עדיין קיים ומהווה וקטור תקיפה פוטנציאלי. מנגנון Copilot פועל תחת מגבלות הרשאה מובנות, אך אי-פיקוח IT על שימוש מבוזר עשוי להוביל לחשיפת נתונים בלתי מבוקרת ולזליגת מידע מחוץ לגבולות הארגון.
מהות האיום
בתרחישי Shadow AI Adoption, משתמשים יכולים להפעיל את Copilot או לשלב פתרונות AI צד-שלישי מחוץ למעטפת האבטחה של Microsoft Purview ושל Defender for Cloud Apps, תוך כדי Unregulated AI Utilization. שימוש לא מאושר זה מאפשר AI-Powered Data Exfiltration באמצעות LLM-Enabled Bots, המנצלים את הגישה לנתונים ארגוניים למטרות בלתי מבוקרות.
השלכות אבטחה
- Data Fragmentation & Policy Bypass – מערכות AI חיצוניות שאינן נשלטות על ידי מנגנוני IT יכולות לגרום לדילול השליטה על נתונים רגישים, במיוחד כאשר מידע זורם ממערכות מבוקרות לאפליקציות חיצוניות ללא בקרה.
- Unauthorized AI Augmentation – משתמשים יכולים להשתמש ב APIs חיצוניים ולחבר אותם אל Microsoft 365, מה שעלול להוביל לLoss of Data Governance ולדליפת מידע שאינו מוגן במדיניות ארגונית.
- AI-Driven Data Exfiltration – ניצול Indirect AI Prompting יכול להוביל לדליפת מידע ללא כוונת זדון (Unintentional Data Disclosure) כאשר משתמשים משתפים נתונים עם מודלים חיצוניים ללא ידיעת מחלקת האבטחה.
- Security Policy Drift – היעדר סטנדרטיזציה של שימוש ב AI מוביל לPolicy Evasion, שבו מנגנוני DLP אינם מזהים תעבורת נתונים חריגה בשל פיזור השימוש בתשתיות AI מחוץ לארגון.
הסיכון: איום פנימי
איומים פנימיים (Insider Threats) הם אחת מהסכנות המתוחכמות והקשות ביותר לזיהוי, שכן הן נגרמות על ידי משתמשים בעלי הרשאות לגיטימיות בארגון. משתמשי קצה, קבלני משנה או גורמים פנימיים אחרים יכולים לנצל את הגישה לממשקי Microsoft 365 Copilot כדי לבצע דליפת נתונים מכוונת, ביצוע ריגול תעשייתי, או חבלה במערכות.
האיום הפנימי ב-Microsoft 365 Copilot נחשב לאחד האיומים המאתגרים ביותר לאיתור מכיוון שהוא מתבצע על ידי גורמים בעלי הרשאות חוקיות בארגון משתמשי קצה קבלני משנה או עובדים בעלי גישה מורחבת יכולים לנצל את המערכת כדי לבצע דליפת מידע ריגול תעשייתי או חבלה מכוונת תוך שימוש בטכניקות מתקדמות
הסיכון של AI-Powered Data Exfiltration בא לידי ביטוי כאשר עובדים עם גישה למידע רגיש משתמשים ב-Copilot כדי להוציא נתונים בהדרגתיות ללא זיהוי באמצעות Low and Slow Exfiltration המאפשרים להעביר כמויות קטנות של מידע לאורך זמן ולמנוע הפעלה של מנגנוני זיהוי חריגות מתקפות מסוג Prompt Manipulation מאפשרות להחדיר שאילתות עקיפות אשר גורמות ל-Copilot להחזיר מידע מסווג ללא אישור מפורש המשתמשים עלולים לנסח שאילתות בצורה חכמה כדי לעקוף בקרות פרטיות ולגרום למערכת לחשוף מידע שלא היה אמור להיות נגיש
גורמים פנימיים עם הרשאות גבוהות יכולים לבצע Privilege Escalation ולבצע חיפושים על מידע שאינו רלוונטי לתפקידם תוך עקיפת מדיניות בקרת גישה מתקפות מסוג Data Poisoning עשויות לגרום לפגיעה במודל Copilot כאשר משתמשים מכניסים נתונים שגויים המשפיעים על הפלט של המערכת ויוצרים תהליכים שגויים העלולים לפגוע בתפקוד הארגון בנוסף לכך AI-Assisted Social Engineering מאפשר לתוקף פנימי לנצל את Copilot כדי לייצר מניפולציות על עובדים אחרים ולגרום להם לחשוף מידע חסוי.
האיום הפנימי מאופיין פעמים רבות בתקיפות Low and Slow בהן התוקפים פועלים בצורה הדרגתית כדי להימנע מזיהוי התקיפה יכולה להתרחש לאורך תקופה תוך שימוש בטכניקות לטשטוש עקבות כולל מחיקת לוגים והסוואת פעולות תחת תהליכים שגרתיים תוקפים עלולים לנצל אוטומציות של Power Automate או לבצע חיפושים מרובים ללא עוררין וכך להוציא מידע קריטי מבלי למשוך תשומת לב.
איך יוצרים מתודולגיית אבטחה לסיכוני AI? איזה כלים קיימים יכולים לסייע? איך מחשבים סיכונים ועוד, במאמרים הבאים.
מאמרים נוספים
למאמרי AI Security בעברית – באתר eshlomo.blog
למאמרים נוספים של AI Security ואיך לתקוף AI באתר Cyberdom







