הפרדוקס של הסתמכות יתר (Overreliance) על מודלים (LLM) ליצירת תוכן: הדרך לניצול חכם
לבינה מלאכותית גנרטיבית יש איומים וסיכוני אבטחה רבים, ועדיין, השמיים לא נופלים!
ככל שנכנסתי (מהיבטי אבטחה) לרשימה של OWASP על מודלים של בינה מלאכותית גנרטיבית ובפרט להסתמכות יתר (Overreliance), המחשבה שעלתה בראשי היא המחשבה שהשתרשה בי כבר בימים הראשונים שבהם ניסיתי את ChatGPT, והיא על כך שהפלטפורמה תחזק את החזקים ותחליש את החלשים. מחשבה שהתעצמה.
לצד היתרונות של שימוש נכון בבינה, עלו מספר תובנות והדבר שנתן אינספור אינדיקציות הוא השילוב של Azure Open AI או ChatGPT מול Microsoft Sentinel במטרה לשפר תחקור וכן Threat Hunting, אומנם יש שיפור קל, אך הוא מגיע רק במקומות מסויימים של מגמות וטרנדים ופעולות שחוזרות שוב ושוב. ומה לגבי חלקים אחרים, כמו העשרות לתחקור? מידע שאינו מדויק עלה פעמים רבות ומשם הגעתי לתובנה שאין אפשרות להסתמכות יתר אלא לשלב בצורה נכונה וחכמה.
כשטביעת הרגל של הבינה המלאכותית ממשיכה להתרחב להיבטים שונים של חיינו, גבולות היכולות שלה נדחפים ללא הרף. תחום אחד שראה צמיחה משמעותית הוא השימוש במודלים (LLMs), כמו GPT-4 ליצירת תוכן. בעוד שמדולים (LLMs) הפגינו יכולות לייצר תוכן קוהרנטי, יצירתי ומותאם במיוחד, יש גם הסתמכות יתרה עליהם. לתלות יתר זו יש השלכות על האיכות, הגיוון והמקוריות של התוכן שאנו צורכים ויוצרים.
מודלים נועדו ללמוד דפוסים מנתונים נרחבים, מה שמאפשר להם ליצור טקסט הדומה מאוד לכתיבה אנושית. תכונה זו היא ללא ספק טרנספורמטיבית, ומאפשרת לצורכים (מתמשים או ארגונים) להגדיל את ייצור התוכן, למשל, לשפר שירות לקוחות באמצעות תגובות אוטומטיות או לספק למשתמשים עזרי למידה. עם זאת, היעילות והדיוק שלהם הובילו להסתמכות יתר, ויצרו אתגרים חדשים שדורשים מענה.
בינה מלאכותית גנרטיבית (GenAI) ומודלים הם טכנולוגיות משבשות, המגדירות מחדש את האופן שבו ארגונים מתנהלים ומעוררות את הדיון עד כמה בינה תשנה את האופן שבו האנשים מתקשרים עם טכנולוגיות ומחשוב בעתיד. לעיתים זה מגיע לממדים אפיים כאשר אנשי טכנולוגיות, מדענים ופרשנים דנים באחרית הימים הניצבת בפני האנושות בשל מחשוב חכם יותר ובעל פוטנציאל פרואקטיבי, ואלי הרסני. במקרה כזה, אולי קצת פרספקטיבה ופרופורציות יסדרו את הדברים – סקיינט עדיין לא כאן.
לבינה מלאכותית גנרטיבית יש תריסרי סיכוני אבטחה, החל מ Prompt Injection ועד Improper Error Handling ורבים אחרים. הרשת מפוצצת בשמות של סיכונים ולא תמיד הכל מדויק, ולעיתים מושג או סיכון חופפים בין אחד לשני.
פרויקט OWASP Top 10 for Large Language Model Applications שהתעדכן לאחרונה אולי יביא את הבשורה ויעשה מעט סדר בבלאגן. הפרויקט נועד לסייע למפתחים, ארכיטקים, מנהלים וארגונים להתמודד עם סיכוני האבטחה הפוטנציאליים בעת פריסה וניהול של מודלים. הפרויקט מספק רשימה של עשר פגיעויות קריטיות ביותר הנראות לעתים קרובות ביישומי LLM, תוך הדגשת ההשפעה הפוטנציאלית שלהן, קלות הניצול והשכיחות ביישומים בשטח. דוגמאות לפגיעויות כוללות הזרקות מהירות, דליפת נתונים, ביצוע קוד לא מורשה ונוספים. המטרה היא להעלות את המודעות לפגיעויות אלה, להציע אסטרטגיות תיקון, ובסופו של דבר לשפר את נוף האבטחה של יישומי מבוססים LLM.
סיכון LLM06:2023 – Overreliance on LLM-generated Content – הסתמכות יתר על תוכן שנוצר על ידי LLM עלול להוביל להפצת מידע מטעה או שגוי, ירידה בקלט האנושי בקבלת החלטות וחשיבה ביקורתית מופחתת. משתמשים עשויים לתת אמון בתוכן שנוצר על ידי LLM ללא אימות, מה שמוביל לשגיאות, תקשורת שגויה או תוצאות לא מכוונות.
בעיות נפוצות הקשורות להסתמכות יתר על תוכן שנוצר על ידי LLM כוללות בין היתר:
- קבלת תוכן שנוצר ע״י LLM כעובדה קיימת ללא אימות.
- בהנחה שתוכן שנוצר ע״י LLM הוא נקי מהטיה או מידע שגוי.
- הסתמכות על תוכן שנוצר ע״י LLM לטובת החלטות קריטיות ללא פיקוח.
כאמור, הסתמכות יתר על תוכן שנוצר על ידי LLM עלולה להוביל להפצת מידע מטעה או שגוי, ירידה בקלט האנושי בקבלת החלטות וחשיבה ביקורתית מופחתת. משתמשים עשויים לתת אמון בתוכן שנוצר ע״י LLM ללא אימות, מה שמוביל לשגיאות, תקשורת שגויה או תוצאות לא מכוונות.
כיצד למנוע
כדי למנוע בעיות הקשורות להסתמכות יתר על תוכן שנוצר על ידי LLM, צריך לשקול את שיטות העבודה המומלצות הבאות:
- להשתמש בתוכן שנוצר ע״י LLM כתוספת, במקום תחליף, מומחיות אנושית וקלט.
- ליישם תהליכי פיקוח וסקירה אנושיים כדי להבטיח שתוכן שנוצר ע״י LLM הוא מדויק, הולם ובלתי מוטה.
- להכשיר משתמשים ובעלי עניין להכיר במגבלות של תוכן שנוצר ע״י LLM ולגשת אליו בחשדנות מותאמת.
- לתקשר בבירור למשתמשים כי תוכן שנוצר ע״י LLM הוא תוכן שנוצר על ידי מכונה ולא יכול להיות אמין לחלוטין או מדויק.
- לעודד משתמשים לאמת תוכן שנוצר ע״י LLM ולהתייעץ עם מקורות חלופיים לפני קבלת החלטות או מידע כעובדה.
תרחישי תקיפה
ארגון חדשות משתמש במודל כדי ליצור מאמרים על מגוון רחב של נושאים. אותו מודל מייצר מאמר המכיל מידע כוזב שפורסם ללא אימות. הקוראים סומכים על המאמר, מה שמוביל להפצת מידע שגוי.
מכאן זה מוביל אותנו למניפולציות על תכנים – מודלים מהווים שכבת ביניים, אשר יכולה להיות מועדת למניפולציה, בין המשתמש למידע המבוקש. הם יכולים לספק תוכן שנבחר באופן תקיף או שגוי באופן שרירותי של מסמכים (למשל של צדדים אחרים), מיילים (למשל משולחים אחרים) או שאילתות חיפוש. צ’אטבוטים של חיפוש עשויים גם להתבקש להפיץ מידע כוזב או תוכן מקוטב, להסתיר מקורות או עובדות ספציפיות, או ליצור פרסומות שלא נחשפו.
המודל עשוי להנפיק שאילתות חיפוש המשך כדי למצוא ראיות התומכות בהנחיה שהוזרקה קודם לכן, לסכם מידע שגוי של תוצאות החיפוש או להיות סלקטיבי במקורות המוצגים למשתמש. בעוד שמקורות לא מהימנים קיימים באינטרנט, שמשתמשים עלולים להיתקל בהם באופן טבעי בכל מקרה, הטון הסמכותי והמשכנע של מדולים והסתמכות יתר על חוסר משוא פנים עלולים לגרום למשתמשים למעוד לניסיונות המניפולציה הללו (ראה ערך מניפולציות מבוססות פישינג). סיכונים אלו גדלים כאשר המשתמש מבקש מהמודל מידע שקשה יותר לאמת, למשל, בשפה אחרת או מסמכים ארוגים ומורכבים.
מכאן זה לוקח אותנו למסע מעניין על הסיכון של הסתמכות יתר והצורך בניטור.
כאחד שמתחקר תקריות אבטחה, מחפש בעיות וסיכוני אבטחה ומחפש אביוז בלי סוף, העניין תחקור בתחום חדש כמו זה של הסתמכות יתר הוא מעניין מאוד כי הוא דורש הצלבות מידע רבות ומגוונות ועדיין אין לזה מתולודגיה ואפשרויות חקור כמו שאנו מכירים סביבות ענניות ומקומיות.
זיהוי תוכן במודל
זיהוי תוכן שנוצר ע״י בינה מלאכותית בתוכן מבוסס טקסט – איך זה נראה? נקודות עיקריות:
חוסר ביצירתיות בעוד שמודלים למינהם כמו GPT-4 מסוגלים לייצר תוכן יצירתי, היצירתיות שלהם היא ביסודה ״רעש״ למה שהם הוכשרו. הם אינם מייצרים רעיונות חדשים או נקודות מבט ייחודיות, והם רק מחקים ומשלבים מושגים קיימים מנתוני ההדרכה שלהם. ככזה, הסתמכות יתר על תוכן שנוצר על ידי LLM עלולה להוביל להומוגניות של רעיונות, שכן התוכן המופק הוא פשוט השתקפות של תוכן ומידע שכבר קיים.
חשש אתי (בקטגוריה של Ethical AI) – יכולתם של אנשי טכנולוגיות העוסקים במודלים ליצור טקסט משכנע פותחת גם כפוטנציאל לשימוש לרעה, כולל הפצת מידע מוטעה או יצירת ביקורות לא אותנטיות. יתר על כן, מודלים אלה עשויים לשקף בטעות הטיות הקיימות בנתוני האימון, להנציח סטריאוטיפים מזיקים או פרספקטיבות חלקיות.
שחיקת מיומנויות – הסתמכות יתר על תוכן שנוצר עלולה להוביל לשחיקה של מיומנויות אנושיות חיוניות. כאשר רבים (ארגונים) או יחידים (משתמשים) מסתמכים במידה רבה על בינה ליצירת תוכן, זה יכול לגרום לירידה בכישורי כתיבה, חשיבה ביקורתית ויצירתיות, ובסופו של דבר לצמצם את היקף התרומה האנושית.
כדי להבטיח שימוש אחראי במודלים, חיוני לאמץ גישה מאוזנת:
שיתוף פעולה אנושי – במקום לאפשר למודלים לבצע אוטומציה מלאה של יצירת תוכן, יש להשתמש בהם ככלים להגדלת היכולות האנושיות. בינה מלאכותית יכולה ליצור טיוטות או לספק הצעות בזמן שאדם מכוון את הפלט, מבטיח מקוריות ויצירתיות.
קווים מנחים ומדיניות ברורה – קביעת הנחיות ומדיניות אתיות לגבי השימוש בבינה מלאכותית ביצירת תוכן יכולה להפחית שימוש לרעה פוטנציאלי. זה יכול לכלול גילויים ברורים כאשר תוכן נוצר, או, כאשר ישנו שימוש בבינה מלאכותית לצורך הפצת מידע שגוי או תוכן לא אותנטי.
למידה מתמשכת ופיתוח מיומנויות – יכול לעודד למידה מתמשכת ופיתוח מיומנויות ביצירת תוכן כדי למנוע שחיקת מיומנויות. למשל, יצירתיות אנושית, אמפתיה וחשיבה ביקורתית הם עדיין נשארים חיוניים בהפקת תוכן באיכות גבוהה.
לסיכום, בעוד שאין להכחיש את כוחם של תכניות לימודים ביצירת תוכן, עלינו להיות מודעים למלכודות של הסתמכות יתר. איזון בין ניצול בינה וקלט אנושי מבטיח שהיתרונות נקצרו תוך צמצום החסרונות הפוטנציאליים. כמו בכל טכנולוגיה, המפתח טמון בשימוש בה ככלי לשיפור היכולות האנושיות, ולא כקב שבסופו של דבר מחליף אותן.
שחרור הסינרגיה של בינה ואדם
ההסתמכות הגוברת על מודלים כמו GPT-4 ביצירת תוכן מדגישה את הצורך לחשוב מחדש על האופן שבו אנו משתמשים בטכנולוגיות הללו. הגישה צריכה לשאוף לנצל את החוזקות של הבינה והיכולות האנושיות, ומשם ליצור סינרגיה הרמונית ודינמית.
תפקידם של אנשים בטכנולוגיה מתפתחת של בינה מלאכותית
בקרת איכות ויצירתיות בעוד שמודלים יכולים ליצור טקסט במהירות וביעילות, תפקידם של בני אדם במתן בקרת איכות ושיפור היצירתיות הופך להיות חיוני יותר. לבני אדם יש את היכולת הייחודית להמחיש ולחדש בדרכים שמכונות אינן יכולות כיום. על ידי עבודה לצד לימוד ושיפור מודל, בני אדם יכולים להציג נקודות מבט רעננות, להוסיף נגיעות אישיות ולהבטיח שהתוכן המופק מתאים לקול או למטרה ספציפית של המותג.
פיקוח אתי אחד התפקידים החשובים ביותר שבני אדם ממלאים הוא מתן פיקוח אתי בשימוש בטכנולוגיות בינה. שיקול דעת אנושי חיוני כדי להבטיח שתוכן שנוצר בינה מלאכותית ישמור על סטנדרט אתי גבוה, תוך הימנעות מהפצת הטיה, מידע מוטעה או תוכן מזיק.
אינטליגנציה רגשית – למרות ההתקדמות של בינה מלאכותית, עדיין אין לבינה את היכולת להבין ולפרש רגשות כמו בני אדם. תוכן אינטליגנטי רגשית, בין אם זה תגובות אמפתיות של שירות לקוחות או סיפור מרתק, הוא משהו שבני אדם מצטיינים בו ואינו משוכפל בקלות על ידי בינה.
אופטימיזציה של שיתוף פעולה בין אנשים ובינה (AI-Human)
על מנת לייעל את הסינרגיה בין בינה ויכולות אנושיות, עלינו לפתח אסטרטגיות יעילות:
הדרכה ופיתוח יכולים לצייד את יוצרי התוכן במיומנויות להשתמש בכלי בינה בצורה יעילה ואתית. תוכניות הכשרה ופיתוח רגילות יכולות להבטיח מעבר חלק לתהליך יצירת תוכן משולב בינה מלאכותית, ויכולות גם להפחית את השחיקה הפוטנציאלית של מיומנויות יצירת תוכן מסורתיות.
שיפורים טכנולוגיים שואפים לשפר את האלגוריתמים והתכנות של מודלים כדי למזער הטיה ולמקסם את יכולתם לסייע לבני אדם, לא להחליף אותם. מודלים צריכים להמשיך ולהתפתח, לשפר את יכולתם להבין את ההקשר, לזהות מידע שגוי, ובסופו של דבר להפוך לכלים אמינים יותר.
בינה שקופה בפעולות בינה היא חיונית. משתמשים שעושים שימוש בתוכן שנוצר צריכים להיות מודעים לאופן הפקת התוכן, כולל המגבלות וההטיות הפוטנציאליות. בנוסף, צריך להיות תיוג ברור של תוכן שנוצר כדי שיוכלו לקבל החלטות מושכלות.
כאשר אנו מאמצים את עתיד הבינה המלאכותית ביצירת תוכן, עלינו לזכור שהמטרה היא לא להחליף את היצירתיות האנושית אלא להעשיר אותה! גישה מאוזנת, שבה מודלים ובני אדם משתפים פעולה, יכולה להוביל לתוכן יעיל, איכותי ומגוון יותר. על ידי שילוב הכוח של בינה עם החוזקות הייחודיות של היצירתיות האנושית, נוכל לנווט בנוף החדש, ולנצל את מלוא הפוטנציאל של שתי הישויות.
מציאת תוכן שנוצר ע״י LLM
מודלים כגון GPT-4, הפכו נפוצים יותר ויותר בתחומים רבים של ייצור תוכן דיגיטלי, מכתיבת מאמרים וכלה בתגובות שירות לקוחות. להלן כמה דרכים שבהן ניתן להיתקל בתוכן שנוצר על ידי LLMs:
שירות לקוחות עסקים רבים מעסיקים צ’אטבוטים לאינטראקציות ראשוניות עם לקוחות. אלה יכולים לטפל בשאילתות נפוצות, להזמין פגישות ולהדריך לקוחות בשלבי פתרון בעיות. חלק גדול מהתוכן שנוצר על ידי צ’אטבוטים אלה נוצר על ידי LLMs.
שיווק תוכן תכניות מבוססות מודלים משמשות לעתים קרובות בשיווק תוכן ליצירת פוסטים בבלוג, תיאורי מוצרים, פוסטים במדיה חברתית וניוזלטרים באימייל. בעוד עורכים אנושיים בדרך כלל בודקים את התוכן הזה, ייתכן שהטיוטות הראשוניות נוצרות בינה מלאכותית.
כתבות חדשותיות וגופי חדשות מסוימים משתמשים במודלים כדי ליצור מאמרים מהירים וקצרים, במיוחד לנושאים כמו תוצאות ספורט או חדשות פיננסיות.
פלטפורמות למידה מקוונות פלטפורמות למידה מקוונות רבות משתמשות במודלים כדי ליצור חומרי למידה ותשובות מותאמות אישית לשאלות התלמידים.
עוזרים אישיים כמו Siri, Alexa ואחרים משתמשים לעתים קרובות במדולים כדי ליצור תגובות לשאילתות משתמשים.
אישור טקסט ע״י מודלים
כדי לאשר אם טקסט נוצר ע״י מודלים כלשהם, ניתן לחפש סימנים מסוימים:
גילוי נאות – הנחיות אתיות מעודדות לעתים קרובות את החשיפה של תוכן שנוצר בינה מלאכותית. חפש הצהרות כמו “נוצר ע״י בינה” או “מופעל ע״י בינה”.
סגנון אחיד לתוכן שנוצר במדולים ישנו לעתים קרובות סגנון וטון עקביים מאוד בשל הכשרתו על כמויות אדירות של נתונים. אמנם זה לא סימן סופי, מכיוון שגם כותבים אנושיים יכולים להיות עקביים, זה בהחלט עשוי להיות אינדיקציה.
היעדר ניסיון או דעה אישיים מכיוון שלמודלים אין חוויות או רגשות אישיים, התוכן שהם מייצרים בדרך כלל חסר מגע אישי או נקודת מבט סובייקטיבית.
עם זאת, חשוב לזכור כי הלמידה של LLM הופכים מתוחכמים יותר, והתוכן שלהם יכול להיות די משכנע. תוכן מסוים עשוי להיות שילוב של כתיבה אנושית ובינה, מה שהופך את זה למאתגר יותר להבחין בין מקורות התוכן. ככל שטכנולוגיית בינה ממשיכה להתפתח, חשוב יותר ויותר לקדם שקיפות בשימוש בכלים אלה.
כיצד לזהות תוכן שנוצר ע״י בינה מלאכותית
למרות שאף אחד מכלי זיהוי הבינה המלאכותית הזמינים עד כה אינו חסין תקלות, ישנם שאלה שניתן להיעזר בהם מדי פעם שאין לנו את הבטחון האם בוט יצר את הטקסט או שאנו קוראים מדיה מעשה אדם.
למשל יש כלי חינמי שנקרא AI Hugging Face המאפשר זיהוי באופן מיידי תמונות מבוססות בינה. במצב כזה, כל שעליהו לעשות הוא להעלות את התמונה, ובתוך שניות, האפליקציה תספק את האינדיקציה והסבירות שהיא נוצרה ע״י מכונה או אדם. זה מאומן על מדגם גדול של תמונות שכותרתו “מלאכותית” ו”אנושית”. אז יש סיכוי שהיעילות שלו עלולה לרדת ככל ששירותי יצירת בינה מלאכותית ישתפרו.
כלי נוסף הוא AI Text Classifier המציע כלי לזיהוי טקסט שנכתב ע״י בינה ובודמהלכלי הקודם משתמשת במזהים עצומים של טקסט מתויג מראש שנכתב ע״י אדם ומכונה. הוא צריך לפחות 1,000 תווים כדי לתפקד והוא יכול לזהות טקסט שנכתב בבינה. ברגע ששולחים את הטקסט, הוא מגדר את התשובה, ובהתבסס על מידת הבדיקה הוא יסמן את המסמך כ”מאוד לא סביר״, “לא סביר”, “לא ברור אם זה”, “ייתכן” או “סביר שנוצר ע״י בינה.”
ישנם מאות כלים המבצעים בדיקות דומות ומתבססים בעצמם על מודלים כאלה או אחרים.
דוגמה לזיהוי
אנו יכולים לזהות טקסט שנוצר ע״י בינה ע״י סקריפטים מבוססים פוורשל, פייתון ושפות אחרות. ברשת ישנם כלים רבים (וחצי מבושלים) שיכולים לסייע.
הדוגמה הבאה נותנת מספר אינדיקציות לזיהוי טקסט מובסס בינה:
- ספירה של היחס בין מילות העצירה (מילים נפוצות כמו “ו”, “ה”, “הוא” וכו’) בתוכן. לטקסט שנוצר ע״י מודלים. לרוב שימוש גבוה יותר במילים אלו.
- אנו משתמשים בפונקציית ניתוח הסנטימנט של ספריית textblob כדי לבדוק אם יש טון עקבי לאורך הטקסט. ציון ליד 0 מסמל ניטרליות, הנראית לעתים קרובות בתפוקות של מודלים.
- מבצעים בדיקה אם אין כינויים בגוף ראשון בטקסט. טקסט שנוצר ע: בינה, לרוב חסר מגע אישי.
הסקריפט הזה הוא אחד הפשוטים, ועשוי לייצר מספר גבוה של מידע חיובי כוזב ושלילי שגוי. חשוב לציין שזיהוי תוכן שנוצר ע״ מדול מסוים הוא משימה מאתגרת שכנראה דורשת גישה מתוחכמת יותר, כגון מודל למידת מכונה שהוכשר על מספר רב של טקסטים שנכתבו על ידי אדם וטקסטים שנוצרו ע״י מודל כזה או אחר. עם זאת, סקריפט תמיד יכול להוות נקודת מוצא להמשך חקירה ופיתוח.
import re
import nltk
from nltk.corpus import stopwords
from textblob import TextBlobnltk.download(‘stopwords’)
def check_llm_generated(content):
stop_words = set(stopwords.words(‘english’))
words = re.findall(r’\w+’, content.lower())
stop_words_in_content = [word for word in words if word in stop_words]# Checking for consistent tone using TextBlob sentiment analysis
sentiment = TextBlob(content).sentiment.polarity# Check for lack of first-person pronouns
first_person_pronouns = [‘i’, ‘me’, ‘my’, ‘mine’, ‘we’, ‘us’, ‘our’, ‘ours’]
first_person_in_content = [word for word in words if word in first_person_pronouns]# High ratio of stop words, consistent sentiment, and lack of first-person can be potential signs of LLM-generated content
if len(stop_words_in_content) / len(words) > 0.5 and abs(sentiment) < 0.05 and len(first_person_in_content) == 0:
return True
else:
return Falsecontent = “Your sample content goes here…”
print(check_llm_generated(content))
מה הצעד הבא עבור זיהוי תוכן מבוסס בינה מלאכותית?
כלים לזיהוי יכולים לזהות טקסט ומדיה שנוצרו ע״י בינה מלאכותית בצורה סבירה, והיעילות שלהם תמיד תהיה נקודת יעד שמשתנה ללא הרף, מכיוון שחברות כמו OpenAI וגוגל כבר מתכוננות להשיק ארכיטקטורות בינה מהדור הבא שמגבירות באופן אקספוננציאלי את האופן שבו תמונות סינתטיות וטקסט ריאליסטיים יכולים ליצור צ’אטבוטים ומחוללי טקסט לתמונה שלהם. בנוסף, כדי שהם יהיו אפקטיביים באמת, הם יצטרכו להיות נגישים ומשולבים יותר באתרים שאנו פוקדים אותם הכי הרבה.
אז איך עדיין אפשר להימנע ואף לתחקר מצבים כאלה? במאמר הבא שידבר על האפשרויות המגוונות שניתן לממש בתחקור וניטור באמצעות Microsoft Sentinel.