ייתכן שעברו שלוש שנים מאז שהשקת ChatGPT פתחה במרוץ חימוש טכנולוגי חדש, אך כעת כל העיניים נשואות אל בינה מלאכותית סוכנתית. תומכיה טוענים שהיא תעפיל על בינה מלאכותית גנרטיבית (GenAI) בכך שתעבוד באופן עצמאי כדי להשלים משימות עבור אדוניה האנושיים. כמעט שני שלישים (62%) מהארגונים כבר מתנסים לפחות בסוכני בינה מלאכותית, כאשר חברות גדולות יותר מתרחבות מעבר לשלב הפיילוט, על פי מקינזי.

אבל עם אוטונומיה מגיע סיכון. רק בחודש שעבר, אנתרופי גילה מה שלטענתה היה "קמפיין הריגול הסייבר הראשון שתוכנן על ידי בינה מלאכותית", שהשתמש בצ'אטבוט קלוד שלו כדי למקד עשרות ארגונים. זהו איום שגם קהילת האנליסטים מזהירה מפניו.

פורסטר תחזיות מרכזיות בתחום אבטחת הסייבר לשנת 2026 היא שפריסת בינה מלאכותית סוכנתית תגרום לפריצה שדווחה בפומבי, שתביא לפיטורי עובדים. השאלה היא האם לארגונים יש את הכלים, המסגרות והידע הדרושים לנהל סיכונים כאלה, תוך ניצול היתרונות העסקיים העצומים של הטכנולוגיה.

איך עובדת בינה מלאכותית של סוכנים

בעוד ש-GenAI רק מסכמת ויוצרת תוכן המבוסס על בקשות מהמשתמש, מערכות בינה מלאכותית סוכניות (AGENTIC) מתוכננות לפעול ללא פיקוח אנושי מתמיד על מנת להשלים משימות. לשם כך, הן אוספות מידע ממסדי נתונים, חיישנים, משתמשים וממשקי API. לאחר מכן הן מעבדות את הנתונים הללו כדי לחלץ תובנות והקשר. לאחר מכן, הבינה המלאכותית קובעת לעצמה יעדים המבוססים על יעדים מוגדרים מראש או קלט מהמשתמש, מחשבת כיצד להשיג אותם, ומשתמשת בהיגיון כדי לבחור את הטוב ביותר מבין מספר פעולות אפשריות.

לאחר מכן מגיע ביצוע הפעולה, בדרך כלל על ידי אינטראקציה עם מערכות ונתונים של צד שלישי. לאחר מכן, הערכה של התוצאה, שיפור ולמידה מתמשכים. היכולת של הבינה המלאכותית להשלים משימות מורכבות ורב-שלביות בדרך זו - וניתן להתאים אותה באופן דינמי ככל שמופיע מידע חדש - היא שהופכת אותה לכל כך שימושית. מקרי השימוש כמעט בלתי מוגבלים. הטכנולוגיה יכולה להניע הכל, החל מזרימות עבודה של תחזוקה חזויה במסגרות תעשייתיות ועד לניהול מסע לקוח עבור שחקני מסחר אלקטרוני.

אם ייפרסו בתבונה, בינה מלאכותית סוכנית תוכל לבטל טעויות אנוש במשימות ידניות, לשחרר את הצוות להתמקד בעבודה בעלת ערך גבוה יותר, ולשפר באופן דרמטי את היעילות התפעולית והפרודוקטיביות. יעילות זו אמורה להיות מסוגלת להפחית עלויות. סוכני בינה מלאכותית יוכלו גם לספק דחיפה משמעותית לחוויית הלקוח בתעשיות מסוימות.

כיצד פריצה עלולה להתרחש

עם זאת, מכיוון שיש פחות פיקוח על הבינה המלאכותית, יש הזדמנות גדולה יותר למניפולציה זדונית, או דליפה מקרית של נתונים, עוד לפני שצוותי אבטחה יודעים שמשהו לא בסדר. ככל שההחלטות שסוכן מוסמך לקבל חשובות יותר, כך הסיכון הפוטנציאלי גדול יותר. הזרקה מהירה היא דאגה מרכזית. על ידי הטמעת הוראות זדוניות במשהו שסוכן יעבד - כגון מסמך, דף אינטרנט או תגובה מקוונת - גורם איום יכול להערים עליו ולגרום לו לדליפת נתונים רגישים.

דליפות עלולות להתרחש גם בטעות, אם מעקות הבטיחות אינם נפרסים כראוי. סוכנים בעלי הרשאות יתר וריבוי סוכנים מגבירים את הסבירות שמשהו ישתבש.

פורסטר מזהירה כי פריצות אפשריות עקב "שרשרת של כשלים". האנליסט הבכיר פאדי הרינגטון מספק ל-ISMS.online שלושה תרחישים:

גישה מוגזמת לנתונים: "במהירות ליישם בינה מלאכותית סוכנית, מחלקות וצוותים עלולים להתעלם מהנחיות גישה סטנדרטיות של אפס אמון. ומכיוון שמדובר ב'תוכנית' ולא באדם, הם עלולים להניח שכל עוד הם נותנים לה פקודות גישה רק למערכי נתונים מסוימים, זה אמור להגביל את היקפה", הוא מסביר. "למרבה הצער, כפי שנלמד מחוסר פילוח נכון של משתמשים או מכשירים, כל סוכן שיכול לגשת לנתונים יכול להיות מנוצל כדי לגשת לנתונים אלה. אם מוסיפים לכך גניבת אסימון אימות, כמות הנתונים שניתן לגנוב יכולה לשתק עסק."

היגיינת אימות לקויה: "הסוכנים זקוקים להרשאה כדי לגשת לנתונים, מה שאומר אימות. אם גישות האימות פשוטות מדי - טוקנים סטטיים שאוחסנו בצורה לא נכונה, או אולי הרשאה רחבה מדי - סוכנים אלה עלולים להיות מנוצלים על ידי גורמי איום", אומר הרינגטון. "אם משתמש יוצר זרימת עבודה של סוכן ואם אין הנחיות, ייתכן שהוא שולח נתונים למאגרים חיצוניים או ניגש לנתונים רגישים דרך זרימות עבודה אוטונומיות אלה. אם אין מעקות בטיחות, פירוש הדבר עלול להיות חשיפת מידע של משאבי אנוש, כספים או אפילו אימות."

אמון במידע בעל דיוק נמוך: "הדיוק של מודלים הסתברותיים רבים יכול לנוע בין 60% ל-10%. אם מכניסים את זה להקשר של התראות IT או אבטחה, עם מודל שמגיע לשוק במהירות, עלולות להיות מגוון רחב של תוצאות חיוביות שגויות, או גרוע מכך, התראות שליליות שגויות", טוען הרינגטון. "זה עלול להסיח את דעת הצוותים מבעיות אמיתיות או לגרום להם לפספס אותן לחלוטין. באשר לשרשרת העבודה, כאשר יוצרים את זרימת העבודה הסוכנתית הזו, שבה הסוכנים עובדים יחד, שקר באחד מהם עלול לגרום לסוכנים הבאים בתהליך העבודה להיזון מהשקר הזה, לייצר שקר משלהם, ולגרום לזה להמשיך כך שהפלט או הפעולות הסופיות יהפכו לסיוט אבטחה/IT."

מעקות בטיחות ומדיניות

העצה של Forrester היא לפעול לפי עקרונות Agentic AI Guardrails For Information Security (AEGIS) שלה. במסגרתזה מבוסס סביב שישה "תחומים":

  • ממשל, סיכונים ותאימות (GRC)
  • ניהול זהות וגישה (IAM)
  • אבטחת מידע ופרטיות
  • אבטחת יישומים
  • ניהול איומים
  • ארכיטקטורת אפס אמון

האנליסט ממליץ להתחיל עם GRC - ביסוס ממשל, בניית מערכות מלאי של סוכנים והגדרת שימוש מקובל. הוא קורא לצוותי אבטחה לבנות לאחר מכן IAM ואבטחת נתונים, תוך התייחסות לסוכנים כאל "מחלקת זהות חדשה". לאחר מכן צריכים לבוא שיפורים ב-DevSecOps כדי לאבטח את מחזור החיים של הסוכן ולזהות הזיות. ולבסוף, אופטימיזציה באמצעות Zero Trust כדי לאכוף את מינימום הסוכנות, לנטר התנהגות לא מתוכננת ולבודד סוכנים סוררים.

גם תקני שיטות עבודה מומלצות כמו ISO 42001 יכולים לעזור כאן, שכן ישנה גישה משמעותית לגישת AEGIS, אומר הרינגטון. לא משנה מה תהיה השיטה הסופית שלהם, הוא קורא לארגונים להבטיח שהאבטחה משולבת בפרויקטים של בינה מלאכותית סוכנית מההתחלה.

"כולם מתקדמים מהר מדי מכדי שניתן יהיה ליישם את ההגנות המתאימות. מנהיגים עסקיים רואים את הטמעת סוכני בינה מלאכותית וזרימות עבודה של סוכנים ככזו שמביאה לחיסכון עצום בעלויות ולהגברת היעילות", הוא מסכם.

"אבטחה, תחום ה'לא', מהווה לעתים קרובות מכשול למהירות משום שאנחנו אומרים לאנשים להקדיש זמן לנהיגה בטוחה. ומכשולי המהירות הללו נתפסים כמפריעים. אבל כמעט בכל פעם ש[מתעלמים מהאבטחה], זה בסופו של דבר נגמר בכאב."