תקרית שהתרחשה לאחרונה העלתה חששות בנוגע לאופן שבו כלי GenAI מטפלים בנתונים. האם הגיע הזמן לוודא שהנתונים שלכם לא יגיעו לתוכניות הלימודים שלהם? דן רייווד בוחן את האפשרויות.
אדם חכם אמר פעם שמה שאתה מעלה לאינטרנט נשאר באינטרנט. ספציפית, זה היה בהתייחס לרשתות חברתיות, ובפרט לפייסבוק.
בעשור הזה, האתגר הוא פחות חשיפת תוכן ברשתות החברתיות ויותר מה שהכנסתם לבינה מלאכותית גנרטיבית ולמודלים של שפה גדולה (LLMs), אשר לאחר מכן שומרים, מעבדים ומחזיקים את הנתונים האלה כדי לספק פרטים טובים יותר בבקשות ובתוצאות חיפוש.
עם זאת, כל אמון באבטחה של GenAI התערער בקיץ כאשר אלפים של תמלילי צ'אט של גרוק נחשפו, מה שהדגיש עד כמה מהר שיחות פרטיות בתחום הבינה המלאכותית יכולות להפוך לציבוריות. עבור אנשים פרטיים, זה עלול להיות מביך. עבור עסקים, הסיכונים גבוהים בהרבה, וחשיפת נתוני לקוחות, קניין רוחני או אסטרטגיות משפטיות, עם השלכות הנעות בין נזק תדמיתי לקנסות רגולטוריים.
מצ'אטבוט למנוע חיפוש
לפי דיווחים בתקשורתבכל פעם ששותף צ'אט עם בוט Grok, נוצרה כתובת URL ייחודית והפכה לזמינה למנועי חיפוש. רוב המשתמשים לא היו מודעים לכך שקישורים אלה נוספו אוטומטית לאינדקס, כלומר כל אחד יכול למצוא אותם באינטרנט.
דמיאן צ'ונג, קצין אבטחת מידע עסקי בנטסקופ, אומר ל-IO שהוא מאמין שבמקרה הזה, רק היסטוריית הצ'אט נחשפה, אבל זה היה "די מדאיג כי אתה לא חושב שכאשר אתה משתף את האינטראקציות האלה עם בינה מלאכותית, הן יכולות להיות גלויות לציבור".
עם זאת, הוא מאמין שהתקרית הזו לפחות מעלה את המודעות לסוג זה של סיכון, משום ש"אנחנו לא בוחנים אילו בקרות אבטחה קיימות סביב מוסדות הלימוד הללו, לכן אסור לאפשר באופן עיוור למידע להיכנס לתוכם".
עבור עסקים, הלקח ברור: ברגע שהנתונים עוזבים את הסביבה שלכם, אתם מאבדים שליטה עליהם. אפילו העלאות שנראות בלתי מזיקות עלולות לצוץ מחדש בדרכים שמעולם לא התכוונתם.
בינה מלאכותית של צללים וסיכון הדליפה
Grok, מוצר של חברת xAI של אילון מאסק, והוא נפוץ בשימוש ב-X, הוא כעת אחד ממאות שירותי GenAI הזמינים. אם אפשר לדלוף שיחות שהמשתתף האמין שהן פרטיות, או לפחות לא גלויות, מה אחרים מחזיקים שיכול להיות דלוף או נפרץ?
צ'ונג אומר שאנחנו בתחילת האבולוציה של GenAI, וטוב להיות מודעים לסיכונים, אבל גם לא להפחיד משתמשים מלהשתמש בו.
מאט בירד, מנהל אבטחת סייבר וחדשנות בתחום הבינה המלאכותית ב-AllPoints Fibre Networks, מנסח זאת בצורה בוטה: "בין אם מדובר בנתונים רגישים או כלליים, האיומים בהחלט אמיתיים בהקשר זה, החל מחשיפה לא מכוונת של פרטי לקוחות ועד דליפה של מסמכי אסטרטגיה פנימיים, ההשלכות יכולות לנוע בין נזק תדמיתי לקנסות רגולטוריים."
סיכון זה מוגבר על ידי בינה מלאכותית מסוג Shadow AI. עובדים הפונים לכלי עבודה לא מאושרים לצורך שיפור הפרודוקטיביות עלולים לחשוף חומר סודי מבלי לשים לב לכך. לאחר שמידע מאונדקס באינטרנט, הוא יכול להישאר חשוף זמן רב לאחר מחיקת השיחה המקורית.
מדיניות, לא איסור
גישה אחת היא לחסום לחלוטין את הגישה לכלי בינה מלאכותית, אך מנהיגי אבטחה מזהירים שזה לא יעיל. כפי שמציין צ'ונג, "אם תעשה זאת, המשתמש ימצא דרך אחרת להשתמש בזה. על ידי חסימה, אנחנו לא בהכרח מקבלים את אותה רמת אבטחה שאנחנו חושבים שאנחנו מקבלים."
במקום זאת, מומחים מציעים לאפשר שימוש בבינה מלאכותית תחת כללים ואמצעי הגנה ברורים. בירד אומר שהאיזון טמון ב"בניית מסגרת של בקרות טכניות והתנהגותיות" כדי להגן על נתוני הארגון. מדובר ב"הצגת היתרונות של שימוש בטוח בכלים אלה לצוות, ולוודא שיש להם מערכות מקובלות על החברה, כי בסופו של דבר הם יחפשו פתרון עוקף אם לא".
אנג'לו ריסברק, מומחה להגנה דיגיטלית בחברת Pronidus Cybersecurity, מסכים כי הפרצות האחרונות מדגישות את הסיכון העיקרי לחברות: כיצד עובדים מקיימים אינטראקציה עם כלי בינה מלאכותית אלה. העלאת נתונים רגישים או אפילו נתונים לכאורה בלתי מזיקים עלולה להוביל במהירות לחשיפה. ברגע שהנתונים עוזבים את הסביבה שלך, אתה מאבד שליטה עליהם.
פתרונות מעשיים
מה, אם כן, ארגונים יכולים לעשות באופן ריאלי כדי להפחית את הסיכון לחשיפה? אלו שדיברו איתם מערכות מידע ומערכות מידע (ISMS) הסכימו שהתשובה טמונה בבניית הגנות מובנות ורב-שכבתיות.
ריסברק מציין כי לרוב הארגונים כבר יש מדיניות שימוש מקובלת או מדיניות IT, וזו נקודת ההתחלה הטבעית. "אם הבסיס קיים, בנו עליו" במקום להתחיל מאפס. הוא מזהיר, עם זאת, כי מדיניות על הנייר אינה מספיקה, ויש להודיע לעובדים על הכללים מלכתחילה ולהזכיר להם באופן קבוע את אחריותם.
בירד מדגיש את הצורך להתמקד באפשר שימוש בטוח תחת מעקות בטיחות מוגדרים: "עלינו לאמץ את הבינה המלאכותית בשל היעילות שהיא מביאה לנו, אך אין זה אומר אימוץ עיוור. משמעות הדבר היא בניית מסגרת של בקרות טכניות והתנהגותיות כדי להגן על הנתונים שלנו ועל אנשינו."
עבור ריסברק, בקרות אלו חייבות לכלול אמצעי הגנה מעשיים"השתמשו בסינון תוכן, במדיניות הגנת אפליקציות ובמניעת אובדן נתונים כדי למנוע ממידע רגיש לעזוב את הארגון." במקרים מסוימים ייתכן שיהיה ראוי "לחסום אפליקציות מסוכנות, אך במידת האפשר לספק לצוות חלופות בטוחות."
בירד מדגיש את החשיבות של הבחנה בין כלי בינה מלאכותית מאושרים לכלי שאינם מאושרים וקביעת ציפיות ברורות לעובדים: "מעל הכל, מדיניות שימוש מקובלת צריכה לאסור בבירור כל מידע מעל לסיווג 'ציבורי' שיתוף עם שירותים שאינם מאושרים."
ניתן לחזק עוד יותר אמצעים מסוג זה על ידי עיגונם למסגרות מוכרות כגון ISO 27001 לאבטחת מידע ו-ISO 42001 לממשל בינה מלאכותית. פעולה זו מסייעת להבטיח שמדיניות, ניטור וניהול סיכונים יהיו לא רק עקביים אלא גם ניתנים לביקורת והגנה מפני ביקורת רגולטורית.
יחד, שילוב זה של מסגרות, אמצעי הגנה טכניים ומודעות מתמשכת של המשתמשים יוצר תרבות שבה העובדים מבינים הן את היתרונות של כלי בינה מלאכותית והן את גבולות השימוש הבטוח.
פעלו עכשיו, אל תחכו
בירד מבהיר כי חלף זמן ההיסוס, וארגונים לא צריכים לחכות לפריצה אלא לפעול כעת. "צרו מדיניות ברורה ונפרדת לשימוש ופיתוח של בינה מלאכותית; ודאו שהן מנוטרות בשקיפות והכשירו את אנשיכם. מעל הכל, התייחסו לבינה מלאכותית כיכולת שיש לרתום אותה ולא לפחד ממנה."
צ'ונג מסכים שחסימת כל יישום חדש של בינה מלאכותית אינה מציאותית. עם מאות אפליקציות שכבר זמינות ואפליקציות חדשות צצות כל הזמן, הוא מציע לארגונים לשקול התערבויות קלות יותר, כמו הודעת "אימון" לפני גישה לאתר GenAI, שתזכיר לעובדים לחשוב היטב על מה שהם משתפים.
ריסבראק מדגיש שהאתגר הוא למצוא איזון בהגנה על הנתונים מבלי לחנוק חדשנות. התוצאות הטובות ביותר מושגות על ידי שילוב של כללים ברורים, מודעות למשתמשים, הכשרה ואמצעי הגנה טכניים. "בדרך זו, העובדים מכירים את המגבלות, יהיו להם הכלים הנכונים, והארגון נמנע מלהפוך לכותרת הבאה."
הלקח האמיתי מגרוק
דליפת Grok אינה המקרה הראשון בו שיחות שנוצרו על ידי בינה מלאכותית הופכות לניתנות לחיפוש באינטרנט, והיא גם לא תהיה האחרונה. עבור עסקים, הלקח האמיתי הוא שלעולם אין להניח אמון ב-GenAI.
על ידי יישום מדיניות, אמצעי הגנה טכניים ומודעות של הצוות כעת, ארגונים יכולים לרתום את הפרודוקטיביות של בינה מלאכותית תוך הגנה על הנתונים היקרים ביותר שלהם. המתנה לפריצה הבאה אינה אופציה.










