ממשלת בריטניה מהמרת בגדול על AI. בהתחשב במצב הכספים הציבוריים ובצניחה ממושכת בפריון הלאומי, במובנים רבים, היא חייבת. שאפתנית תוכנית פעולה של הזדמנויות בינה מלאכותית שהוכרז בינואר יש הרבה מה להמליץ. עם זאת, היכן שיש הזדמנות, יש גם סיכון.
לכן זה מעודד לראות את הממשלה נוקטת גם בצעדים קונקרטיים לשיפור האבטחה של מערכת האקולוגית של AI. הודיע שבועיים בלבד לאחר תוכנית הפעולה, קוד תרגול חדש "הראשון בעולם" יעזור להדריך מפתחים, מפעילי מערכות ובעלי עניין אחרים בבנייה, פריסה, תחזוקה וניטור של מערכות ה-AI שלהם בהתאם לשיטות האבטחה המומלצות. יש לקוות שהקוד יהווה בסופו של דבר את הבסיס לתקן ETSI בינלאומי חדש.
למה אנחנו צריכים את זה
למרות שהטכנולוגיה מתקדמת במהירות, אנחנו כבר יודעים כמה מהאיומים העיקריים של AI מציבה לעסקים אם לא מתוכננים בצורה מאובטחת. הם כוללים:
- התקפות זריקות מהירות המאפשרות לשחקנים זדוניים לעקוף מעקות בטיחות מובנים על מנת להשתמש לרעה במודלים של שפה גדולה (LLMs) למטרות מרושעות. הרשת האפלה על פי הדיווחים כבר שטוף עם הצעות "פריצת כלא כשירות" שמאפשרות בדיוק את זה.
- פגיעויות ותצורות שגויות ברכיבי מערכת בינה מלאכותית, שעלולים להיות מנוצלים/להשתמש בהם כדי לגנוב או "להרעיל" נתוני אימון רגישים או מודלים. חורי אבטחה כאלה כבר התגלו על פני שרשרת האספקה, כולל במסדי נתונים וקטוריים, רכיבי קוד פתוח ופלטפורמות אירוח LLM.
- מניעת שירות, אם תוקף מזין קלט גדול בצורה יוצאת דופן לתוך LLM
- חשיפת נתונים רגישים (למשל נתוני לקוחות) באמצעות התגובה להנחיה של משתמש, בין אם לא בכוונה או בזדון
האמת היא שמערכות בינה מלאכותית מודרניות מרחיבות משטח מתקפות סייבר ארגוני רחב ממילא, כולל APIs, מודלים של LLM, קוד קוד פתוח, מערכי הדרכה, ממשקים חזיתיים ותשתית ענן. הסיכון להתעללות גדל ככל שהן מוטמעות בעוד תהליכים ויישומים עסקיים. ה OWASP Top 10 עבור יישומי LLM היא התחלה מצוינת. אבל זו לא רשימה ממצה של סיכוני אבטחה הקשורים לבינה מלאכותית.
למי זה מיועד
קוד הנוהג עצמו חל על מספר בעלי עניין מרכזיים. אלה כוללים:
- ספקי תוכנה המציעים שירותי AI ללקוחות
- ספקי תוכנה המשתמשים בבינה מלאכותית באופן פנימי, בין אם זה נוצר בבית או על ידי צד שלישי
- ארגונים רגילים היוצרים מערכות AI לשימוש פנימי
- ארגונים רגילים שמשתמשים רק ברכיבי AI של צד שלישי לשימוש פנימי
רק "ספקי בינה מלאכותית" שמוכרים דגמים או רכיבים, אך לא מפתחים או פורסים אותם בפועל, צפויים להיות מחוץ ל"תחום" של קוד זה.
מה בקוד
קוד התרגול מחולק ל-13 "עקרונות" המכסים כל שלב במחזור החיים של AI, על פני תכנון, פיתוח, פריסה, תחזוקה וסוף החיים. הם:
- לעורר מודעות של איומי אבטחת AI וסיכונים על ידי הכשרת צוות אבטחת סייבר ובסיס עובדים רחב יותר.
- עיצוב מערכות AI לאבטחה, פונקציונליות וביצועים המבוססים על תכנון יסודי והערכות סיכונים.
- להעריך/לדגמן איומים ולנהל סיכונים הקשורים לשימוש ב-AI באמצעות בקרות אבטחה וניטור רציף.
- אפשר אחריות אנושית ופיקוח על מערכות AI.
- זיהוי, מעקב והגן על נכסים באמצעות מלאי מקיף וכלי מעקב המתייחסים לתלות הדדית ולקישוריות.
- תשתית מאובטחת כגון APIs, מודלים, נתונים וצינורות הדרכה ועיבוד. זה צריך לכלול מדיניות חשיפת פגיעות ותוכניות לניהול אירועים/שחזור מערכת.
- אבטח את שרשרת אספקת התוכנה באמצעות הערכות סיכונים, בקרות ממתן ותיעוד.
- מסמך נתונים, דגמים והנחיות עם מסלול ביקורת ברור של תכנון מערכת ותכניות תחזוקה לאחר הפריסה. יהיה צורך בתיעוד כדי להפיג את החששות לגבי הרעלת נתונים כאשר נעשה שימוש בנתוני הכשרה ציבוריים.
- ערכו בדיקות והערכה מתאימות המכסה את כל הדגמים, היישומים והמערכות לפני הפריסה באמצעות בודקים עצמאיים.
- פרוס בצורה מאובטחת על ידי הסבר למשתמשי הקצה כיצד ייעשה שימוש, גישה ואחסון הנתונים שלהם. מחזיקי עניין צריכים גם לספק עדכונים רלוונטיים לאבטחה, הנחיות לגבי ניהול ותצורה, וסיוע להכלה ולהפחתת ההשפעה של כל אירוע.
- לשמור על עדכוני אבטחה שוטפים, טלאים והקלות.
- מעקב אחר התנהגות המערכת על ידי רישום פעולות מערכת ומשתמשים וזיהוי חריגות, פרצות אבטחה או התנהגות בלתי צפויה לאורך זמן.
- הקפידו על סילוק נתונים ומודלים נאותים בעת ביטול או העברת בעלות על דגם או נתוני הכשרה.
הצבת אבני הבניין במקום
החדשות הטובות הן שתקני אבטחת סייבר עם שיטות עבודה מומלצות יכולות לעזור לארגונים לציית לקוד. ISO 27001 מצוטט במסמך עצמו, אך דייוויד קוקרופט, מנהל סקטור אבטחת מידע ב-ISOQAR, טוען ש-ISO 42001 הוא ההתאמה הטובה ביותר. תקן חדש יחסית זה נועד לעזור לארגונים להקים, ליישם, לתחזק ולשפר ללא הרף מערכת ניהול בינה מלאכותית (AIMS).
"הקישורים הבסיסיים ל-ISO 42001 ניכרים מההתחלה. הקהל ובעלי העניין בקוד הפרקטיקה קשורים ישירות להקשר הארגוני ולתפקיד הארגון במחזור החיים של AI המצוי בתקן", הוא אומר ל-ISMS.online.
"ניתן למפות את כל העקרונות בקוד הנוהג לסעיפים ולבקרות בתקן 42001."
אנדריאס ורמיולן, ראש תחום הבינה המלאכותית ב-Avantra, מסכים.
"על ידי שילוב ISO 42001 עם תקני אבטחה נוכחיים, ארגונים יכולים לשפר את הציות לקוד, להבטיח שהטיפול הולם באבטחה ובסיכונים תפעוליים ספציפיים ל-AI, ובכך לשפר את עמדת האבטחה הכוללת של AI", הוא אומר ל-ISMS.online.
"בריטניה מהווה דוגמה חזקה על ידי קביעת קווים מנחים מקיפים המבטיחים פריסה בטוחה ומאובטחת של טכנולוגיות AI. מאמצים אלה מציבים אותה כמובילה בפיתוח אחראי של מערכות בינה מלאכותית".
ב-ISMS.online, שאלנו בעבר האם תוכניות הבינה המלאכותית השאפתניות של הממשלה יכולות גם להחדיר סיכון סייבר לתשתית וליישומים הדרושים כדי להניע את "עשור ההתחדשות הלאומית" הנחשבת. אז טוב לראות כמה הנחיות שימושיות שמתפרסמות לצד הבטחות מעורפלות לעתים קרובות לצמיחה טכנולוגית.
"קוד התרגול החדש, שהפקנו בשיתוף פעולה עם שותפים גלובליים, לא רק יעזור לשפר את העמידות של מערכות בינה מלאכותית נגד התקפות זדוניות, אלא יטפח סביבה שבה חדשנות בינה מלאכותית בבריטניה יכולה לשגשג", אומר המנהל הטכני של NCSC, אולי וויטהאוס.
ככל שהקוד מתבגר ומתפתח לתקן בינלאומי, הוא עשוי להפוך לקו הבסיס דה פקטו לאבטחת בינה מלאכותית במשך זמן מה.










