האיחוד האירופי הוא ללא ספק המנהיג העולמי הנוכחי בכל הנוגע לרגולציה של AI. עם זאת פגום החדש שלה חוק AI יכול להיות, זה מייצג הישג משמעותי. בריטניה נוקטת בגישה נטולת ידיים, למרות שסימנה את שאיפתה להיות שחקן עולמי אחראי, על ידי כינוס פסגת בטיחות AI העולמית בנובמבר אשתקד. זמן קצר לאחר מכן, מרכז אבטחת הסייבר הלאומי שלה (NCSC) הופק קבוצה חדשה של הנחיות לפיתוח מערכות AI מאובטח.
הקווים המנחים הם צעד ראשון מצוין בסיוע למפתחים לבנות עקרונות אבטחה לפי עיצוב בעבודתם על ידי הסוכנות האמריקאית לאבטחת סייבר ותשתיות (CISA) כ"אבן דרך מרכזית". החדשות הטובות עוד יותר הן שהם יכולים להשתמש בשיטות מומלצות קיימות כדי לעזור להם.
מה כוללות הנחיות NCSC?
המסמך החדש רלוונטי לספקי כל מערכות המכילות בינה מלאכותית – בין אם הן נבנו מאפס ובין אם על גבי שירותים קיימים. הם זכו גם לתמיכה של אמזון, גוגל, מיקרוסופט ו-OpenAI, כמו גם מדינות רבות אחרות כולל כל ה-G7, בתוספת צ'ילה, צ'כיה, אסטוניה, ישראל, ניגריה, נורבגיה, פולין, סינגפור ודרום קוריאה. ההנחיות מחולקות לארבעה חלקים:
עיצוב מאובטח
השיקולים בשלב הראשון של פיתוח בינה מלאכותית כוללים:
- העלאת המודעות לאיומים וסיכונים בקרב מדעני נתונים, מפתחים, מנהיגים בכירים ובעלי מערכות. מפתחים יצטרכו לעבור הכשרה בטכניקות קידוד מאובטחות ובפרקטיקות AI מאובטחות ואחראיות
- החל "תהליך הוליסטי" כדי להעריך איומים על מערכת הבינה המלאכותית, ולהבין את ההשפעה הפוטנציאלית על המערכת ועל המשתמשים/החברה אם הבינה המלאכותית נפגעת או מתנהגת "באופן בלתי צפוי"
- תכנן את המערכת לאבטחה כמו גם לפונקציונליות ולביצועים. זה ידרוש שרשרת אספקה ניהול סיכונים, והשילוב של פיתוח מערכות תוכנה בינה מלאכותית בפרקטיקות מאובטחות קיימות
- הבן את פשרות האבטחה כמו גם את היתרונות בעת בחירת מודל AI. בחירת ארכיטקטורת המודל, תצורה, נתוני אימון, אלגוריתם אימון והיפרפרמטרים צריכה להיעשות בהתאם למודל האיומים של הארגון ולבצע הערכה מחדש באופן קבוע.
פיתוח מאובטח
בשלב הפיתוח, שקול:
- הערכה וניטור של אבטחת שרשרת האספקה לאורך מחזור החיים של מערכת הבינה המלאכותית. על הספקים לעמוד באותם סטנדרטים כפי שהארגון מיישם על תוכנות אחרות
- זיהוי, מעקב והגנה על נכסים הקשורים לבינה מלאכותית, כולל מודלים, נתונים, הנחיות, תוכנה, תיעוד, יומנים והערכות
- תיעוד היצירה, התפעול וניהול מחזור החיים של מודלים, מערכי נתונים והנחיות מטא
- ניהול ומעקב אחר חוב טכני דרך מחזור החיים של מודל AI
פריסה מאובטחת
בשלב הפריסה, עיין ב:
- אבטחת תשתיות על פי עקרונות מומלצים, כגון בקרות גישה עבור ממשקי API, מודלים ונתונים, והפרדה של סביבות שמחזיקות קוד רגיש
- הגנה מתמשכת על שיטות עבודה מומלצות של המודל מפני גישה ישירה ועקיפה
- מתפתח ניהול אירועים נהלים
- שחרור מודלים, יישומים או מערכות רק לאחר הערכת אבטחה כגון תרגילי צוות אדום
- הטמעת תצורה מאובטחת כברירת מחדל, כך שקל יותר למשתמשים לעשות את הדברים הנכונים
תפעול ותחזוקה מאובטחים
בשלב המבצעי, ה-NCSC מציע לארגונים:
- לפקח ולתעד את כניסות המערכת בהתאם לפרטיות ו הגנה על נתונים דרישות, כדי לאפשר ציות, ביקורת, חקירה ותיקונים
- עקוב אחר גישה מאובטחת לפי עיצוב לעדכונים
- להשתתף ב קהילות שיתוף מידע גלובליות ולאפשר אבטחה חוקרים לחקור ולדווח על נקודות תורפה
כיצד ISMS יכול לעזור
מערכת ניהול אבטחת מידע (ISMS) יכולה לעשות דרך ארוכה כדי להבטיח שמערכות הבינה המלאכותית והשימוש של הארגון מאובטחים, עמידים ומהימנים, על פי סם פיטרס, CTO של ISMS.online. הוא טוען שתאימות ל-ISO 27001 מספקת "תרבות אבטחת מידע ניתנת להרחבה, מלמעלה למטה" הבנויה על "אבטחה מונעת סיכונים, מבוססת תהליכים", שיכולה לעזור למפתחים המעוניינים לפעול לפי הנחיות NCSC.
"היופי ב-ISO 27001 הוא שהוא מסגר את infosec כבעיית ממשל ארגונית", אומר פיטרס ל-ISMS.online.
"על ידי נקיטת גישת הממשל הזו עבור אסטרטגיית אבטחת בינה מלאכותית, ארגונים יכולים להיות בטוחים שהם יכולים להרחיב את האבטחה באופן בר קיימא במקום פשוט להתעדכן. לקבוצות יש גם בהירות לגבי ציפיות הבסיס. בסופו של דבר, זה מפחית את הסיכון, אפילו כשמערכות הבינה המלאכותית והשימוש נעשים מורכבים יותר באופן אקספוננציאלי".
פיטרס רואה שבעה תחומים מרכזיים של הצלבה בין ISO 27001 להנחיות NCSC:
הערכת סיכונים:
ISO 27001 מחייב הערכות סיכונים סדירות של infosec, שיכולות לסייע בגילוי נקודות תורפה, איומים ווקטורי תקיפה במערכות AI.
מדיניות ונהלים:
ISMS דורש מדיניות ותהליכים מקיפים לניהול אבטחה. אלה יכולים להיות מותאמים למערכות AI ולהתאים להנחיות NCSC.
בקרות גישה:
מבוסס תפקיד בקרות גישה וניהול הרשאות נדרשים על ידי ISO 27001 ויכול גם לעזור להגביל את הגישה לנכסי AI רגישים כמו מערכי נתונים ומודלים.
ניהול ספקים:
דרישות ISO 27001 עבור ביקורת והסכמים חוזיים יכולים לסייע בניהול סיכונים בקשרים של צד שלישי עם ספקי בינה מלאכותית.
ניהול אירוע:
תקן ISO כולל גם דרישות עבור ניהול אירועים שבו ארגונים יכולים להשתמש כדי להגיב לאבטחה תקריות המשפיעות על מערכות בינה מלאכותית.
ניטור אבטחה:
בקרות הרישום, הניטור וההתראה הנדרשות לתאימות ל-ISO 27001 יכולים לעזור לארגונים לזהות התנהגות חריגה של מערכת AI ולהגיב לתקריות.
מודעות והדרכה לאבטחה:
ניתן להרחיב את דרישות ISO 27001 בתחום זה כדי להבטיח שבעלי עניין מרכזיים יבינו את אתגרי האבטחה הייחודיים של מערכות בינה מלאכותית ולהישאר מעודכן לגבי האיומים והשיטות המומלצות העדכניות ביותר.
הצעדים הבאים
"ככל שטכנולוגיות בינה מלאכותית מתפתחות ומוטמעות יותר בתהליכים היומיומיים, החפיפה בין אבטחת בינה מלאכותית ואבטחת מידע תגדל ככל הנראה בתחומים כמו אבטחת מידע, חוסן מודל, יכולת הסבר וסודיות - שכולם מבוססים ישירות על היסודות של אבטחת מידע", אמר פיטרס. מסכם.
"זה ידרוש גישה מקיפה לאבטחה שמתחשבת הן בעקרונות אבטחת המידע המסורתיים והן באתגרים הייחודיים שמציבות טכנולוגיות AI."
האם הנחיות ה-NCSC יזכו לאימוץ נרחב? בהתחשב בעובדה שהם בהתנדבות, חבר המושבעים עדיין לא בעניין הזה. אבל לכל ארגון שמפתח מערכות AI, הם מומלצים מאוד. עדיף להשקיע זמן ומאמץ כעת בבניית מערכות מאובטחות לפי עיצוב, מאשר להסתכן בפריצה חמורה בעתיד. אירוע כזה עלול לעלות לארגון פי כמה בתיקון והתאוששות ממנו מבחינה מוניטין.










