בריטניה הייתה, במשך יותר מעשור, תת הישג כלכלי. מאז המשבר הפיננסי של 2008-9, הפריון בקושי עלה, מה שמגביר את החשיפה של המדינה לזעזועים כלכליים, מעורר אי שביעות רצון בקרב הציבור ומוביל להידרדרות השירותים הציבוריים. הממשלה החדשה חושבת שיש לה תשובה: בינה מלאכותית. תוכנית פעולה חדשה וגדולה להזדמנויות בינה מלאכותית נחשף בינואר נועד לספק "עשור של התחדשות לאומית" על ידי "הנחת AI בעורקי האומה היוזמת הזו".

עם זאת, כפי שהזהירו מומחים, הוא גם מציג הזדמנויות חדשות ומשמעותיות עבור גורמי איומים לגנוב, לחבל, לסחוט ולהפריע. המפתח יהיה להבטיח שהארגונים החתומים להפוך את התוכנית למציאות לעצב את תשתית ה-AI והמערכות שלהם מתוך מחשבה על אבטחה מההתחלה.

מה בתוכנית?

התוכנית עצמה, שהממשלה טוענת שתאמץ במלואה, בהחלט לא חסרה שאפתנות. ישנם שמונה מרכיבים מרכזיים:

הנחת היסודות עם תשתית AI

זה כולל בניית משאב מחקר בינה מלאכותית (AIRR) של מחשבים מתקדמים בעלי יכולת בינה מלאכותית והקמת "אזורי צמיחה של AI" למסלול מהיר של בניית מרכזי נתונים במגזר הפרטי.

פתיחת נכסי נתונים

פיתוח ספריית נתונים לאומית (NDL), שתהפוך מערכי נתונים ציבוריים לזמינים "באופן מאובטח ואתי" עבור חוקרי AI ומחדשים. תוכניות אלה יכללו גם בניית תשתית לאיסוף נתונים במגזר הציבורי, מימון יצירת מערכי נתונים חדשים בעלי ערך גבוה, ותמריץ לתעשייה "לאצור ולפתוח מערכי נתונים פרטיים".

הכשרה ומיומנויות

הערכת פער מיומנויות הבינה המלאכותית, שיפור הגיוון במאגר הכישרונות, תמיכה בהשכלה גבוהה להגדלת מספר בוגרי הבינה המלאכותית ומשיכת עובדים מיומנים מחו"ל.

רגולציה, בטיחות והבטחה

פיתוח המכון לבטיחות בינה מלאכותית, הפיכת "משטר כריית הטקסט והמידע בבריטניה" לתחרותי יותר, "בדחיפות" מממנים רגולטורים כדי לשפר את מומחיות ה-AI שלהם, והבטחת כל מחלקות החסות נותנות עדיפות ל"חדשנות בינה מלאכותית בטוחה". התוכנית גם מצטטת יוזמות פרו-חדשנות כמו ארגזי חול רגולטוריים ובניית "כלי אבטחת איכות גבוהה" בגיבוי ממשלתי להערכת בטיחות בינה מלאכותית.

אמצו גישת "סריקה > טייס > קנה מידה".

ציפייה להתפתחויות עתידיות של AI, פיילוט עקבי ומהיר ויצירת אב טיפוס, והתמקדות בהרחבה לעשרות או מאות מיליוני אינטראקציות עם אזרחים ברחבי בריטניה. שלב זה מתייחס גם לצורך בתשתית הדדית, שימוש חוזר בקוד ומקור פתוח.

חיזוק המגזר הציבורי והפרטי

הממשלה מתכננת להשתמש בתשתית הדיגיטלית החזקה והחדשה שלה כדי ליצור הזדמנויות חדשות לחדשנים, ליצור מרכז ידע בינה מלאכותית ולעורר עניין במגזר הפרטי בגישת סריקה > פיילוט > קנה מידה לניצחונות מהירים.

לטפל במחסומי אימוץ משתמשים

שפר את האימוץ במגזר הציבורי והפרטי באמצעות אלופי AI ספציפיים למגזר ואסטרטגיה תעשייתית חדשה.

AI מתקדם

צור יחידה ממשלתית חדשה עם הכוח לשתף פעולה עם המגזר הפרטי כדי למקסם את חלקה של בריטניה ב-I frontier AI.

יותר משירות שפתיים?

כפי שאופייני להודעות ממשלתיות גדולות, רבים מהפרטים נותרו לעיבוד. אז בעוד ש"אבטחה" מוזכרת 14 פעמים בתוכנית, זה רק במונחים המעורפלים ביותר, כגון שהממשלה "מחויבת לבניית תשתית AI מתקדמת, מאובטחת ובת קיימא" או שהיא "תפתח באחריות, מאובטחת ואתית את הערך של נכסי מידע במגזר הציבורי".

עם זאת, יש סיבה טובה לדאוג מההשלכות. על פי הפורום הכלכלי העולמי (WEF). דוח סיכונים גלובליים 2025, "תוצאות שליליות מטכנולוגיות בינה מלאכותית" דורגה על ידי מנהיגים עסקיים ומומחים כסיכון השישי החמור ביותר בעשור הבא. תוצאות אלו יכולות להגיע ממודלים מעוצבים בצורה גרועה או מפעולות זדוניות כמו הרעלת נתונים/מודלים. בתרחיש האחרון, שחקני איומים מקבלים גישה למערכות בינה מלאכותית כדי להשחית את נתוני האימון או לתמרן פרמטרים של מודל כדי לחבל או לגרום לתפוקות ספציפיות ולא רצויות.

הם יכולים להשתמש באותה גישה לתשתית AI כדי לגנוב נתוני הכשרה רגישים של ארגונים ולקוחות, או אפילו מודל שפה גדול (LLM) בעצמו, אם הוא כוונן היטב על ידי ארגון למטרה מסוימת ולכן מייצג IP יקר ערך בפני עצמו.

למרבה הצער, מחקר מגלה שמרכיבי המפתח של גישות הבינה המלאכותית של הדור הבא כמו הדור המוגדל של אחזור (RAG) ו"AI אנטי" אוטונומי מלאים בפגמי אבטחה. דו"ח אחד טוען שמצאתי נקודות תורפה מרובות בכלים ופלטפורמות אירוח LLM כמו llama.cpp ו-Ollama, כמו גם מסדי נתונים וקטוריים כגון ChromaDB. הוא גם חושף עשרות שרתים ומופעים שנחשפו לציבור הקשורים לכלים כאלה, שרבים מהם אינם דורשים אימות. זה בלי להזכיר את הסיכון הכרוך באישורים שנפגעו.

"אחוז גבוה של מתקפות סייבר משתמש באישורים גנובים - כך שתוקפים נכנסים במקום לפרוץ פנימה", אומר CSO של SoSafe, אנדרו רוז, ל-ISMS.online. "חברות רבות יוצרות צ'טבוטים של בינה מלאכותית כדי לסייע לצוות שלהן, אך מעטות חשבו על התרחיש של הצ'טבוט שלהן הופך שותף למתקפה על ידי סיוע לתוקף לאסוף נתונים רגישים, לזהות יחידי מפתח ותובנה ארגונית שימושית."

מומחים מרימים דגלים אדומים

גם מומחי אבטחה אחרים הביעו אזעקה על תוכניות הממשלה. מייקל אדג'י, מנהל הנדסת מערכות ב- Illumio, מזהיר מפני "שכבה נסתרת" של טכנולוגיית AI קניינית ולא נבחנה מספיק, שגורמי איומים יכולים לכוון אליה באמצעות התקפות הרעלת נתונים יריבות שהוסברו לעיל.

"האתגר הוא שהשכבות הנסתרות של AI פועלות באמצעות 'ייצוגים נלמדים', שקשה לצוותי אבטחה לפרש ולנטר פרצות. זה מקשה על זיהוי דגמי בינה מלאכותית שחוללו, במיוחד במערכות שמתפקדות באופן אוטונומי או בזמן אמת", הוא אומר ל-ISMS.online.

"שרשרת האספקה ​​של AI מהווה סיכונים נוספים. נתוני צד שלישי שנפגעו, סביבות הדרכה, תוכנה או חומרה עלולים לסכן מערכות AI שלמות. לדוגמה, תוקפים יכולים להחדיר נתונים זדוניים למערכי נתונים של אימון, וליצור הטיות או נקודות תורפה במודלים של AI."

התוכנית הממשלתית מתייחסת לתוכנת קוד פתוח, חשש מסוים בשרשרת האספקה ​​בהתחשב ב אתגרי האבטחה המתועדים היטב של התעשייה.

ל-Bridewell CTO למרטין ריילי יש רקע בתכנון ותפעול מרכזי נתונים. הוא מזהיר כי "שוק מרכזי הנתונים אינו מוסדר היטב, והבשלות של אבטחת הסייבר סביב המתקנים הללו לוקה בחסר". הוא גם מניף דגל אדום לגבי ה-NDL.

"ה-NDL ישאף בעיקר להבטיח שהמגזר הפרטי יוכל לחדש כדי לתמוך במגזרים הציבוריים, כך שהקפדנות סביב הנתונים, האנונימיזציה וההגנה על אנשים הולכת ליצור מספר אתגרי אבטחת סייבר", אומר ריילי. "מה עומדות להיות דרישות אבטחת הסייבר עבור אלה שמחפשים לגשת ל-NDL ולהשתמש בנתונים שלו?"

רוז של SoSafe רוצה לראות התמקדות גדולה יותר בממשל.

"אני מקווה לראות את הממשלה חוזרת על כך שבינה מלאכותית חייבת לעמוד בתקנות קיימות, כמו תקני פרטיות נתונים. התעקשות על איכות ובקרה של נתוני קלט תהיה חכמה כדי להבטיח פלט איכותי חסר הטיה, אבל זה הופך לאתגר כאשר מערכי הנתונים הופכים עצומים ורחבי טווח, שמקורם במקומות רבים", הוא מסביר.

"המפתח הוא להתעקש שחברות המאמצות בינה מלאכותית יקימו ועדת ממשל ופיקוח. זה צריך לדרוש מלאי של היכן נעשה שימוש בבינה מלאכותית, ואת היקף האחריות שלו, נתמך על ידי הערכות סיכונים של הנזק הפוטנציאלי שנגרם על ידי פלט שגוי או כשל, ונתיבי התאוששות לכל כשל או הפרה."

ISO 42001 להצלה

הרגולטורים ימלאו תפקיד משמעותי בהבטחת שאיפות הממשלה יתגשמו בצורה בטוחה, מאובטחת ואתית. המכון לבטיחות בינה מלאכותית יהפוך לגוף סטטוטורי, מחלקות נותנות חסות ימומנו כדי "להגדיל את יכולות ה-AI שלהן", ו"חדשנות בינה מלאכותית בטוחה" יודגש בהנחיה לרגולטורים אלה.

עם זאת, בעוד שנותר לראות אילו כללים חדשים עשויים להיות מיושמים כתוצאה מכך, יש כבר תקני שיטות עבודה מומלצות שיכולות לעזור למפתחי ומשתמשים של AI לנווט בכל מסגרות רגולטוריות שיבואו בדרכם. ISO 42001, למשל, נועד להניע שימוש אחראי וניהול של מערכות ניהול AI.

"הוא מספק קווים מנחים לשימוש מאובטח ב-AI, עוזר למפתחים ליישם מנגנונים לזיהוי התנהגות חריגה או פלטים בלתי צפויים, ומפחית את הרגישות למניפולציות", אומר Adjei של Illumio.

ורד של SoSafe מסכימה.

"ISO 42001 הוא מתודולוגיה יעילה לעזור לארגונים לאמץ בינה מלאכותית. זה מניע גישה זהירה להערכת ובקרה של יישום AI, ומבטיחה שיש מספיק תובנה ופיקוח על סיכונים נלווים", הוא מסכם.

"כמו ISO 27001, זה לא גורם לך להיות בטוח. עם זאת, זה יוצר נתיב להערכה ושיפור מתמשכים, מה שמגדיל את הסבירות ליצירת פתרון עמיד".

נדע הרבה יותר על תוכניות הממשלה באביב, אם כי עם הכלכלה הבריטית במצב גרוע, נותר לראות אם האוצר יחסום או ידלל רבות מיוזמות אלו. לא משנה מה יקרה, הבה נקווה שאבטחה מובנית וממשל AI משופר אינם ניתנים למשא ומתן.