בינה מלאכותית (AI) תשנה באופן קיצוני את חיינו ועבודתנו במהלך השנים הקרובות. אבל תלוי מאוד באיסוף וניתוח של מערכי נתונים גדולים, טכנולוגיה זו גם מהווה סיכוני פרטיות גדולים.
לפי מחקר מסיסקו, ל-60% מהצרכנים יש חששות לגבי האופן שבו ארגונים משתמשים במערכות בינה מלאכותית. ו-65% פחות סומכים על עסקים המשתמשים בטכנולוגיה הזו במוצרים ובשירותים שלהם.
חששות אלו הובילו גופים ממשלתיים רבים ומוסדות גדולים לפתח מסגרות בניסיון להסדיר את השימוש בטכנולוגיית AI. ביוני, האיחוד האירופי הודיע מתכננת חוק AI פורץ דרך כדי להבטיח שהטכנולוגיה הזו תהיה "בטוחה, שקופה, ניתנת למעקב, לא מפלה וידידותית לסביבה".
אפילו הוותיקן, בעזרת מרכז מרקקולה לאתיקה יישומית של אוניברסיטת סנטה קלרה, יש מפותח מדריך המתאר את ההשלכות האתיות של טכנולוגיית AI. הם מקווים "לקדם מחשבה מעמיקה יותר על השפעת הטכנולוגיה על האנושות". המכון הלאומי לתקנים וטכנולוגיה פיתח גם א מסגרת לניהול סיכונים בינה מלאכותית.
ככל שטכנולוגיית בינה מלאכותית מתפתחת, ללא ספק יופיעו חוקים חדשים המסדירים את הפיתוח והשימוש בה. במקביל, הלחץ יגבר על חברות ומשתמשי בינה מלאכותית להבין ולציית לחוקים חדשים. אבל איך הם באמת יכולים לעשות זאת בהצלחה? והאם יש עוד משהו שהם צריכים לדעת? שאלנו כמה מומחים בתעשייה לעצתם.
תקנות AI אינן דבר רע עבור התעשייה
בעוד שהכנסת תקנות בינה מלאכותית עשויה להישמע כמו סיכוי מרתיע עבור ארגונים המפתחים ומשתמשים בטכנולוגיה זו, זה יכול להיות דבר טוב עבור התעשייה. אלכסנדר גורנוסטל, אדריכל תוכנה ומומחה בינה מלאכותית ב כוכב מאמין שכללי בינה מלאכותית "יצרו מגרש משחקים הוגן ושווה יותר בטווח הארוך".
Gornostal מצפה שתקנות חדשות יפגעו במאמצי המחקר והפיתוח של AI בטווח הקצר. אבל זה לא יימשך לנצח; הוא בטוח שבסופו של דבר תהיה הזדמנות לחברות טכנולוגיה לפתח מוצרים שיפתרו כמה מהבעיות הגדולות ביותר של AI, במיוחד סביב פיקוח אנושי, פרטיות ואי-אפליה.
כמובן שחברות יצטרכו להבטיח שמערכות הבינה המלאכותית שלהן תואמות לחוקים חדשים ומתפתחים כדי להצליח בטווח הארוך. גורנוסטל מייעץ לחברות להתחיל בביצוע הערכות השפעה שוטפות והבטחת שקיפות מתמדת מול מחזיקי העניין. כמו כן, עליהם להפריש תקציבים ומשאבים משמעותיים כדי לעמוד בכללים הללו.
"עמידה בתקנות הבינה המלאכותית תהפוך לתנאי מוקדם לכניסה לשוק האירופי, וכל עסק שירצה לסחור או לנהל עסקים באיחוד האירופי יצטרכו לעמוד בסטנדרטים", הוא אומר.
יחד עם דאגות הפרטיות, גורנוסטל אומר כי בינה מלאכותית גנרטיבית מהווה סיכונים לגבי גיוון, ייצוג והכלה. "המודלים נוטים לחזק את ההשקפה הדומיננטית ביותר מבלי לשפוט עד כמה היא הוגנת או נכונה. עלינו להיות מודעים לחסרונות הללו ולהימנע משימוש בבינה מלאכותית ליצור תאי הד".
אימוץ עקרון By-Design
לעסקים המעוניינים ליהנות ממהפכת הבינה המלאכותית לא תהיה ברירה אלא להתכונן לתקנות חדשות ומתפתחות בתעשייה. עם זאת, כמו אימוטה יועצת הפרטיות הבכירה והמהנדסת המשפטית סופי סטאלה-בורדיון ציינה, רבים כבר רגילים להתמודד עם חוקים כמו תקנת הגנת המידע הכללית. היא גם מציעה שהציות לכללי הבינה המלאכותית החדשים תהיה דומה.
"הדרך הטובה ביותר לצפות חוקים ותקנות חדשים היא להפעיל מוקדם ככל האפשר את הגישה המבוססת על העקרונות שהוכנסה על ידי תקנות כמו GDPR; במילים אחרות, להמשיך בגישה עיצובית לעמידה בדרישות", היא אומרת.
זה כרוך בתכנון סביבות מבוקרות שבהן ארגונים מחפשים באופן שוטף "אירועים פוטנציאליים ופרקטיקות לא רצויות", לפי סטאלה-בורדיון. היא גם מייעצת לעסקים לבדוק אותם מול מדדים כמו סודיות והגינות.
היא ממשיכה ומסבירה שעסקים יכולים לבחור בין שתי אסטרטגיות עיצוב כדי "להראות שהפרטיות והאבטחה בעצם מתכנסות". הראשון משתמש בעקרונות הגנת מידע כגון מזעור וצריך לדעת.
"כאשר מופעל, זה אמור להוביל למדיניות בקרת גישה דקדקנית. מדיניות זו רלוונטית לנתוני הדרכה, פרמטרי מודל, שאילתות או הנחיות, תוצאות או תגובות", היא אומרת.
אסטרטגיית התכנון השנייה מספקת לעסקים מדדים, מדדי KPI ויומני ביקורת כדי לשפר את השקיפות והצפיות במהלך אישור המערכת, הדרכה, בדיקות, פריסה ותקופות זמן רבות אחרות. היא מוסיפה: "הנראות לאורך כל מחזור החיים של הנתונים מגדילה את השליטה והופכת את ההערכות הרגילות לפשוטות יותר להשתתף בהן."
כולם חייבים להבין את הסיכונים של AI
למרות שתקנות בינה מלאכותית "דרושות נואשות", ESET יועץ אבטחת הסייבר העולמי, ג'ייק מור, מודה שסביר שעסקים יתקשו להתעדכן בדרישות המשתנות ללא הרף.
"התקנות יכולות להעצים עסקים ולגרום להם להרגיש מוגנים, אבל אין להם משמעות למפתחים של תוכנות זדוניות מתוחכמות. תקנות בריטניה ידועות לשמצה מאוחרות למפלגה, אבל זה כבר נראה מבטיח יותר", הוא ממשיך.
הוא קורא להתערבות ממשלתית בסיכוני בינה מלאכותית "חיוני" אך קורא לרגולטורים להציב ציפיות ריאליות. "השליטה בחיה [AI] תהיה כמעט בלתי אפשרית עם שיפור מתמיד בטכנולוגיה מתקדמת", הוא אומר. "יתרה מכך, השיטור מקשה כמו תמיד עם תחומי שיפוט בינלאומיים חוצי שיפוט".
בנוסף לעמידה בתקנות AI חדשות, הוא מזהיר ארגונים שלא להתעלם מהאיום הנשקף ממתקפות סייבר המונעות בינה מלאכותית. הוא מצפה שאלו יגדלו במורכבות ובקנה מידה, ויתמקדו לעסקים וליחידים במהלך השנים הקרובות.
הוא מוסיף: "חשוב ללמד את הצוות ואת הציבור הרחב שראייה היא לא תמיד להאמין ושאנחנו צריכים 'לטעות בזהירות' יותר מתמיד שכן האלמנט האנושי [של AI] עדיין מנוצל לרעה. ”
אביב רף, CIO של בלומרייך, מסכים עם החשיבות של חינוך אנשים על הסיכונים הקשורים בינה מלאכותית ועל הצעדים שהם יכולים לנקוט כדי להשתמש בטכנולוגיה זו בבטחה.
הוא מייעץ: "עבור חברות, חשוב שהן יציגו מדיניות ותקנים העוסקים בשימוש המקובל בבינה מלאכותית, יארגנו הדרכות עובדים על השימוש המתאים בינה מלאכותית, יבטיחו שהן ישתמשו רק במופעים פרטיים של בינה מלאכותית המחויבים חוזית, יציגו את המודל. הכשרה, ולהשתמש בעיקרון המינימום הזכויות כדי למנוע גישה בלתי מורשית. "
בינה מלאכותית מציעה הזדמנויות עצומות לחברה כולה, אך היא גם מהווה סיכונים אתיים משמעותיים. עידוד הבנה גלובלית של סיכונים אלה והתמודדות מולם היא קריטית למימוש הפוטנציאל העצום שמציעה טכנולוגיית AI.
לתקנות יהיה חלק מהותי בתהליך זה, אך ברור שעמידה בהן תהיה משימה מאתגרת עבור עסקים. בנוסף, ככל שטכנולוגיית AI מתפתחת וסיכונים חדשים צצים, גופים ממשלתיים חייבים להתאים את התקנות שלהם בהתאם כדי להבטיח שהם יישארו רלוונטיים.










