בכל הנוגע לרגולציה, המונח "ארצות הברית" הוא אוקסימורון. חוקי המדינות אינם אחידים כלל, כאשר כל תחום שיפוט באופן מסורתי מתאים את החקיקה לצרכים הספציפיים של מרכיביו. שום מקום אינו נכון יותר מאשר בעולם המתהווה של הבינה המלאכותית.

מחוקקים מכל 50 המדינות חָתוּם 118 הצעות חוק הקשורות לבינה מלאכותית נכנסו לחוק השנה, והצטרפו לאלו שכבר בתוקף. זה מייצג רק 11% מתוך 1,080 חוקים שהמחוקקים של המדינות שקלו בשנת 2025.

חוקים שאומצו הופכים גם הם לרחבים יותר. של קולורדו SB 24-305 (בתוקף החל מ-30 ביוני בשנה הבאה) היא מסגרת זכויות הצרכן הרחבה הראשונה בתחום הבינה המלאכותית המשפיעה על חברות פרטיות המפתחות או משתמשות ב"מערכות בינה מלאכותית בסיכון גבוה" בתחומים כמו תעסוקה, הלוואות, שירותי בריאות והחלטות דיור.

חוקים שונים נוקטים בגישות שונות לבעיה, מה שמחמיר את אפקט הטלאים. לדוגמה, חוק ניהול הבינה המלאכותית האחראית של טקסס (TRAIGA), מסגרת מקיפה נוספת להגנת צרכנים בתחום הבינה המלאכותית שנחתמה השנה, קושר אחריות לכוונה בניגוד למיקוד של קולורדו המבוסס על תוצאות. בינתיים, בקליפורניה יש מספר חוקים, כולל אחד המתמקד ב... שקיפות נתוני האימון.

פעמוני האזעקה של תאימות לתקנות כבר מצלצלים עבור חברות אמריקאיות. מעל שבעה מתוך עשר מנהיגי IT מדרגים כעת את תאימות הרגולציה בין שלושת האתגרים המובילים שלהם לפריסה של בינה מלאכותית גנרטורה. גרטנר (מקור הסטטיסטיקה) מאמינה כי הפרות רגולטוריות של בינה מלאכותית יגרמו לעלייה של 30% בסכסוכים משפטיים עבור חברות טכנולוגיה. עסקים אולי מבינים את הסיכון, אבל זה לא אומר שהם מוכנים לזה. פחות מרבע בטוחים שהם באמת יכולים לנהל את ניהול הבינה המלאכותית, אומרת חברת אנליסטים בשוק.

התמודדות עם רגולציה אינה דבר חדש עבור חברות אמריקאיות, שנאלצו לעכל את ה-GDPR (קצת כמו נחש שבולע עז) בשנת 2018. אבל הבינה המלאכותית צפויה להיות גרועה יותר עבורן.

גמביט ה-EO של טראמפ

מנהלים במצוקה עשויים לפנות למכתבו האחרון של הנשיא טראמפ לנחמה. בשבוע שעבר פרסם הבית הלבן הודעה להזמין הנהלה המבקש לרסן את הרגולציה המדינתית על בינה מלאכותית. בכך, היא מנסה לקיים רבות מההבטחות שהוצגו בה תוכנית פעולה בינה מלאכותית, שיצא ביולי.

התובעת הכללית האחרונה ממנה את פאם בונדי לראש "צוות משימה לליטיגציה בתחום הבינה המלאכותית" שתבחן חוקי מדינה שהיא מחשיבה כבלתי חוקיים. משרד המסחר ימשיך בהמשך על ידי קישור הצעות למענקים ל"נוף הרגולטורי" במדינות.

הוועדה הפדרלית לתקשורת (EO) שואפת להחליף תקנות ברמת המדינה שהיועץ המשפטי לממשלה אינו מרוצה מהן במסגרת משפטית אחת, אשר יפותח על ידי יועץ מיוחד לבינה מלאכותית וקריפטו (תפקיד הממלא כיום את דיוויד סאקס, מנהל התפעול לשעבר של פייפאל). נציבות התקשורת הפדרלית (Federal Communications Commission) תבחן גם יצירת תקן פדרלי יחיד לדיווח וגילוי מודלים של בינה מלאכותית.

זה אולי יעודד חלק מהחברות המודאגות ממורכבות החוק ברמת המדינה, אך בפועל, מומחים משפטיים לא מאמינים שיש לזה בסיס.

"סוכנויות פדרליות כמו משרד המשפטים וה-FTC אינן יכולות לפגוע בתקנות חוקיות של המדינה ללא משלחת ברורה מהקונגרס", כתב אוליבייה סילבן, פרופסור למשפטים באוניברסיטת פורדהאם ועמית מדיניות בכיר במכון נייט לתיקון הראשון לחוקה של אוניברסיטת קולומביה.

הקונגרס לא משחק תפקיד. ביולי, הסנאט הצביע ברוב גורף על הסרת הקפאה מוצעת של 10 שנים על אכיפת חוקי בינה מלאכותית של המדינה מהחקיקה המוצעת. לאחרונה, מחוקקים סירבו להוסיף הקפאה כזו לחוק הרשאות ההגנה הלאומית.

צווים נשיאותיים נוגעים לממשלה, לא למגזר הפרטי, ולכן המסמך האחרון מנסה להשתמש ברשות המבצעת כדי לדכא תביעות משפטיות מצד המדינות. עם זאת, "ללא חוק שמתקרב לטיפול ברגולציה של בינה מלאכותית מצד המדינות, שלא לדבר על חוק שמקדים אותה, סביר להניח שתקיפה של משרד המשפטים או הוועדה הפדרלית (FTC) על מדינות תהיה מוות ברגע שתגיע", הוסיף סילבן.

הסיכונים של פריסת בינה מלאכותית שאינה תואמת את התקנים

בהתחשב בכך, כדאי לחברות לתכנן עמידה ארוכת טווח ברגולציה המדינתית בתחום הבינה המלאכותית. לשם כך, שלוש שאלות צריכות כעת להיות חובה בדיונים בדירקטוריונים בנושא בינה מלאכותית: מי אחראי על החלטות בינה מלאכותית? כיצד מעריכים את הסיכונים? ומה קורה כאשר מודלים נכשלים? אבל זה לא קורה. רק 49% מהדירקטוריונים העריכו בינה מלאכותית, סיכונים, על פי האיגוד הארצי של דירקטורי תאגידים.

הסכנות הטמונות באי הערכת סיכונים הן מרובות. הגדולה ביותר ללא ספק, לפי מקינזי, הוא חוסר דיוק, כאשר 30% מהחברות חוות זאת לפחות פעם אחת בפרויקטים של בינה מלאכותית. בשנת 2024, אייר קנדה שילמה פיצויים לאחר שהצ'אטבוט שלה המציאו הנחות אבל, אך אלה מחווירים לעומת הנזק התדמיתי שנגרם.

במקום השני ברשימה של מקינזי נמצאת הסבר, אשר השפיעה על 14% מהחברות בפריסות בינה מלאכותית בעולם האמיתי. אי הסבר מדוע המודל שלכם סירב לתת הלוואה למישהו עלול להכניס אתכם לסיבוכים רגולטוריים. סיכונים נוספים כוללים הפרות פרטיות ופגיעויות אבטחת סייבר, שכל אחת מהן עלולה להוביל לתגובת פיקוח רגולטורית אפשרית.

חברות לא צריכות לחפש רחוק אחר דוגמאות לפריסת בינה מלאכותית שהשתבשה. שירות פיתוח תוכנה אחד המופעל על ידי בינה מלאכותית מחקת מסד נתונים של אדם, לדוגמה. אולי המדאיג מכולן, עם זאת, היה השערורייה סביב רשות המסים ההולנדית שימוש לרעה בבינה מלאכותית לקבל החלטות בנוגע לקצבאות המשפיעות על החיים.

ISO/IEC 42001 מציע בסיס לתאימות לתקן בינה מלאכותית

בתקופות הפכפכות כמו אלה, שבהן נוף הרגולציה של הבינה המלאכותית רחוק מלהיות אחיד, פנייה לתקנים מבוססים כמו ISO / IEC 42001 מסייע ביצירת שיטות עבודה מומלצות באופן עקבי. פורסם בדצמבר 2023, זהו תקן בינלאומי למערכות ניהול בינה מלאכותית. ארגונים השוקלים פריסת בינה מלאכותית יכולים להשתמש בו כדי לסייע להם בהערכת סיכונים והשפעה. זהו כלי לממשל בינה מלאכותית שפועל על פני מספר תחומי שיפוט.

חברות יכולות לסייע בפיתוח ותחזוקה של שיטות עבודה מומלצות חזקות בתחום הבינה המלאכותית על ידי הטמעת אמצעי תאימות במבנה הארגוני שלהן. לדוגמה, הקצו חבר בצוות התאימות שלכם לפקח על אמצעי תאימות ספציפיים לבינה מלאכותית המונעים על ידי ISO 42001, ובנו אמצעי הערכת סיכונים קבועים בתהליכי הפיתוח, הפריסה והשימוש בבינה מלאכותית שלכם.

שטוף באוקיינוס ​​סוער של חוקי מדינה, ועם סדרי עדיפויות משתנים באכיפה פדרלית שבוחנים את גבולות הרגולציה המשפטית, ISO 42001 הוא גלגל הצלה שאליו מחלקות תאימות תאגידיות יכולות להיאחז.