השנה האחרונה הייתה אחת הגדולות של AI מאז שמדענים הציעו לראשונה את הרעיון בסוף שנות ה-1940. ספקי בינה מלאכותית המשיכו לחדש, כאשר דגמי בינה מלאכותית חזקים יותר מופיעים בקביעות, וספקי טכנולוגיה עסוקים בקיפולם להצעות הליבה שלהם. בעוד שהבית הלבן הוציא א להזמין הנהלה כדי לנסות לשים כמה מעקות סביב הטכנולוגיה החזקה הזו, היא מוגבלת ללא תמיכת הקונגרס, והמחוקקים עשו מעט מאוד כדי לעזור. עדיין אין רגולציה כוללת של AI ברמה הפדרלית.
זה הותיר את ממשלות המדינה למלא את הוואקום, והן התמודדו עם האתגר. לפי ה-Business Software Alliance, המחוקקים במדינה הציג 440% יותר חשבונות הקשורים לבינה מלאכותית בשנת 2023 מאשר בשנה הקודמת. חוקים אלה בחנו מגוון נושאים הקשורים לבינה מלאכותית, כולל פוטנציאל הטיה, שקיפות לגבי הנתונים המשמשים לאימון מערכות בינה מלאכותית ואיומים ספציפיים כגון זיופים עמוקים.
מבול של צעדים ממלכתיים
אמצעי הרגולציה שננקטו על ידי מדינות משתנים מאוד. חלקם, כמו טקסס, התמקדו בשימוש בבינה מלאכותית על ידי המדינה עצמה. שֶׁלָה בית ביל 2060, שנחתם בחוק בשנה שעברה, הקים מועצה מייעצת לבינה מלאכותית כדי לבחון את השימוש של המדינה במערכות בינה מלאכותית ולהעריך את הצורך בקוד אתי.
תקנות בינה מלאכותית אחרות מקיפות את השימוש במגזר הפרטי במערכות אלו, הממוקמות לרוב במסגרת חוקי הפרטיות של הצרכן. של אורגון SB619, שנכנס לתוקף ב-1 ביולי השנה, כולל מתן הסכמה לנתונים המשמשים בפרופיל אוטומטי. של מונטנה SB384 חקיקת פרטיות הצרכן, שהוצגה בפברואר 2023, נושאת הוראה דומה, כמו גם חקיקה של וירג'יניה חוק הגנת נתוני הצרכן וניו המפשייר SB255. כל אלה כבר חוקקו, וכך גם של טנסי HB1181, אשר מחייב הערכות הגנת מידע עבור פרופיל נתונים.
חלקם מתמקדים ב-AI גנרטיבי. של יוטה SB149, שנחתם בחוק במרץ השנה, מחייב ליידע אנשים אם הם מקיימים אינטראקציה עם בינה מלאכותית, עיסוק מוסדר (כזה שמחייב אותם ברישיון או תעודת מדינה).
מדינות אחרות ניסו ללכת מעבר לפרופיל הוראות ביטול הסכמה עם הגנות נוספות הקשורות לבינה מלאכותית. קונטיקט, שאכפה הוראה כזו בחוק הפרטיות שלה בקונטיקט בשנה שעברה, ניסתה הצעת חוק נוספת - SB2 - שהייתה מסדירה את הפיתוח של כלי החלטה אוטומטיים ומערכות בינה מלאכותית בעצמן. זה היה דורש תיעוד מקיף של מערכות כאלה והתנהגותן, יחד עם הנתונים המשמשים במהלך הפיתוח (זה היה כולל נתוני הדרכה). זה היה דורש גם הערכות סיכונים סביב הפריסה שלהם, יחד עם שקיפות.
הסנאט של מדינת קונטיקט עבר את SB2 אך הוא לא הצליח להגיע להצבעה בבית עד המועד האחרון שלו במאי, בין השאר בגלל הבטחתו של מושל קונטיקט נד למונט להטיל וטו על הצעת החוק.
עם זאת, לקולורדו היה מזל טוב לדחוף את גבולות הרגולציה של AI. שבוע לאחר ש-SB2 נפל במשוכה האחרונה, בית המחוקקים של מדינת קולורדו עבר SB24-205, אשר מסדיר באופן ספציפי AI. החוק מציג מסגרת אתית לפיתוח מערכות בינה מלאכותית בסיכון גבוה, מאלץ חשיפה של השימוש בהן, ונותן לצרכנים הזדמנות לערער על התוצאות שלהם ולתקן כל מידע אישי שמערכת הבינה המלאכותית השתמשה בהם. מערכות בינה מלאכותית בסיכון גבוה, שהחוק מגדיר ככאלה המובילות ל"החלטות תוצאתיות", יהיו כפופות אף הן להערכת סיכונים ולסקירה שנתית.
מדינות אחרות התאפסו על שימושים ספציפיים של AI. בשנת 2020, אילינוי עברה את 820 ILCS 42/1 (ה חוק ראיון וידאו בבינה מלאכותית), מה שמאלץ מעסיקים פוטנציאליים לקבל הסכמה ממועמדים לעבודה אם הם משתמשים בבינה מלאכותית כדי לנתח את ראיונות הווידאו שלהם.
יש שטרות אגרסיביים אחרים בהופר. במאי עבר הסנאט של קליפורניה SB1047 ב-32 קולות נגד אחד. הצעת חוק זו, שלה מועד אחרון ל-31 באוגוסט לעבור את אספת המדינה, מהדהדת כמה מהצעדים בצו הביצועי של הבית הלבן בנושא בינה מלאכותית. יש לציין כי הוא מטיל אמצעי בטיחות כגון שיתוף פעולה אדום ובדיקות אבטחת סייבר עבור דגמי AI גדולים. זה ייצור משרד נבדל להסדרת בינה מלאכותית, יחד עם ענן ציבורי לאימון מודלים של בינה מלאכותית, ויבטיח "מתג הרג" מובנה במודלים של בינה מלאכותית כדי להשבית אותם אם משהו ישתבש.
חוקי המדינה שדוחפים את גבולות הרגולציה של AI ימשיכו לצוץ כל עוד מחוקקים פדרליים יושבים על הידיים. היו כמה מהלכים מבטיחים, כמו הצגת מסגרת החדשנות SAFE של סנטור שומר כדי לחקור את השימוש האחראי בבינה מלאכותית. עם זאת, היוזמה הזו נעה בקצב קרחוני. א מוצעת החוק הפדרלי לניהול סיכונים בבינה מלאכותית יאלץ גם סוכנויות פדרליות לאמץ את מסגרת ניהול הסיכונים של AI של NIST וליצור הנחיות לרכישת בינה מלאכותית עבור סוכנויות. כרגע, לעומת זאת, המדינות הן היכן שהפעולה נמצאת.
איך אפשר להכין?
איך חברות יכולות להתחיל להתכונן למה שכבר הופך לטלאי של רגולציה ברמת המדינה סביב AI? תקן ISO 42001 משמש אסמכתא שימושית. הוא מתאר את הדרישות עבור מערכת ניהול בינה מלאכותית (AIMS) הכוללת מדיניות, נהלים ויעדים כחלק ממבנה ממשל לשימוש במערכות AI. זה גם קורא לשקיפות ואחריות בקבלת החלטות מבוססות בינה מלאכותית, תוך סיוע לארגונים לזהות ולצמצם סיכונים הקשורים לבינה מלאכותית.
ככל שכללי המדינה מתרבים, תקן ISO הוא קנה מידה המדגים תרגול טוב וחשיבה מוקדמת בתקופה לא ברורה עבור רגולציה של AI.










