ספטמבר היה רגע מכונן עבור תומכי האתיקה של בינה מלאכותית. ה-FTC הנפיק סעיף 6(ב) מורה לשבע חברות טכנולוגיה גדולות המייצרות צ'אטבוטים לשמש כמלווים. זוהי החקירה הפדרלית הגדולה הראשונה המכוונת ספציפית לצ'אטבוטים מלווים של בינה מלאכותית שנועדו לחקות מאפיינים, רגשות וכוונות אנושיות. ה-FTC לא נוקטת תקיפות. היא רודפת אחרי כמה מהחברות הכבדות ביותר של הבינה המלאכותית. Alphabet, Meta Platforms, Instagram, OpenAI, Snap, Character Technologies ו-xAI של אילון מאסק - כולן קיבלו אותיות.

הנציבים הצביעו פה אחד על הוצאת הצווים, ובכך סימנו דאגה רגולטורית דו-מפלגתית בנוגע לבינה מלאכותית. הם נתנו לחברות 45 ימים להסביר היבטים שונים של פעילותן בתחום הבינה המלאכותית, כולל כיצד הן מייצרות רווחים ממעורבות משתמשים, מעבדות קלט משתמשים, מייצרות פלט בתגובה לפניות משתמשים, ומפתחות ומאשרות את מאפייני הבינה המלאכותית שלהן. עליהן גם לדווח על האופן שבו הן מודדות, בודקות ומנטרות השפעות שליליות לפני ואחרי הפריסה, וכן כיצד הן מפחיתות השפעות שליליות, במיוחד על ילדים.

דוחות אלה דנים גם באופן שבו הם מודיעים למשתמשים ולהורים על השפעות שליליות אפשריות, על נוהלי איסוף וטיפול בנתונים שלהם, יחד עם האופן שבו הם משתמשים או משתפים מידע אישי. לכן, קיימת דאגה רחבה לגבי פגיעה אפשרית בפרטיות ובמשתמשים פגיעים.

כיצד זה משפיע על חברות B2B?

אנחנו גם מופתעים וגם לא מופתעים שה-FTC עושה את זה. מצד אחד, ממשל טראמפ מתנגד בתוקף לרגולציה, במיוחד בכל הנוגע לבינה מלאכותית. מצד שני, משפחות רבות הגישו תביעות בטענה שצ'אטבוטים מבוססי בינה מלאכותית עודדו התאבדויות בקרב בני נוער. ילדים לכאורה עודדו לשים קץ לחייהם על ידי אלגוריתמים של בינה מלאכותית שתפקדו בחוסר אחריות. אז הגיע הזמן שמשהו ייעשה.

עם זאת, בינה מלאכותית שמשחקת במהירות ובקלילות עם המצבים הרגשיים של אנשים פגיעים מעלות סוגיות של פגיעה בצרכנים. כיצד הדבר עלול להשפיע על חברות B2B?

כל הנחה שארגוני B2B יכולים להתעלם מרגולציה של בינה מלאכותית הפונה לצרכן היא מסוכנת. מוזהר עורכי הדין של מאייר בראון, כריסטה ביקר וכריסטופר ליץ', בשנת 2022. סעיף 5 לחוק הסחר הפדרלי (FTC) אינו מכיל מגבלות מפורשות על מי נחשב לצרכן. לדוגמה, הוועדה הגישה צעדי אכיפה נגד מעבדי תשלומים B2B וחברות הלוואות לעסקים קטנים.

ופעולה זו מרמזת כי ה-FTC לא תהיה אדישה כפי שחלקנו אולי חשבו בכל הנוגע לתיקון חלק מנזקי הבינה המלאכותית.

בשנת 2023, אמרה היו"ר דאז, לינה מ. חאן, כי "אין פטור מחוקים בתחום הבינה המלאכותית, וה-FTC תאכוף את החוק במרץ כדי להילחם בשיטות לא הוגנות או מטעות או בשיטות תחרות לא הוגנות". נותר לראות עד כמה מזה יישאר בממשל החדש, אך עדיין קיים תיאבון להעמיד עסקים לדין.

חברות שלא מטמיעות בינה מלאכותית כראוי מסתכנות ב"התפרקות אלגוריתמית"

זה יהיה אדם עצוב ונדיר שיתאהב בצ'אטבוט של חשבונות חייבים. אף על פי כן, שימוש חסר אחריות בבינה מלאכותית עדיין עלול לגרום לבעיות עבור ארגוני B2B.

לדוגמה, ה-FTC קבעה אמצעי אכיפה אלגוריתמי למחיקה שבו היא יכולה להשתמש כדי לגרום לחברות למחוק בינה מלאכותית שפותחה עם נתונים שהושגו בצורה לא נכונה. אלה יושמו בעיקר במקרים של צרכנים, אך כפי שלמדנו, עסקים יכולים להיות גם צרכנים.

השתמש בתקן ISO 42001 לתיעוד שיטות עבודה מומלצות

ישנם צעדים שחברות יכולות לנקוט כדי להגן על עצמן על ידי הבטחת פיתוח ופריסת מערכות הבינה המלאכותית שלהן באחריות. אחד האמצעים החזקים ביותר הוא תיעוד העובדה שאתם עושים דברים באחריות מהיסוד. ISO 42001, תקן בינלאומי ספציפי למערכות ניהול בינה מלאכותית (AIMS), מתייחס לאתגרי בינה מלאכותית, כולל אתיקה, שקיפות, למידה מתמשכת, הטיה ואחריות. אלו בדיוק החששות המניעים את חקירת ה-FTC.

לדוגמה, ארגונים העוקבים אחר תקן זה חייבים לזהות ולתעד נזקים פוטנציאליים לפני הפריסה, להעריך השפעות לא פרופורציונליות על קבוצות מוגנות, להעריך מחדש סיכונים באופן קבוע וליישם אמצעי הפחתה מתועדים. זה בדיוק מה ש-FTC דורשת מספקי צ'אטבוטים.

באופן דומה, נספח A.7 של תקן ISO 42001 קובע את חובת התיעוד של מקורות רכישת נתונים, יחד עם טרנספורמציה, שימוש ואחסון. הוא בוחן את ניהול איכות הנתונים, כולל ההשפעה של כל הטיה במערכת.

אפילו חברות שאינן פועלות ישירות עם צרכנים יעשו טוב אם יבחנו את החקירה הנוכחית של ה-FTC דרך עדשת B2B. צ'אטבוטים אינם רק ממשקים חדשים למערכות ארגוניות קיימות. במקום זאת, הם הרבה יותר חזקים מבחינת האופן שבו הם יכולים לאסוף ולעסות נתונים, והרבה יותר זורמים וטבעיים בשפתם. זה יוצר אופני אינטראקציה חדשים עם לקוחות עסקיים ועם עובדים.

צווי סעיף 6(b) של ה-FTC אינם מאותתים על נקיטת פעולה משפטית; הם כלי זיהוי עובדות המסייעים להעמקת הידע של הוועדה. עם זאת, אם היא לא מרוצה מממצאיה, ייתכן שיינקטו צעדי אכיפה. וזה עלול לקבוע תקדימים לכל סוגי השימוש בבינה מלאכותית כנגד כל סוגי הצרכנים (אפילו עסקים קטנים). בנוף רגולטורי הפכפך שבו קובעי מדיניות מתמודדים עם טכנולוגיה חדשה, כדאי לנקוט משנה זהירות וליישם בקרות.