זה 2023, ונראה שבינה מלאכותית נמצאת בכל מקום. ChatGPT, ה-AI המיוצר על ידי המכון OpenAI שהקים אילון מאסק, הוא כתיבת מאמרים לסטודנטים, להוציא ספרים, ואפילו קנסות חניה מאתגרים. בתקרית אחת שמוכיחה שאנחנו חיים בפרק של Black Mirror, עובד אוניברסיטה חסר נשמה במיוחד אפילו השתמשתי בזה לנחם תלמידים לאחר ירי המוני.
איך ChatGPT עובד
מומחי פרטיות ואבטחה עשויים לתהות כיצד AI יכול לעזור גם להם. האם זה, למשל, יכול לכתוב את מדיניות הפרטיות שלך? התשובה היא כן - בערך.
כדי לפרוק את השאלה בצורה יסודית יותר, כדאי להבין כיצד פועל המותג החדש יותר של AI של ChatGPT. זה מבוסס על משהו שנקרא מודל שפה גדול (LLM). זהו מודל בינה מלאכותית שאומן באמצעות קורפוס גדול של טקסט, בדרך כלל מגורד מהאינטרנט. תהליך האימון מפרק את הטקסט הזה לאסימונים, שעשויים להיות חלקים ממילים. לאחר מכן, הוא משתמש בכמויות עצומות של כוח מחשוב כדי למצוא דפוסים בשפה שעוזרים לו להבין כיצד האסימונים הללו קשורים.
כשמישהו מנחה את הבינה המלאכותית בבקשה (נניח, "הסבירו היתוך קר בסגנון שרלוק הולמס"), הבינה המלאכותית משתמשת במודל האימון העצום שלה כדי לקחת חתיכות של מילים ולחזות אילו מהן צפויות להגיע בהמשך. כך הוא יכול לייצר שפה משכנעת שנראית בהתאם למושגים המפורטים בהנחיה.
בטוח וטיפש: שילוב גרוע
הבעיה בגישה הזו היא שה-AI לא יודע על מה הוא מדבר. חוקרים השוו את זה ל'תוכי סטוכסטי', שמחבר מילים אקראיות מבלי להבין אותן. מאמר שמתאר זאת, על הסכנות של תוכים סטוכסטיים, מציין כי "שפות הן מערכות של סימנים, כלומר זיווגים של צורה ומשמעות." כשמישהו אומר "ארנב", אתה מבין את המושג של ארנב וכיצד הוא קשור לדברים שונים אחרים (פסחא, אביב, חיות מחמד, תבשיל טעים וכו'). "אבל נתוני האימון עבור LMs הם רק צורה", אומרים החוקרים. "אין להם גישה למשמעות."
זה יוצר בעיות עבור LLMs שאתה מסתמך עליהם עבור תוכן עובדתי. מכיוון שהם מוצאים מילים המבוססות על הסתברות סטטיסטית ולא על ידע, הם נוטים לכתוב דברים שאינם נכונים. בעגה של AI, זה ידוע בשם 'הזוי', וזו בעיה אם אתה רוצה להסתמך עליהם לתוכן עובדתי.
אֲנָשִׁים התנסו עם שימוש ב-ChatGPT לכתיבת מדיניות פרטיות, עם תוצאות מפוקפקות. הם גילו, כצפוי, שהתוצאות היו גרועות יותר כאשר ה-LLM נאלץ למלא יותר מקומות ריקים.
בינה מלאכותית פשוטה מבקשת מדיניות חוזרת שלא התבססה על חוקי פרטיות ספציפיים ולא הייתה קשורה לפרקטיקות עסקיות ספציפיות. מדיניות הפרטיות השתפרה ככל שהבודקים הוסיפו מידע נוסף, עד לנקודה שבה היא הניבה תוצאה מרשימה. עם זאת, בשלב זה, "תצטרך להקדיש שעות, ימים או אפילו שבועות תחילה לקבוע אילו חוקי פרטיות חלים עליך, לנתח את דרישות החשיפה של החוקים הללו ולאחר מכן לספק מידע זה ל-ChatGPT, יחד עם שיטות העבודה הספציפיות שלך, " היא אומרת. מה שמעלה את השאלה: למה לא פשוט לעשות את כל העניין בעצמך מלכתחילה?
אחרים תיארו ChatGPT ו-LLM דומים כ"מחשבונים למילים". הם באמת שימושיים לכתיבה רק אם אתה משקיע הרבה עבודה בעצמך ומאמת בקפידה את התוצאות.
השימוש של אנשים ב-AI הוא לעתים קרובות גם בטוח וגם מטומטם
אנחנו לא יכולים לסמוך על כלי AI, אבל אנחנו יכולים לסמוך על אנשים שישתמשו בהם לרעה. כבר ראינו את הנשורת מבינה מלאכותית שאינה מיושם כהלכה, מה שמוביל לנשורת משמעותית שמשפיעה על החיים האמיתיים.
הרשויות השתמשו במערכות המופעלות על ידי בינה מלאכותית שהוכחו כמוטות כאשר המליצו על עונשים שיפוטיים. לדוגמה, השימוש לרעה של רשות המסים ההולנדית בתוכנת AI הוביל את הסוכנות לכך להאשים את ההורים בהונאה שלא בצדק-אמונה עיוורת באלגוריתמי זיהוי פנים פגומים המופעלים על ידי בינה מלאכותית הובילה ל מעצר לא חוקי של חפים מפשע. הטיה הופיעה גם במערכת הגיוס המופעלת על ידי בינה מלאכותית של אמזון, אשר בוטלה לאחר ששמרה לא להמליץ על נשים מוסמכות לעבודות טכנולוגיה.
כיצד נוכל לגשת לבעיה זו? כמה מומחים כבר עשו זאת התקשר בשביל הקפאה של שישה חודשים על פיתוח בינה מלאכותית כדי לעקוף את כל הבלגן המצטער לפני שהדברים יוצאים עוד יותר משליטה.
לא חסרות הנחיות
יש לנו כבר הרבה הנחיות AI אחראיות לבחירה, והן אומרות דברים דומים. קבוצת ההסברה Algorithm Watch שומרת על מלאי של הנחיות AI ממוסדות שונים, כולל של האיחוד האירופי הנחיות אתיות ל AI אמין. אחד שלא נכלל בזמן כתיבת שורות אלו היה המכון הלאומי לתקנים וטכנולוגיה (NIST's) מסגרת ניהול סיכונים בינה מלאכותית, שוחרר בינואר השנה. כמו רוב ההנחיות האחרות, המסגרת של NIST מתכוונת לספק כמה מסילות לפיתוח ויישום של AI. זה גם מהדהד כמה עקרונות נפוצים בהנחיות אתיות אחרות, כגון שקיפות, אחריות, פרטיות, אבטחה וחוסן.
לפי OEDC, יש יותר מ-800 יוזמות מדיניות של AI בכמעט 70 מדינות בזמן כתיבת שורות אלה, אבל יש הבדל גדול בין מדיניות מחייבת למדיניות לא מחייבת. הציות לרוב היוזמות, כולל NISTs, הן בהתנדבות.
מבט על חברות כמו Clearview AI מראה את החשיבות של אכיפה משפטית של מדיניות AI אחראית במקום רק לבקש יפה. הסטארט-אפ, שמוכר שירותי זיהוי פנים לרשויות אכיפת החוק, מפעיל אותם באמצעות מיליוני תמונות גנב מרשתות מדיה חברתית ללא הסכמת אנשים.
אין מספיק רגולציה
מדינות נחלקו בגישתן להסדרת המדיניות שלהן. כולם מתמודדים עם אותו אתגר: מעט מדי רגולציה, והם מסתכנים בשימושים בלתי צפויים וחסרי אחריות בטכנולוגיה. יותר מדי, והם עלולים לאלץ מחדשי AI בעלי פוטנציאל רווחים להתרחק.
ארה"ב עדיין לא הסדירה AI. קוֹנגרֶס מוּצָע חוק האחריות האלגוריתמית בשנת 2022, אך הוא מת ללא הצבעה. ל-FTC יש מוּבטָח להשתמש בסמכויות הקיימות שלה כדי להגן על תושבי ארה"ב מפני שימוש בוטה בבינה מלאכותית. זה גם הוציא א הודעה מוקדמת על הצעת החוק זה יכול לבשר כללי סחר חדשים גורפים להתמודדות עם קבלת החלטות ומערכות מעקב אוטומטיות.
האיחוד האירופי היה אגרסיבי יותר, והציע את חוק AI, שדוגל בתקווה יעבור השנה. זה יכסה את כל המוצרים והשירותים של AI, יסווג אותם לפי רמת הסיכון הנתפסת שלהם ויחיל הערכות קפדניות וכללי תאימות לנתונים על אלה בסיכון גבוה יותר. עבריינים צפויים לקנסות כבדים.
בבריטניה יש משימות מה שזה מכנה בלשון המעטה "גישה פרו-חדשנות". במקום למנות רגולטור יחיד חדש של AI, הוא יחלק את האחריות להסדרת AI בין הרגולטורים הקיימים ולא יעניק להם בתחילה סמכויות משפטיות חדשות לעשות זאת.
בעוד פוליטיקאים הולכים על החבל הדק בין אתיקה לתועלת כלכלית, עתיד הבינה המלאכותית תלוי על הכף. דבר אחד בטוח: להשאיר את זה לחברות הטכנולוגיה לבדן לפעול באחריות יהיה...חוסר אחריות.










