אין לאמן מודלים של בינה מלאכותית (AI) באמצעות מידע אישי רגיש הקשור לבריאות, מיקום גיאוגרפי והיסטוריית גלישה באינטרנט. כך הזהירה לינה קאן, יו"ר נציבות הסחר הפדרלית בארה"ב (Federal Trade Commission - FTC) בדברים שנשאה בסוף החודש שעבר.
לדברי קאן, אימון מודלי AI באמצעות מידע אישי של משתמשים יעצים את הפגיעה בפרטיותם ויתמרץ מעקב בלתי ראוי אחריהם. לנוכח זאת, ה- FTC פועל ליצירת הגדרות בהירות להתנהלות בטוחה וראויה בפיתוח, שימוש וניהול של המידע לאימון מודלי בינה מלאכותית.
יו"ר נציבות הסחר הפדדראלית הדגישה כי אימון מודלים ושכלול אלגוריתמים לא יכול לבוא במחיר פרטיות המשתמשים ואבטחת המידע שלהם. אין "פטור מבינה מלאכותית" לעמידה בהוראות החוק, הבהירה קאן. חברות לא יוכלו לטעון להגנה מטעמים של חדשנות והתפתחות טכנולוגית כבסיס לפגיעה בפרטיות.
בנוסף, חברות שאספור מידע אודות משתמשיהן, והמעוניינות להשתמש בו לצרכי אימון המודלים שלהן, חייבות להודיע למשתמשיםם באופן אקטיבי על השינוי, ולא להטמיע זאת טכנית בתנאי השימוש שלהן. מקור: The Record (מאת סוזן סמולי).