OpenAI עיבדה נתוני משתמשים לאימון ChatGPT מבלי להציג למשתמשים את הבסיס החוקי לעיבוד. כך קבעה רשות הגנת המידע האיטלקית לאחר חקירה שבסופה הטילה על חברת הבינה המלאכותית קנס בגובה 15 מיליון יורו.
הרגולטור האיטלקי פתח בחקירה בנוגע לאופן בו OpenAI מעבדת מידע אישי לאחר שזו כשלה לדווחה לו על פרצת מידע שאירעה במערכותיה בחודש מרץ 2023. במסגרת החקירה התגלה כי החברה הפרה את חובות השקיפות החלות עליה מכוח ה-GDPR כשלא הציגה למשתמשים את הבסיס החוקי לעיבוד המידע שלהם לצורך אימון המודלים של ChatGPT וכן הפרה את חובתה להטמיע מנגנונים לאימות גיל המשתמשים לשם מניעת חשיפתם של קטינים מתחת לגיל 13 לתכנים בלתי הולמים.
הרשות הטילה על OpenAI קנס בגובה 15 מיליון יורו וחייבה אותה לבצע קמפיין מודעות ציבורית בכלי התקשורת האיטלקיים, שמטרתו ללמד את הציבור כיצד ChatGPT פועל, תוך התמקדות באופן בו המידע האישי שלהם נאסף לצורך אימון מודלי הבינה המלאכותית. המקור: InfoSecurity Magazine (מאת: קווין פורלט).
הודעת הרגולטור האיטלקי על ההפרות שביצעה OpenAI מגיעה יום לאחר פרסום חוות הדעת של ה-EDPB בנושא מודלים של בינה מלאכותית, במסגרתה נקבע כי מודל של בינה מלאכותית יחשב "אנונימי" ולא יהיה כפוף ל-GDPR אם קיים סיכוי זניח לחלץ מהמודל מידע אישי על בן אדם ואם הסיכוי הוא זניח לפלט של המודל שמתייחס לנושאי מידע עליהם אומן המודל.