הרשות להגנת המידע הבריטית (ה-ICO) פרסמה, באמצעות חוקר הבינה המלאכותית שלה, רובן בינס, המלצות לארגונים בעניין שמירה על פרטיות נושאי מידע בעת יישום של בינה מלאכותית.
הרשות הבריטית הצביעה על איזונים קריטיים שיש לערוך בעת יישום בינה מלאכותית -
- פרטיות מול דיוק: הרצון של ארגון שבינה מלאכותית שהוא מיישם תפיק תוצאות מדויקות, אל מול זכותם לפרטיות של נושאי המידע. איזון זה נדרש משום שככל שבינה מלאכותית תאסוף ותעבד כמות גדולה יותר של מידע, כך תוצאותיה יהיו מדויקות יותר.
- דיוק מול הוגנות: איזון זה נדרש במקרים בהם ארגון יידרש לוודא כי בינה מלאכותית שהוא מיישם אינה מפלה בין קהילות שונות. לצורך כך, בהכרח, יידרש הארגון לאסוף מידע אודות קהילות שונות תוך שהוא מבליט את השוני ביניהן.
- שקיפות מול דיוק: נדרש איזון בין היכולת של ארגון להסביר לנושאי המידע (וזכותם לדעת) כיצד החלטות מבוססות בינה מלאכותית מתקבלות על בסיס עיבוד מידע אודותיהם, לבין היכולת של המערכת להיות מדויקת. מערכות בינה מלאכותית מתקדמות ביותר מפיקות תוצאות מדויקות. כך ככל שהן מתקדמות, כך קשה ואף כמעט בלתי אפשרי להסביר את תהליך הפקת תוצאות הבינה המלאכותית (לדוגמה בבינה מלאכותית שמיישמת Deep Learning).
- שקיפות מול אבטחה: איזון בין הצורך להסביר לנושאי המידע איך מתקבלות החלטות לגביהם המבוססות בינה מלאכותית, לבין הצורך של הארגון שלא לחשוף סודות מסחריים. ככל שמודלים של לימוד מכונה (Machine learning) יוסברו כך יוגבר הסיכון לחשוף את המידע האישי שמערכת בינה מלאכותית מעבדת וכן להבין כיצד היא עובדת – מה ששעשוי לסכן את אבטחת המערכת.
כמו כן, הרשות הבריטית ממליצה לארגונים המיישמים בינה מלאכותית להעריך ולתעד את הסיכונים הטמונים ביישומה, ובין השאר -
- לזהות איזונים אפשריים בין ערכים כבר בשלב עיצוב הבינה המלאכותית;
- לצמצם מלכתחילה את האפשרות שיצטרכו לאזן בעתיד בין ערכים מתנגשים;
- לקיים מנגנון אישור החלטות מבוססות בינה מלאכותית, שהוא עצמאי וחיצוני לבינה המלאכותית;
- לסקור ולאתר איזונים בין ערכים באופן שוטף, תוך שהארגון לוקח בחשבון את דעותיהם של נושאי המידע או נציגיהם.
כל אלה, לפי ה-ICO, צריכים להיות מתועדים בתסקיר השפעה על הפרטיות (Data Protection Impact Assessment - DPIA) שעריכתו מתחייבת מכוח סעיף 35 ל-GDPR.