גוגל שחררה אתמול כלי בקוד פתוח שיסייע לשמור על פרטיות בפיתוח מבוסס בינה מלאכותית. הכלי TensorFlow Privacy מאפשר להתמודד עם האתגר באימון מודלים של למידת מכונה על מערכי נתונים הכוללים מידע אישי רגיש.
הקוד מבוסס על שיטת מיסוך נתונים הנקראת פרטיות דיפרנציאלית, שיטה זו מוסיפה "רעש" באופן מתמטי לנתונים. כשמשתמשים בשיטת זו, קשה לקבוע אם מידע על אדם ספציפי הוא חלק מקבוצת נתונים, כיוון שהפלט ייראה למעשה זהה, ללא קשר להכללה או השמטה של מידע על אדם מסוים. שיטה זו היא המאפשרת למשל לתוכנת האימייל הפופולארית Gmail לנחש מה אתה עומד לכתוב על ידי איסוף נתונים מהודעות האימייל של אנשים אחרים, ובמקביל לוודא כי מידע אישי שכתבת בעבר לא יופיע ככזה אצל אדם אחר.
בשיתוף הקוד עם קהילת המפתחים, מקווה גוגל שהדבר יתרום לכך שהם יוסיפו כלי זה לאבטחת מידע אישי, למערכות אחרות המבוססות למידת מכונה ואף להביא לכך שהקהילה תתרום לשיפור הקוד. גוגל מבטיחה שהקוד הוא קל לשימוש ומאפשר התאמה למודלים שונים באמצעות כמה הגדרות בסיסיות. הקוד זמין ב- GitHub, בנוסף למסמך טכני שפרסמה גוגל. מקור: engadget