קביעת בסיסים חוקיים לעיבוד מידע למטרת אימון בינה מלאכותית, ניטור ההשלכות החברתיות של בינה מלאכותית, הפחתת אי הוודאות המשפטית ושיתוף פעולה בקביעת אמצעי הגנה נאותים על הפרטיות. אלה הם חלק מהקווים המנחים שקבעו דרום קוריאה, בריטניה, אוסטרליה, צרפת ואירלנד בהצהרה משותפת בנושא בניית מדיניות ניהול מידע לעידוד הפיתוח של מערכות בינה מלאכותית משמרות פרטיות (Privacy protective AI).
לפי ההצהרה, האקו-סיסטם של הבינה המלאכותית הוא מורכב ביותר: הוא חוצה מגזרים (לרבות מגזרי הבריאות, השירותים הציבוריים, הביטחון הלאומי, משאבי האנוש והחינוך); הוא מערב בעלי עניין רבים, דוגמת ספקי מודלים, יוצרי מערכי נתונים, אינטגרטורים ומשתמשי קצה, ושרשראות ערך (value chain) מורכבות; הוא פועל בקנה מידה נרחב ודורש כמויות עצומות של מידע, שנמצא בליבת מערכות הבינה המלאכותית; הוא מתפתח בקצב מהיר מאוד; והוא מציב אתגרים משמעותיים להגנה על פרטיות וזכויות יסוד אחרות.
המדינות החתומות על ההצהרה הדגישו את הצורך בפיתוח והפעלת כלי בינה מלאכותית בהתאם לכללי הגנת מידע ופרטיות, לרבות באמצעות הטמעת עקרונות פרטיות כעיצוב (Privacy by design) משלב התכנון הראשוני, והטמעת אמצעי הגנה שיפחיתו את הסיכונים הנובעים מהשימוש במערכות בינה מלאכותית לאורך כל מחזור החיים שלהן. בתוך כך, התחייבו המדינות החתומות –
- לקבוע קווים מנחים משותפים בנוגע לצורך בקיומם של בסיסים חוקיים (legal bases) לעיבוד מידע למטרת אימון בינה מלאכותית.
- לשתף ביניהן מידע ולבסס הבנה משותפת של אמצעי הגנה נאותים, המבוססים על הערכות מדעיות וראיות והמותאמים למגוון מקרים וסוגים של מערכות. את הרלוונטיות של אמצעים אלה יש לבחון באופן תדיר כדי להתאים לקצב ההתפתחות הטכנולוגית.
- לנטר באופן רציף את ההשלכות הטכניות והחברתיות של בינה מלאכותית, ולמנף את המומחיות והניסיון של רשויות הגנת מידע ורשויות ציבוריות אחרות, וכן ארגונים לא ממשלתיים כגון גופי אקדמיה ועסקים, בנושאי מדיניות הנוגעים לבינה מלאכותית.
- להפחית את אי הוודאות המשפטית תוך עידוד חדשנות, כאשר עיבוד המידע חיוני לפיתוח מערכות בינה מלאכותית והשימוש בהן.
- לחזק את הקשרים שלהן עם רשויות הגנת הצרכן, הקניין הרוחני, התחרות ורשויות רלוונטיות אחרות, כדי ליצור סינרגיה בין מסגרות רגולטוריות שונות החלות על מערכות וכלי בינה מלאכותית.