מנהיגי שבע המדינות המתועשות (G7) הסכימו על עקרונות מנחים בינלאומיים בנושא בינה מלאכותית (AI) ועל קוד התנהגות וולונטרי למפתחי AI. הסכמה זו הושגה השבוע במסגרת תהליך הירושימה שפועל למען פיתוח מנגנון אסדרה בטוח ואחראי ל-AI ברמה הבינלאומית. שותפים לה הארגון לשיתוף פעולה ולפיתוח כלכלי ((OECD והשותפות הגלובלית בבינה מלאכותית (GPAI).
המדינות קוראות לארגונים המפתחים מערכות AI מתקדמות לציית לעקרונות מנחים בינלאומיים:
- זיהוי וצמצום דפוסי שימוש לרעה במערכת, ניטור פגיעות, והטמעת מערכת ניהול והערכת סיכוני AI.
- שקיפות ודיווח פומבי על תקריות או כל מידע משמעותי.
- שיתוף מידע גלובלי בין תעשייה, המדינות, האזרחים והאקדמיה.
- פיתוח ויישום מדיניות ממשל רשמית של בינה מלאכותית וניהול סיכונים.
- השקעה והטמעה בקרות אבטחת מידע והגנה מפנני איומי סייבר בעלות סטנדרטים חזקים.
- פיתוח ופריסת מנגנוני אימות ומקור של תכנים כדי לאפשר למשתמשים לזהות תוכן שנוצר על ידי AI.
- מתן עדיפות לפיתוח מערכות AI בטוחות ואחראיות, מערכות שמתמודדות עם משבר האקלים ומקדמות את המגזר הבריאותי והחינוכי העולמי.
- קידום ואימוץ תקנים טכניים אחידים וגלובליים בקרב כלל השחקנים.
- הטמעת אמצעי הגנת המידע ואיכות הנתונים בכדי להפחית הטיות.
על רקע עקרונות מנחים אלה, קוד ההתנהגות הבינלאומי שואף לקדם מערכות AI בטוחות, אמינות ואחראיות. הקוד מספק הדרכה וולונטרית לפעולות הארגונים, וקורא להם לבצע את הפעולות הבאות:
- לאורך כל מחזור החיים של פיתוח ה-AI, הארגונים צריכים לזהות ולהפחית סיכונים בעזרת שיטות בדיקה מגוונות. בנוסף, עליהם להתייחס לכלל האיומים הפוטנציאליים כגון הטיות, דיס-אינפורמציה, וסיכונים בריאותיים, נפשיים או בטיחותיים.
- הארגונים צריכים לעקוב אחר פגיעות ודפוסי שימוש לרעה במערכות, ולנקוט בפעולות להתמודדות עם סיכונים אלה. על הארגונים לדווח לצדדים שלישיים על בעיות ותקריות, ולשתף פעולה עם בעלי עניין בכדי לטפל בכלל הסיכונים שזוהו.
- יש לדווח בפומבי על יכולות ומגבלות מערכות AI, תוך שיפור השקיפות והאחריות, בעזרת פרסום דוחות עדכניים המפרטים את הסיכונים הפוטנציאליים ופעולות ההתמודדות.
- ארגונים נדרשים לשתף פעולה ולשתף מידע כדי לקדם בטיחות ואמינות בבינה מלאכותית. השיתוף צריך לכלול ביסוס סטנדרטים משותפים ושיטות עבודה מומלצות תוך הבטחת ההגנה על זכויות קניין רוחני.
- על הארגונים לפתח וליישם מדיניות ממשל לבינה מלאכותית וניהול סיכונים.
- יש להשקיע באמצעי אבטחת מידע חזקים, המכסים איומי סייבר ואיומים פנימיים.
- הארגונים צריכים לפתח וליישם מנגנוני אימות תוכן ומקור כדי לעזור למשתמשים לזהות תוכן שנוצר על ידי בינה מלאכותית.
- ארגונים צריכים לתעדף ולהשקיע במחקרים המתמקדים בבטיחות AI. בנוסף, עליהם לקדם מערכות AI שמתמודדות עם אתגרים גלובליים כגון משבר האקלים, ושאר יעדי הפיתוח בר-קיימא של האו"ם.
- יש להבטיח איכות נתונים וליישם אמצעי הגנת נתונים אישיים והגנת זכויות קניין רוחני מוגנות.