גוגל מתווה את הדרך לבינה מלאכותית כללית בטוחה

שימוש לרעה בבינה מלאכותית (AI) כדי להסב נזק, אי-התאמה של מערכת ה-AI לערכים אנושיים, טעויות AI המסבות נזק, וסיכונים מבניים כחלק מקונפליקט בין מספר גורמים - אלו הם ארבעת גורמי הסיכון העיקריים שצריך לבחון כדי להפוך בינה מלאכותית כללית (Artificial general intelligence - AGI) לבטוחה, לפי מאמר בן 145 עמודים שפרסמה Google Deepmind, זרוע הבינה המלאכותית של גוגל.

לפי גוגל, בינה מלאכותית כללית היא מערכת AI בעלת יכולות קוגניטיביות מקבילות לאלו של בני אדם. גוגל מעריכה כי מערכת כזו יכולה להיות מפותחת עד סוף העשור הנוכחי (2030) ולספק לאנושות כלים יקרי ערך להתמודדות עם אתגרים גלובליים קריטיים - אבל היא גם עלולה להוביל לסיכונים קיומיים שיאיימו על עתיד האנושות. במאמר, מפרטת גוגל את הדרכים לשיפור בטיחות הבינה מלאכותית כללית. אלה כוללות בין היתר:

  • זיהוי והגבלת הגישה ליכולות מסוכנות שעלולות להיות מנוצלות לרעה, כולל כאלו המאפשרות התקפות סייבר; הטמעת מנגנוני אבטחה המונעים גישה ישירה לנתוני אימון כלי הבינה המלאכותית; שימוש באמצעים להגבלת השימוש לרעה בעת פריסת מודל הבינה המלאכותית; ומחקר על איומים פוטנציאלים כדי לזהות נקודות תורפה הדורשות אבטחה מיוחדת;
  • פיקוח מוגבר על אי-התאמה של מערכת ה-AI לערכים אנושיים - בדיקה האם התשובות של ה-AI מקדמות מטרה זו באמצעות מערכות AI המשמשות לניטור (הסיכון הוא שמערכת בינה מלאכותית תהיה מודעת לכך שהמטרות שלה אינן מתיישבות עם הוראות אנושיות, ותנסה בכוונה לעקוף את אמצעי הבטיחות שלה);
  • שיפור השקיפות של מערכות ה-AI, באמצעות הצגת תהליך קבלת החלטות של הבינה המלאכותית ופיתוח מערכות AI קלות להבנה;
  • יצירת סביבה ליעוץ ושיתוף פעולה עם צוותי מחקר ומוצר להבטחת בטיחות הבינה המלאכותית הכללית.

גוגל ציינה כי הגישה שלה לבטיחות ולאבטחת בינה מלאכותית כללית נועדה לשמש מפת דרכים חיונית להתמודדות עם האתגרים הרבים שנותרו פתוחים, וציינה כי היא מצפה לשתף פעולה עם קהילות מחקר כדי לקדם בינה מלאכותית כללית אחראית ולנצל את יתרונות הטכנולוגיה למען כולם.