בעשר השנים הקרובות, מערכות בינה מלאכותית יעלו על רמת המיומנות של מומחים ברוב התחומים, ויבצעו פעילות יצרנית שהיא שוות ערך לזו של אחד התאגידים הגדולים בעולם כיום.
כך צופה OpenAi, חברת הבינה המלאכותית שמאחורי מוצרים כדוגמת ChatGPT, Dalle-2 ו-Copilot, במאמר שפרסמה בבלוג שלה. בין החותמים עליו – סם אלטמן, מנכ"ל החברה.
בינת-על כזו, צופה החברה. תהיה חזקה יותר מטכנולוגיות אחרות שהאנושות נאלצה להתמודד איתן בעבר. לצד הסיכוי לעתיד משגשג, עלולים להיות גם סיכונים קיומיים בטכנולוגיה כזו – כדוגמת אלה שנודעו לטכנולוגיית הגרעין – ויש לפעול לצמצומם.
OpenAI מציעה שלוש דרכים לכך -
- תיאום בין מאמצי פיתוח כדי להבטיח בטיחות ושילוב נטול-בעיות של בינת-על בחברה האנושית. ניתן להשיג זאת על ידי בדרכים שונות, כדוגמת הקמת פרויקט שירכז רבים מהמאמצים הקיימים, או הסכמה כללית להגביל את קצב הגידול ביכולות בינה מלאכותית. בהקשר זה יש להטיל אחריות כבדה על חברות יחידות.
- סוכנות לפיקוח על בינת-על דמוית הסוכנות הבינלאומית לפיקוח על הגרעין, סבא"א: סוכנות כזו תפקח על כל יוזמת בינה מלאכותית מעל סף יכולת מסוים, תערוך בדיקות מערכת, תדרוש ביקורת, תבטיח עמידה בתקני בטיחות ותגביל את רמות הפרישה של המערכת.
- טכנולוגיות לבינת-על בטוחה: זהו תחום מחקר פעיל, ש-OpenAI טוענת שהיא ואחרים מקדישים לו מאמצים רבים.
OpenAI מדגישה שהצעותיה לא חלות על פיתוח כל סוג של בינה מלאכותית: הן אינן אמורות לעכב את פיתוח של מודלים של בינה מלאכותית מתחת לסף יכולת מסוים. אמנם יש סיכונים מסוימים במערכות של היום, אך הם דומים לטכנולוגיות אינטרנט אחרות והגישות הצפויות כעת ביחס אליהן נראות מתאימות.