למעלה מ-1,100 מומחי בינה מלאכותית ובכירים בתעשיית ההיי-טק, ביניהם אילון מאסק (מנכ"ל טסלה ו-SpaceX), סטיב ווזניאק (מייסד שותף באפל) ועמאד מוסטק (מנכ"ל Stability AI) חתמו על מכתב פתוח הקורא לעצור באופן זמני את הפיתוח של מערכות בינה מלאכותית שמתקדמות יותר מ-GPT-4 ל-6 חודשים, לצורך הערכת הסיכונים שהטכנולוגיה החדשה מציבה.
המכתב נכתב על-ידי ה- Future of Life Institute, ארגון ללא מטרת רווח שמטרתו לנווט טכנולוגיה טרנספורמטיבית לכיוונים תועלתניים, והרחק מסיכונים מהותיים שטכנולוגיה עוצמתית עשויה להסב. המכתב מזהיר כי מערכות AI כמו GPT-4 של OpenAI הופכות תחרותיות מול בני אנוש במשימות כלליות ומציבות סיכון פטנציאלי לחברה ולאנושות כולה. המכתב מזהיר גם מהפצת מידע לא נכון, מאוטומציה של שוק העבודה וכן מאבדן שליטה של האנושות. אם לא יהיה ניתן לבצע הפסקה כזו במהירות, המכתב קורא לממשלות להתערב לעצירת המשך הפיתוח.
הארגון קורא במכתבו להשתמש בעצירת הפיתוח כדי לפתח ולהטמיע במשותף פרוטוקולי בטיחות לתכנון ופיתוח מתקדמים של בינה מלאכותית, שיבטיחו שמערכות הנצמדות אליהם בטוחות מעבר לכל ספק סביר. במקביל, הארגון קורא למפתחי AI לעבוד עם קובעי מדיניות כדי להאיץ באופן דרמטי את הפיתוח של מערכות ממשל AI חזקות, שיכללו לכל הפחות: רשויות רגולטוריות חדשות ומסוגלות המוקדשות ל-AI; פיקוח ומעקב אחר מערכות AI עוצמתיות; פיתוח מערכות סימון תוצרי AI; פיתוח מערכות ביקורת ואישורים; דיון בשאלת האחריות לנזק שנגרם על ידי AI; מימון ציבורי למחקר בטיחות AI; וחיזוק מוסדות להתמודדות עם השיבושים הכלכליים והפוליטיים הדרמטיים שיגרום ה-AI.