OpenAI מעדכנת הכללים לבחינת סיכוני בינה מלאכותית
OpenAI הודיעה על עדכון משמעותי של המסגרת לניהול סיכונים הקשורים למודלים מתקדמים של בינה מלאכותית. העדכון כולל קטגוריות סיכון חדשות המתמקדות ביכולות במודלים להתרבות עצמאית, להסתיר את יכולותיהם האמיתיות ולהתחמק ממנגנוני בטיחות.
במקביל, OpenAI תחדל מבחינת היכולות של מערכות AI להניע בני-אדם באמצעות מניפולציות ובמקום זאת תנהל את הסיכונים הללו דרך תנאי השימוש במודלים ומעקב אחרי פעילות המשתמשים. בכלל ...