המשרד הפדרלי לביטחון מידע בגרמניה (Federal Office for Information Security - BSI) פרסם מדריך על אודות ההזדמנויות והסיכונים בבינה מלאכותית יוצרת (Generative AI) עבור חברות, תעשיות ורשויות. המדריך מדגיש כי גופים אלה צריכים לקחת בחשבון את הסיכונים המתגברים ולנקוט בצעדים המקדמים את השימוש הבטוח בבינה מלאכותית, לפני שילובה במערכותיהם.
תחילה, המדריך מחלק את הסיכונים הנובעים מהשימוש בטכנולוגיה לשלוש קטגוריות -
- סיכוני השימוש הרגיל בטכנולוגיה כתוצאה מקבלת פלטים שגויים, משימוש בנתוני אימון שאינם עדכניים, מהיותה של הטכנולוגיה מפלה ומקבלת החלטות מוטות, מהיעדר אמצעי אבטחה ראויים וכו'.
- סיכונים כתוצאה מניצול ושימוש לרעה בטכנולוגיה. למשל, כאשר היא מנוצלת ליצירת פלטי טקסט למטרות מזיקות, מניפולטיביות ובלתי חוקיות.
- סיכונים הנובעים מהתקפה על הטכנולוגיה המובילה לזליגת מידע רגיש, פגיעה בזמינות ובתקינות הטכנולוגיה, הפיכתה לזדונית ועוד.
המדריך מציין בין היתר את הצעדים הדרושים להתמודדות עם הסיכונים -
- הבטחת התפקוד הטוב ביותר של הטכנולוגיה באמצעות ניהול מקצועי של נתוני האימון של הטכנולוגיה לרבות הערכת שלמותם, איכותם ואמינותם.
- התחשבות ברגישות המידע שנאסף באמצעות הסרת מידע שאינו נחוץ, ביצוע אנונימיזציה של המידע, הוספת רעש, הימנעות משיתוף המידע עם צדדים שלישיים ועוד.
- הטמעת אמצעי אבטחת מידע והגנת סייבר ראויים.
- ביצוע בדיקות תקופתיות לטכנולוגיה וזיהוי פגיעויות פוטנציאליות ותיקונן במהירות.
- העלאת המודעות בקרב המשתמשים לגבי היכולות, החולשות והסיכונים האפשריים כתוצאה מהשימוש בטכנולוגיה.
- זיהוי אוטומטי של קלטים עם כוונה מניפולטיבית או זדונית.
- קידום טכנולוגיות שקופות ומובנות עבור בני האדם אשר מספקות הסברים עבור הפלטים או ההחלטות שהן מקבלות.
- מתן הזדמנות למשתמשים לאמת את הפלטים המתקבלים ולהצליבם עם מקורות אחרים.