ענקית הטכנולוגיה מייקרוסופט פרסמה אתמול (ד') דוח שקיפות ראשון מסוגו בנושא בינה מלאכותית אחראית (responsible AI). בדוח הוולונטרי, מפרטת החברה על האופן בו היא מפתחת כלי בינה מלאכותית יוצרת ומשתמשת בהם, על תהליכי קבלת ההחלטות בנוגע לאותם כלים, מנגנוני התמיכה במשתמשים שמפתחים כלים משלהם, ותהליכי הפקת הלקחים והסקת המסקנות לפיתוח עתידי של כלים כאמור.
תהליך הפיתוח של כלי הבינה המלאכותית על ידי מייקרוסופט ושותפיה כולל שלושה שלבים מחזוריים. בשלב הראשון מתבצע תהליך זיהוי ומיפוי של הסיכונים הכרוכים בפיתוח הכלי, לרבות סיכונים הנוגעים לאבטחה ולפרטיות. התהליך נסמך בין השאר על הערכה באמצעות מודלי איום (threat modules) שפותחו על ידי מייקרוסופט, פידבק ממשתמשים ושימוש ב-AI red teaming – סימולציה של מתקפות סייבר. לאחר מכן, מתבצע תהליך של הערכת הסיכונים ומידת היעילות של האמצעים להפחתתם. לבסוף, מתקבלת ההחלטה כיצד לנהל את הסיכון, באמצעים אוטומטיים בשילוב עם פיקוח אנושי. בשלב האחרון עושה מייקרוסופט שימוש בשלל כלים וביניהם ה-content credentials – כלי לתיוג אוטומטי של תכנים (והמטא-דאטה שלהם) ככאלה שנוצרו בידי בינה מלאכותית.
לפי הדוח, במסגרת פעילותה לעידוד בינה מלאכותית אחראית, פיתחה מיקרוסופט 30 כלים המכילים יותר מ-100 מאפיינים שונים לתמיכה במשתמשים. דוגמה אחת לכלי כאמור, הוא הגנה מפני הפרת זכויות יוצרים (Microsoft Customer Copyright Commitment). במסגרת מחויבותה של מייקרוסופט, היא תכנס בנעלי לקוחות מסחריים שנתבעו בידי צדדים שלישיים בגין הפרת זכויות יוצרים בשימוש ב-Copilots או ב-Azure OpenAI Services וכן תישא בהוצאות המשפטיות הרלוונטיות. זאת, בתנאי שהלקוח עמד בתנאים מוגדרים, לרבות שלא ניסה ליצור תוכן מפר במכוון או להסיר גדרות בטיחות או מסנני תוכן שמייקרוסופט דורשת להשתמש בהם.
בנוסף, החברה מדווחת כי עד לסוף השנה שעברה 99% מעובדיה עברו הכשרות בתחום, וכי היא פועלת לעידוד המחקר בתחום על ידי תמיכה בקרן המחקר הלאומית ומימון מחקרים עצמאיים בשיתוף עם גורמים מקצועיים מכל רחבי העולם.