נשיא מייקרוסופט, בראד סמית', קורא בראיון לניו-יורק טיימס (מאת David McCabe) לרגולציה על מערכות בינה מלאכותית ומשרטט שורה של צעדים נחוצים לדעתו -
- אמצעי חירום: מיקרוסופט מציעה שבמערכות בינה מלאכותית שמשמשות בתשתית קריטית יותקנו מערכות שמאפשרות לכבות אותן כליל או להגביל אותן מאד, בדומה לבלמי חירום ברכבת. המערכות יופעלו במקרה של כשל או בעיות בלתי צפויות.
- קביעה מהן מערכות בינה מלאכותית בסיכון גבוה: מיקרוסופט מציעה שממשלות יקבעו אלה מערכות בינה המלאכותית שמשמשות בתשתיות קריטיות הן בעלות סיכון גבוה המחייב התקנת אמצעי חירום כאלה.
- רישיונות: מיקרוסופט תומכת בדרישה לקבל רישיון כדי ליישם מודלים של בינה מלאכותית בעלת יכולת גבוהה במיוחד (בינת-על מלאכותית). תהליך הרישוי יחייב מסירת הודעה לממשלה על ניסוי מערכות כאלה, שיתופה בתוצאות הניסויים, המשך ניטור המערכת לאחר השקתה ודיווח על בעיות בלתי צפויות שהתעוררו בעת השימוש בה (co.il מעיר שמודל דומה מתקיים בעולם התעופה, לדוגמה עם רשות התעופה הפדרלית בארה"ב).
- מסגרת משפטית ברורה: מיקרוסופט לחקיקה שתגדיר מתי מערכות בינה מלאכותית דורשות מחויבות נוספת – כדוגמת הגדרת האחריות במקרה שבינה מלאכותית משמשת במערכות חיוניות (co.il מציין שהחקיקה המתהווה באירופה צועדת בדרך כזו).
- אחריות משפטית: בראד סמית, נשיא MS, אמר שחברות צריכות לשאת באחריות המשפטית לנזקים שתגרום בינה מלאכותית. האחריות יכולה להקיף מפתחים של אפליקציות שמשתמשות בטכנולוגיה בסיסית של בינה מלאכותית וחברות ענן (co.il מעיר שמייקרוסופט עצמה נכנסת לשתי הקטגוריות האלה עם בינג שמאמץ את ChatGPT ומערכות אז'ור בענן, כך שההבהרה הזו כשלעצמה מצדו של סמית היא אמיצה).
- שקיפות: שימוש בתוויות כאשר תמונה או וידאו נוצרו על ידי מחשב במטרה להגביר את השקיפות ולמנוע הונאה אפשרית של הצרכנים (co.il מציין שיצרנית תוכנות הגרפיקה אדובה, כוללת תווית כזו בדימויים שיוצרת תוכנת הבינה המלאכותית שלה, firefly).
- מידע על לקוחות: במקרים רגישים מסוימים, מיקרוסופט מציעה שחברות שמספקות מערכות בינה מלאכותית ידעו פרטים מוגדרים על לקוחותיהם כדי למנוע שימוש לרעה במערכות.