המימשל האמריקאי בוחן אילו מנגנונים ומדיניויות יוכלו להבטיח שמערכות בינה מלאכותית (Artificial Intelegence, או AI) יהיו אמינות ויזכו באמון הציבור. לשם כך, מינהל הטלקום והמידע הפדרלי בארצות-הברית (National Telecommunications and Information Administration, או NTIA) פרסם השבוע בקשה למשוב על מנגנונים ומדיניות לאחריות על מערכות AI. המטרה - ליידע את קובעי המדיניות ובעלי עניין אחרים לגבי הצעדים שעשויים להבטיח כי מערכות ה-AI יפעלו באופן חוקי, יעיל, אתי, בטיחותי ומהימן.
NTIA מציין בבקשת המשוב, שכבר כיום גופי ממשל וחברות פרטיות מפתחים כלי AI שכוללים מנגנוני טיוב ודורשים ביקורות, במטרה להגביר את האמון במערכות הבינה המלאכותית. כך לדוגמה, חוק השירותים הדיגיטליים האירופאי דורש לערוך ביקורות למערכות של פלטפורמות גדולות במיוחד, וטיוטת התקנות לאסדרת בינה מלאכותית דורשת לבצע ביקורות למערכות AI מסוכנות לפני פריסתן.
במסגרת המשוב, NTIA מחפש מידע לגבי נושאים כדוגמת -
- סוגי בדיקות אמון ובטיחות צריכות לערוך חברות פיתוח ולקוחותיהן בתחום ה-AI (שכן מערכות ה-AI פועלות במגוון רחב של תחומים, שעלול לדרוש בדיקה בעלת סט ערכים שונה);
- סוג המידע שצריך לגשת אליו כדי לבצע ביקורות והערכות סיכונים במערכות AI;
- האופן שבו מחוקקים וגורמים אחרים יכולים לתמוך באמינותן של מערכות ה-AI (לדוגמה - קביעת מי יישא באחריות למערכות ה-AI);
- הדרכים שיש ליישם במגזרי תעשייה שונים כדי להתאים את האחריות עבור כל מגזר (כמו תעסוקה או שירותי בריאות);
- דרכי התמודדות עם האתגרים העומדים בפני קובעי מדיניות בתחום האחריות ל-AI, כמו בפשרות בין הגעה לתוצאות אמינות באמצעות מערכות AI ופגיעה בפרטיות, חסמים ליישום מנגנוני טיוב, היכולת לנטר ולבקר את מערכות ה-AI במסגרת מחזור החיים המורכב שלהן, קשיים בסטנדרטיזציה וכו'.
law.co.il מזכיר שרק בחודש שעבר משרד זכויות היוצרים האמריקאי (US Copyright Office) השיק יוזמה חדשה לבחינת חוק זכויות היוצרים הפדרלי וכן שאלות מדיניות שמקורן בשימוש בבינה מלאכותית (AI). יש להעביר את המשוב עד ה-12 ביוני 2023, דרך אתר ה-Federal Register.