"מערכות אוטומטיות" (הכוללות, בין היתר, מערכות בינה מלאכותית - AI) עלולות להנציח הטיה לא חוקית (bias), לבצע אפליה אוטומטית ולהניב תוצאות מזיקות נוספות, כך שיכולת האכיפה של הרגולטורים בארה"ב חלה גם על מערכות אלו – כך הצהירו נציבות הסחר הפדרלית בארה"ב (ה-FTC), נציבות שוויון הזדמנויות בעבודה בארה"ב (EEOC), מחלקת המשפטים של ארצות הברית - אגף זכויות האזרח (DOJ-CR) והרשות להגנה פיננסית על הצרכן בארה"ב (CFPB).
בהצהרתם, מפרטים הרגולטורים כיצד פעלו עד כה כדי להבטיח שהשימוש במערכות האוטומטיות המתפתחות ייעשה בהתאם לחוק:
- ה- CFPB פרסמה חוזר לפיו חוקי הצרכן הפיננסיים הפדרליים ופעולות שנדרשות מכוח החוק חלות ללא קשר לטכנולוגיה בה נעשה שימוש. לדוגמה, גם אם הטכנולוגיה המשמשת לקבלת החלטה לגבי אשראי מורכבת מדי או חדשנית, אין הדבר משמש הגנה להפרת החוק.
- ה- DOJ-CR הגישה לאחרונה הצהרה לבית משפט פדרלי ובו היא מסבירה שחוק הדיור ההוגן חל גם על שירותי סינון דיירים מבוססי אלגוריתמים.
- ה- EEOC פרסמה מסמך טכני המסביר כיצד חוק האזרחים בעלי מוגבלויות חל על השימוש בתוכנה, אלגוריתמים ובינה מלאכותית, לצורך קבלת החלטות הקשורות למועמדים לעבודה ותעסוקת עובדים.
- ה- FTC פרסמה דו"ח לגבי השימוש וההשפעה של בינה מלאכותית נגד נזקים מקוונים. בדו"ח ה-FTC מעלה חששות משמעותיים מכך ש-AI עלול להיות לא מדויק, מוטה ומפלה, ועלול לתמרץ מעקב מסחרי פולשני. נציבות הסחר הפדרלית גם הזהירה חברות מהפרת חוק ה-FTC בשל שימוש בכלים אוטומטיים מפלים, השמעת טענות לא מבוססות לגבי ה-AI ופריסת מערכות AI לפני הערכת וטיפול בסכנות הנובעות מהשימוש בהן. ה-FTC גם דרשה מחברות להשמיד מוצרים ואלגוריתמים שאומנו על בסיס נתונים שאסור היה לאוספם.
בנוסף, הרגולטורים העלו במסמך חשש שהמערכות האוטומטיות עלולות לתרום לאפליה בלתי חוקית ולהפר חוקים פדרליים בשל הסתמכות על נתונים ומערכי נתונים מוטים, לא מייצגים או מאוזנים, או כאלו המכילים שגיאות אחרות; חוסר שקיפות של המערכות האוטומטיות, שמקשה לדעת אם הן הוגנות, ועיצוב ושימוש במערכות אוטומטיות על בסיס הנחות פגומות לגבי משתמשיהן. בסוף הצהרתם, הרגולטורים חזרו על נחישותם לפקח על הפיתוח והשימוש במערכות אוטומטיות ולקדם חדשנות אחראית. כמו כן, הרגולטורים התחייבו להשתמש בסמכויות האכיפה שלהם כדי להגנה על הפרט, בלי תלות בחדשנות המערכות המפרות.