כלי בינה מלאכותית עלולים להיות בלתי מדויקים ומפלים ולעודד שימוש גובר בשיטות של מעקב מסחרי אחר יחידים. לכן על המחוקקים ומעצבי המדיניות לנקוט במשנה זהירות כאשר הם קובעים שניתן לעשות שימוש בבינה מלאכותית כפתרונות מדיניות. כך ממליצה נציבות הסחר הפדרלית של ארה"ב (FTC) בדו"ח שהעבירה בתחילת השבוע לקונגרס, בנושא הסכנות שבשימוש בבינה מלאכותית לפתרון בעיות ברשת.
הדו"ח, שהנציבות הפיקה בהוראות הקונגרס, סוקר איך ניתן להשתמש בבינה מלאכותית כדי לזהות, להסיר, ולפעול בכל דרך אחרת כדי לספק מענה לתוכן פוגעני או בלתי חוקי ולסכנות אחרות ברשת – בדגש על הונאות, התחזות, פרסום מידע מוטעה, שימוש בבוטים, פעילות בלתי חוקית והטרדה. הדו"ח זיהה שלושה קשיים מרכזיים בשימוש בכלי בינה מלאכותית לטיפול בסכנות ברשת: ראשית, הכלים הללו לוקים בחוסר דיוק, ויכולות האיתור שלהם מוגבלות מטבען; שנית, כלי הבינה המלאכותית משקפים את הנטיות האידיאולוגיות של המפתחים שלהם, ולכן עלולים לפעול באופן שיפלה קבוצות מסוימות (ולעיתים אפילו קבוצות מוגנות בחוק); ולבסוף, השימוש בכלי הבינה המלאכותית עלול לאפשר ואף ליצור תמריץ של ממש למעקב מסחרי פולשני אחר יחידים, תוך איסוף מידע מסיבי – סכנה שתחמיר ככל שהטכנולוגיה שבבסיס הכלים הללו תשתפר ותאפשר מעקב באופן קל ופשוט יותר.
במקור, התבקשה הנציבות להציע חוקים שיקדמו את השימוש בבינה מלאכותית לטיפול בתוכן ברשת; אך לאור האמור, ובהתחשב בכך שחברות טכנולוגיה רבות כבר עושות שימוש כזה בכלי בינה מלאכותית, מסקנת הנציבות הייתה שכדאי להתמקד ביצירת מסגרת חוקית שתבטיח כי השימוש בבינה מלאכותית אינו מוביל לנזק נוסף.