הימנעות מחקיקה רוחבית בתחומי הבינה המלאכותית, אימוץ עקרונות אתיים לשימוש בבינה מלאכותית, קידום רגולציה מותאמת וגיבוש כלים ומוקדי ידע ביחס לשימוש וההסדרה של בינה מלאכותית - אלה אחדים מעקרונות טיוטת מדיניות הרגולציה ואתיקה בתחום הבינה המלאכותית בישראל שפרסמה שרת החדשנות, המדע והטכנולוגיה,אורית פרקש הכהן, ב-31.10.2022.
טיוטת המדיניות קובעת כי אין מקום לרגולציה ייחודית לבינה מלאכותית באמצעות חקיקה רוחבית. בשל כך, המדיניות מנחה את הממשלה לבחון הצורך בקידום רגולציה במקרים קונקרטיים; לקדם רגולציה המבוססת על ניהול סיכונים; להתאים רגולציה לנעשה במדינות מפותחות אחרות; להעדיף שימוש בכלי רגולציה רכים ומתקדמים; לפתח את הרגולציה באופן מודולרי ובאמצעות שימוש בפיילוטים ולשתף את הציבור בעיצוב עקרונות הרגולציה ושאלת הצורך בהם.
טיוטת המדיניות גם קובעת את העקרונות האתיים שיש לאמץ בשימוש ובפיתוח בינה מלאכותית: קידום צמיחה, פיתוח בר קיימא והמובילות הישראלית בתחום החדשנות; כיבוד זכויות יסוד ואינטרסים ציבוריים; שוויון ומניעת אפליה פסולה; שקיפות והסברתיות; אמינות, עמידות אבטחה ובטיחות; ואחריותיות (accountability) של מפתחי הבינה המלאכותית, מפעיליה או המשתמשים בה.
על מנת לממש את התכנית לקידום חדשנות, עידוד צמיחת ענף ההייטק וחיזוק המובילות הטכנולוגית והמדעית, טיוטת המדיניות גם מתווה צעדים שיש לבצע ובהם גיבוש כלי אחיד לניהול סיכונים ביחס לשימוש בבינה מלאכותית שיעמוד לשימוש גורמי הממשלה, הרגולטורים והגורמים פרטיים; הקמת מוקד ידע ותיאום ממשלתי שיעסוק בריכוז ותיאום סוגיית ההסדרה של בינה מלאכותית ושמירה על מעורבות אקטיבית של ישראל בפיתוח הרגולציה והתקינה הבינלאומית.
טיוטת המדיניות פתוחה להערות הציבור עד ל-01.01.2023.