דוח בנושא שימוש בבינה מלאכותית במגזר הפיננסי פורסם להערות הציבור

הצוות הבין-משרדי לבחינת השימוש בבינה מלאכותית בסקטור הפיננסי מפרסם להערות הציבור דוח ביניים שסוקר את השימושים הפוטנציאליים בבינה מלאכותית בתחום והסיכונים הכרוכים בהם, ומציע המלצות רגולטוריות תואמות. הצוות הבין משרדי מורכב מנציגי משרדי המשפטים והאוצר, הפיקוח על הבנקים, רשות שוק ההון, ביטוח וחיסכון, רשות ניירות ערך ורשות התחרות.

לפי הדוח, אף שהשימוש בבינה מלאכותית בעולמות הפיננסיים אינו חדש, ההתפתחויות הטכנולוגיות מעוררות ציפייה שהשימוש בבינה מלאכותית ישולב בפעולות ליבה בתהליכי קבלת ההחלטות בתחומי האשראי, הביטוח וההשקעה, בממשקי עבודה מול לקוחות ומשקיעים וכן בייעול תהליכים פנימיים. עם זאת, ביישום לא נכון או בהיעדר פיקוח, עלולות להיות לו השפעות שליליות על היציבות הפיננסית והתחרות והוא עלול להביא לסיכונים תפעוליים דוגמת סיכוני סייבר, הונאה או דיסאינפורמציה.

הצוות הבין-משרדי זיהה מספר סוגיות מרכזיות בשילוב בינה מלאכותית בסקטור הפיננסי, שביחס אליהן מסר את המלצותיו:

  • הסברתיות (שקיפות) – קיומה של דרישת הסברתיות (או שקיפות) עלולה להעלות קשיים הנובעים בין השאר ממידת בשלותה של הטכנולוגיה או מהחובה להגן על סודות מסחריים, ולמנוע כתוצאה את כניסתן של טכנולוגיות בינה מלאכותית מתקדמות לשוק. לכן, הצוות ממליץ כי חובת הסברתיות פרטנית תחול רק במקרה המצדיק זאת (לדוגמה, כאשר המערכת מקבלת החלטות ברמת סיכון גבוהה, או כאשר המעורבות האנושית בקבלת ההחלטות זניחה). החובה לא תחול מקום בו הטכנולוגיה היא רק גורם מסייע בקבלת ההחלטה. עוד ממליץ הצוות, כי גם במקרים בהם צריכה לחול על פניו דרישת הסברתיות פרטנית, יש מקום להכיר בחלופות "מפצות" (לדוגמה, בקרה קפדנית של תוצאות המערכת).
  • מעורבות אנושית – מעורבות ופיקוח אנושיים על קבלת החלטות אלגוריתמיות מאפשרים להתמודד עם תקלות וכשלים בדיוק ובתקינות ההחלטות, ומספקים מענה לחשש מפני אובדן האוטונומיה של הפרט על ההחלטות שמתקבלות לגביו. עם זאת, לא ברור האם המעורבות האנושית מתבצעת בהיקף שמאפשר השפעה אמיתית, ואין ודאות שהמעורבות האנושית אכן משפרת את תוצאות המערכת. בהקשר זה ממליץ הצוות כי המעורבות אנושית תתקיים בזמן אמת רק בהחלטות שהשפעתן על הפרט מהותית, ובתנאי שלטכנולוגיה חלק משמעותי בקבלתה. בשאר המקרים, ובייחוד בכלי בינה מלאכותית יוצרת שמקיימים אינטראקציה משמעותית עם הפרט, תוכל המעורבות האנושית להתקיים בדיעבד (למשל, בשלבי השגה או בחינה).
  • יידוע וגילוי – הצוות מבחין בין שלושה היבטי יידוע וגילוי בסקטור הפיננסי: דרישת יידוע בסיסית בדבר עצם השימוש במערכת בינה מלאכותית; דרישות גילוי למשקיע או ללקוח, באשר למאפייני פעילותה של המערכת (למשל, היקף מעורבותה של הבינה המלאכותית בהחלטת אשראי); והתמודדות עם גילוי שיווקי מטעה בנושא בינה מלאכותית. הצוות ממליץ כי תחול דרישת יידוע בדבר עצם השימוש במערכת בינה מלאכותית וביחס לחלופות שירות שאינן ניתנות באמצעות בינה מלאכותית. על היידוע להיעשות בשפה ניטרלית וברורה אשר לא תייצר העדפה לשירות אחד על משנהו ללא בסיס. עם זאת, אין מקום לדרישת יידוע כאשר השימוש במערכת בינה מלאכותית ברור. חובות הגילוי בדבר מאפייני המערכת והשלכותיה צריכות להשתלב בדרישות הגילוי הקיימות לגבי השירות או המוצר המוצעים ללקוח, והן יחולו כאשר למערכת יש השפעה מהותית על השירות או המוצר.
  • פרטיות והגנה על מידע – טכנולוגיות בינה מלאכותית מתבססות על איסוף ועיבוד נרחבים של מידע, ובכלל זה גם מידע אישי. בנוסף, תוצרי מערכות הבינה המלאכותית – התחזיות, ההמלצות וההחלטות – מגלמים תובנות פרטניות לגבי בני אדם. לכן, הצוות ממליץ להנחות את הגורמים המפוקחים לבצע הערכת סיכונים ביחס לסיכון לזיהוי חוזר של מידע אישי ולנקוט אמצעים לאבטחת מידע גם על מידע "מותמם". עוד מוצע כי יינקטו אמצעים לחיזוק ההסכמה מדעת במקרים של שימוש במידע אישי במערכות בינה מלאכותית, למשל באמצעות אימוץ דרישות צורניות מיוחדות במתן ההסכמה, או של מנגנוני "הסכמה מדורגת", שיתאימו את היקף היידוע למטרת עיבוד המידע. היבט נוסף שהמלצות הצוות עסקו בו הוא עקרון צמידות המטרה, שפעולות כמו קציר מידע מהאינטרנט (scraping) לצרכי פיתוח ואימון בינה מלאכותית עשויות להפר אם הן חורגות מגדר ההסכמה או הציפיות הסבירות של המשתמשים. הוצע כי בשלב פיתוח מערכות, מידת הפירוט של מטרות עיבוד המידע האישי והשימושים בו תהיה בהלימה להערכת הסיכונים הנשקפים מן המערכת. בשלב השימוש במערכות, ההנחה היא שהקושי לפרט בבירור את מטרות השימוש במידע פוחת ממילא. עוד הוצע לבחון הקלות ביישום העקרון בהקשר זה, בכפוף למגבלות ואמצעי בקרה, ולבחון את האפשרות לקבוע הוראות המסדירות את התנאים והנסיבות שבהם ניתן לאסוף מידע בדרך של קציר מידע. לבסוף, מבקש הצוות את התייחסות הציבור בנוגע לשאלה האם יש להחיל חובות או זכויות ביחס למידע אישי מוסק (inferred personal data), הנכלל בתוצרי מערכת הבינה המלאכותית, למשל זכותו של אדם להיסק סביר בעניינו (היינו, היסק העומד באמות מידע של מקובלות (acceptability), רלוונטיות (relevance) ואמינות (reliability)).
  • אפליה – מערכות בינה מלאכותית חשופות לסיכון להטיות או לאפליה, בין השאר לאור התבססות על מאגרי מידע שאינם מייצגים מספיק או שהמידע בהם משקף הטיות ואפליה קיימות. במגזר הפיננסי החשש להטיות ולאפליה עשוי להתעורר לדוגמה בנוגע למתן אשראי או לתמחור של פוליסות ביטוח. הצוות מבהיר כי דיני איסור האפליה הקיימים מוסיפים לחול גם כאשר נעשה שימוש במערכות בינה מלאכותית, ומציע כי הרגולטורים הפיננסיים ישקלו פעולות נוספות להכוונת הגורמים המפוקחים בכל הנוגע לבקרה ונקיטת אמצעים לזיהוי ומניעת הטיות לכל אורך חיי המערכת, ובפרט ביחס לתוצרי המערכת. הצוות מבקש את עמדת הציבור ביחס להיתכנות וליעילות של החלת דוקטרינת האפליה התוצאתית האמריקנית (לפיה בחינת האפליה מתמקדת בשאלה האם במבחן התוצאה קיימת אפליה אסורה כלפי קבוצות מוגנות), בהקשר הפיננסי בארץ.
  • אחריות – בעידן הבינה המלאכותית, המבנה המשפטי המוכר של הטלת אחריות על גורם אנושי מתערער, לאור צמצום או ביטול תפקידו של אותו גורם אנושי. הצוות ממליץ כי יישמר עיקרון האחריות של הגוף המפוקח, תוך מתן אפשרות לגופים המפוקחים לקבוע חובת שיפוי במקרים המתאימים במסגרת הסדרים חוזיים מול גורמים חיצוניים (אותם מוצע לראות כמיקור חוץ וליישם את ההוראות הרלוונטיות). מוצע ליישם את גישת הרגולציה הפיננסית, שמטילה בנסיבות מסוימות אחריות ספציפית על אורגנים ובעלי תפקידים בגוף הפיננסי, גם ביחס למערכות בינה מלאכותית (ובעתיד אולי גם על מפתחי מערכות בינה מלאכותית (providers), בהתאם להתפתחויות בעולם). עוד ממליץ הצוות כי ייאסר על גוף פיננסי להסיר או להגביל את אחריותו לגבי שירותים הניתנים ללקוח באמצעות מערכות בינה מלאכותית או להעבירה לגורם אחר, לרבות ללקוח עצמו.

לאור האתגרים הכרוכים בשימוש בבינה מלאכותית במגזר הפיננסי, מציע הצוות הבין-משרדי לנקוט בשיטת אסדרה מבוססת סיכונים, שתתאם את האסדרה המקובלת בעולם ובראשה ה-AI Act האירופי, ותעודד חדשנות, התנסות ולמידה. הצוות מדגיש כי על האסדרה לנקוט בניטרליות טכנולוגית למעט במקרים המצריכים התמודדות מיוחדת, ולחול רק כאשר מתקיימות נסיבות המצדיקות זאת (ולא על כל מקרה ומקרה של שימוש בבינה מלאכותית). הצוות סבור כי לצד הפעילות הרגולטורית, על הממשלה לנקוט בפעולות נוספות כדי להפוך את הרגולציה לאפקטיבית, ביניהן עידוד חדשנות, קידום וודאות רגולטורית וקידום פעילות פיקוחית מבוססת בינה מלאכותית (Suptech).

הציבור מוזמן להגיש הערותיו על הדוח עד ל-15.12.2024.