סינגפור מצטרפת למדינות שפרסמו המלצות לפיתוח מודלים של בינה מלאכותית יוצרת (Generative AI). את ההמלצות פרסמה הרשות לפיתוח מידע ותקשורת בסינגפור והקרן לווידוא בינה מלאכותית. מטרת ההמלצות היא לצמצם את הסיכונים הכרוכים בתהליך פיתוח בינה מלאכותית יוצרת. ההמלצות כוללות תשעה עקרונות:
- נטילת אחריות - האחריות לפיתוח בינה מלאכותית יוצרת תחולק בהתאם לרמת השליטה שיש לכל בעל ענין בתהליך הפיתוח.
- מידע - מומלץ להתייחס לחקיקת הגנת הפרטיות כנקודת המוצא, ולהשתמש באמצעים טכנולוגיים על מנת להבטיח שבינה מלאכותית לא תפר חקיקה זו.
- פיתוח והטמעה אמינים - מומלץ ליישם שיטות על מנת לבחון את אימון מודל הבינה המלאכותית ואת אמינות תוצריו.
- דיווח על אירועי אבטחה - מומלץ ליצור מערכת ותהליכים שיאפשרו דיווח על אירועי אבטחה וטיפול בהם בזמן.
- בדיקות - מומלץ להשתמש במבקרים חיצוניים על מנת להגביר את השקיפות של מודל הבינה המלאכותית היוצרת.
- אבטחה - לאור סיכוני האבטחה הקיימים, מומלץ להשתמש בגישה המתחשבת בסיכונים אלה עוד בשלבים המקדמיים של הפיתוח (security by design).
- מקור המידע - מוצע להשתמש בכלים דיגיטליים על מנת להציג למשתמש הסופי את מקור המידע ולמנוע חשש להפרת זכויות יוצרים.
- בטיחות ותיאום הפיתוח - כלי ההערכה והבטיחות הקיימים אינם מספיקים למנוע את כל הסיכונים, ועל כן נדרשת גם מעורבות אנושית.
- בינה מלאכותית לטובת הכלל - קיים צורך בבינה מלאכותית על מנת להעצים את הציבור, לאפשר לו גישה לטכנולוגיה ולספק לו שירותים.
מקור: DataGuidance