חברות בינה מלאכותית מובילות כולל OpenAI, Microsoft, Google, Meta ואחרות התחייבו במשותף למנוע שימוש בכלי הבינה המלאכותית שלהן לניצול ילדים ויצירת חומר התעללות מינית בילדים (CSAM).את היוזמה הובילה קבוצת בטיחות ילדים Thorn ו-All Tech Is Human, מלכ"ר המתמקד בטכנולוגיה אחראית.
ההבטחות מחברות AI, Thorn אמר, "הווה תקדים פורץ דרך לתעשייה ומהווה קפיצת מדרגה משמעותית במאמצים להגן על ילדים מפני התעללות מינית כתכונה עם AI גנרטיבי". מטרת היוזמה היא למנוע יצירת חומר בעל אופי מיני בו מעורב ילדים ולהוריד אותו מפלטפורמות המדיה החברתית וממנועי החיפוש. יותר מ-104 מיליון תיקים של חשד להתעללות מינית בילדים דווחו בארה"ב בשנת 2023 לבדה, אומר Thorn. בהיעדר פעולה קולקטיבית, בינה מלאכותית גנרטיבית מוכנה להחמיר את הבעיה הזו ולהציף את רשויות אכיפת החוק שכבר נאבקות לזהות קורבנות אמיתיים.
ביום שלישי, Thorn and All Tech Is Human הוציאו את א מאמר חדש שכותרתו "בטיחות בתכנון לבינה מלאכותית: מניעת התעללות מינית בילדים" המתווה אסטרטגיות ומפרטת המלצות לחברות הבונות כלי בינה מלאכותית, מנועי חיפוש, פלטפורמות מדיה חברתית, חברות אירוח ומפתחים לנקוט בצעדים למניעת שימוש בבינה מלאכותית לפגוע בילדים.
אחת ההמלצות, למשל, מבקשת מחברות לבחור מערכי נתונים המשמשים לאימון מודלים של בינה מלאכותית בקפידה ולהימנע מאלה המכילים רק מופעים של CSAM אלא גם תוכן מיני למבוגרים לחלוטין, בגלל הנטייה של בינה מלאכותית לשלב בין שני המושגים. Thorn גם מבקשת מפלטפורמות מדיה חברתית וממנועי חיפוש להסיר קישורים לאתרים ואפליקציות המאפשרות לאנשים "לעשות עירום" לתמונות של ילדים, ובכך ליצור חומר חדש על התעללות מינית בילדים באינטרנט. מבול של CSAM שנוצר על ידי בינה מלאכותית, על פי העיתון, יקשה על זיהוי קורבנות אמיתיים של התעללות מינית בילדים על ידי הגדלת "בעיית ערימת השחת" – התייחסות לכמות התוכן שרשויות אכיפת החוק חייבות לנפות.
"הפרויקט הזה נועד להבהיר היטב שאינך צריך להרים ידיים", סגנית נשיא תורן למדעי הנתונים רבקה פורטנוף סיפר ה וול סטריט ג'ורנל. "אנחנו רוצים להיות מסוגלים לשנות את מהלך הטכנולוגיה הזו למקום שבו הנזקים הקיימים של הטכנולוגיה הזו נחתכים בברכיים."
כמה חברות, אמר פורטנוף, כבר הסכימו להפריד בין תמונות, וידאו ואודיו שכללו ילדים מערכי נתונים המכילים תוכן למבוגרים כדי למנוע מהדגמים שלהם לשלב את השניים. אחרים מוסיפים גם סימני מים כדי לזהות תוכן שנוצר בינה מלאכותית, אך השיטה אינה חסינת תקלות – ניתן להסיר בקלות סימני מים ומטא נתונים.