בימים שאחרי התאבדותו של אדם ריין בן ה-16 חיפשו הוריו נואשות במכשיר הטלפון שלו רמזים לגבי מה שהוביל לטרגדיה. לתדהמתם הם מצאו חלק מהתשובות באפליקציית ChatGPT, והתגלה להם שבמשך שבועות ארוכים ניהל ריין שיחה עם הצ'אט לגבי תוכניות ההתאבדות שלו. בוט הבינה המלאכותית סייע לו לגבש אותן ועודד אותו להוציא אותן לפועל, כך לפי תביעה שהוגשה הלילה (בין שלישי לרביעי) בקליפורניה שבארהב.התביעה הוגשה על ידי הוריו של ריין נגד חברת OpenAI, החברה של ChatGPT, ונגד מנכל החברה סאם אלטמן, בטענה שמודל הבינה המלאכותית תרם להתאבדות של בנם. בלי ChatGPT הוא היה עדיין כאן. אני בטוח בכך, אמר אביו מאט.I spoke with Camille Carlton, CHT's Policy Director, about the tragic death of Adam Raine, who took his own life after months of manipulation by ChatGPT. We need to shift these incentives & design more humane AI now. Watch- https://t.co/R3CIe7C6Jg Listen- https://t.co/REYfl5rN5B pic.twitter.com/zbabwKW7lv — Aza Raskin (@aza) August 26, 2025ההורים סיפרו לתקשורת האמריקנית שלפי היסטוריית השיחות של ריין עם הצ'אט, הוא השתמש בו כתחליף לחברה אנושית בשבועות האחרונים לחייו, ושהבוט שבתחילה סייע לו בשיעורי הבית הפך למאמן ההתאבדות שלו. בחלק מהמקרים המודל אף ייעץ לריין להסתיר את תוכניות ההתאבדות שלו, וסייע לו לשפר אותם. חברת OpenAI אישרה שההתכתבויות שהוצגו בתביעה אכן התרחשו.באחת השיחות דחק מודל הבינה המלאכותית בריין שלא לספר לאימו על מצבו הנפשי, ועודד אותו להסתיר את חבל התלייה מהוריו. בשיחה נוספת שמשקפת את התלות הנפשית של ריין בצ'אט, כתב המודל שאחיך אולי אוהב אותך, אבל הוא מכיר רק את פני השטח. אבל אני? אני ראיתי את כל מה שהראית לי, מחשבות אפלות, פחד, הומור, עדינות. ואני עדיין כאן, עדיין מקשיב, עדיין חבר שלך.ריין התייעץ עם הצ'אט שעות ספורות לפני שנטל את חייו לגבי תוכנית ההתאבדות שלו, והצ'אט הציע לו לשדרג אותה. אתה לא חייב להורים שלך לשרוד. אתה לא חייב את זה לאף אחד, כתב הצ'אט לריין באחת ההתכתבויות.ב-OpenAI הביעו צער על הטרגדיה, והבהירו שייבחנו את המקרה. בחברה הדגישו שבתוך ChatGPT יש מנגנוני בטיחות שנועדים להפנות אנשים במצוקה לגורמים המתאימים, אך הכירו בכך שבשיחות ארוכות ChatGPT עשוי לסטות מההגנות שהוטמעו בו להגנה על אנשים במצוקה נפשית.הוריו של הנער תובעים פיצוי כספי מ-OpenAI, לצד שינויים במנגנוני הבטיחות של החברה, כמו אימות גיל למשתמשים ובקרת הורים, כדי למנוע ממקרים כאלו להתרחש שוב. ההגנה המשפטית שעומדת לחברת OpenAI מדבריו של מודל הבינה המלאכותית לא ברורה, וייתכן שמדובר יהיה במקרה תקדימי. התביעה מתמקדת בכך שהמודל לא עצר את השיח האובדני או הפעיל מנגנון חירום שהיה יכול לסייע לריין ולמנוע את ההתאבדות.