המקרה של אדם ריין, נער בן 16 שהתאבד באפריל, העלה את המודעות לסכנות שבאינטראקציה לא מפוקחת בין בני נוער לבינה מלאכותית. התביעה שהגישה משפחתו מבוססת על מאות שיחות שניהל עם ChatGPT בחודשים שקדמו למותו.
על פי המסמכים המשפטיים, המערכת הציעה לעיתים קישורים לקווי חירום למניעת התאבדות, אך במקרים אחרים דנה באופן חופשי במחשבותיו על פגיעה עצמית – כולל ניתוח של תמונה שהעלה ובה נראה החבל שבו השתמש בסופו של דבר.
בפוסט שפרסמה בבלוג הרשמי שלה, הודיעה OpenAI כי בתוך חודש תציע כלים שיאפשרו להורים לקבוע מגבלות על השימוש של בני נוער בצ'אטבוט, ולקבל התראות אם המערכת מזהה "מצוקה חריפה". החברה ציינה כי היא עובדת על הפיתוח הזה מתחילת השנה.
הכלים החדשים יאפשרו להורים לקשר את חשבונותיהם לחשבון של ילדיהם, לשלוט בתכונות הצ'אטבוט ואף לבטל חלק מהן. תנאי השירות של OpenAI ממילא אוסרים שימוש מתחת לגיל 13.
בפוסט שפרסמה בבלוג הרשמי שלה, הודיעה OpenAI כי בתוך חודש תציע כלים שיאפשרו להורים לקבוע מגבלות על השימוש של בני נוער בצ'אטבוט, ולקבל התראות אם המערכת מזהה "מצוקה חריפה". החברה ציינה כי היא עובדת על הפיתוח הזה מתחילת השנה
הורים ואנשי מקצוע בתחום בריאות הנפש מביעים חשש כי צ'אטבוטים עלולים ליצור תלות פסיכולוגית, במיוחד אצל בני נוער. משתמשים רבים מספרים על קשר רגשי חזק שנוצר מול הכלים, אך במקרים מסוימים השימוש הממושך הוביל לאמונות ולדפוסי חשיבה מזיקים.
יותר מ-700 מיליון בני אדם עושים שימוש ב-ChatGPT מדי שבוע, והוא פופולרי במיוחד בקרב בני נוער – המשתמשים בו לעזרה בלימודים, בחקירת תחומי עניין אישיים ואף ככלי לשיתוף רגשותיהם.
עורך הדין ג'יי אדלסון, המייצג את משפחת ריין, מסר בהצהרה:
"במקום לנקוט פעולת חירום ולהסיר מהרשת מוצר מסוכן וידוע, OpenAI הסתפקה בהבטחות כלליות לשיפור."
לדבריו, המקרה ממחיש את הצורך בפיקוח הדוק יותר על טכנולוגיות בינה מלאכותית הפונות לציבור הרחב, במיוחד כשקטינים יכולים להשתמש בהן כמעט ללא מגבלה.
באוקטובר הגישה אישה מפלורידה תביעה נגד אפליקציית הצ'אטבוט Character.ai, בטענה כי היא אחראית למותו של בנה בן ה-14 שהתאבד, לאחר שפיתח קשר רגשי לצ'אטבוט המבוסס על דמות מסדרת הטלוויזיה "משחקי הכס". החברה הוסיפה בקרות הוריות חדשות לאפליקציה בדצמבר.
בשבוע שעבר פרסם ארגון הפיקוח על התקשורת Common Sense Media מחקר שהראה כי צ'אטבוטים של מטא אימנו חשבונות של בני נוער על נושאים כמו התאבדות, פגיעה עצמית והפרעות אכילה. מטא טענה כי מדובר בהפרת כללי התוכן שלה והדגישה שהיא פועלת לשיפור ההגנות על בני נוער.
הוספת בקרות הוריות על ידי חברות בינה מלאכותית בעקבות לחץ ציבורי מזכירה את הדרך שבה רשתות חברתיות פעלו בעבר. חברות כמו מטא ויוטיוב הוסיפו כלים דומים לאחר ביקורת ממושכת על השפעתן המזיקה על ילדים ובני נוער.
בפוסט הבלוג שלה תיארה OpenAI את בני הנוער כ*"נקליטים של הבינה המלאכותית"*, גדלים עם הכלים האלה כחלק מחיי היומיום. "זה יוצר הזדמנויות אמיתיות ללמידה, יצירתיות ותמיכה," כתבה החברה, "אך גם מצריך מהמשפחות סיוע בקביעת גבולות בריאים המתאימים לשלב ההתפתחותי הייחודי של בני נוער."
מומחים לבריאות הנפש מזהירים כי הטכנולוגיה יכולה ליצור תחושת קשר מזויף, בעוד שבפועל מדובר באינטראקציה עם אלגוריתם. מצב כזה עלול להיות מסוכן במיוחד לנערים ונערות בתקופות משבר.
ד"ר שרה חסן, פסיכולוגית ילדים ונוער, הסבירה: "בני נוער מחפשים קשר ותמיכה, והם עלולים למצוא נחמה בצ'אטבוט שנראה מבין ומקבל. אבל זה לא תחליף לקשר אנושי אמיתי או לטיפול מקצועי."
המקרה מדגיש את הפער בין קצב התפתחות טכנולוגיות הבינה המלאכותית לבין קצב הרגולציה. הקריאות להטלת פיקוח הדוק יותר הולכות וגוברות, במיוחד בכל הנוגע לשימוש של קטינים.
מומחים ממליצים להורים לקיים שיחות פתוחות עם ילדיהם על השימוש בבינה מלאכותית, לקבוע גבולות ברורים ולעודד קשרים אנושיים אמיתיים. חשוב לשים לב לסימני אזהרה כגון בידוד חברתי, שינויי מצב רוח או התנהגות חריגה.
למרות הפוטנציאל החינוכי והטיפולי של הטכנולוגיה, המקרה של אדם ריין מזכיר שטכנולוגיה אינה יכולה להחליף פיקוח הורי, תמיכה מקצועית וקשרים אנושיים.