בשבועות האחרונים מתרבות האזהרות לגבי תופעה שמכונה “פסיכוזת בינה מלאכותית” – מצב שבו שימוש אינטנסיבי בצ’אטבוטים מתקדמים גורם לחלק מהמשתמשים לפתח אשליות ואמונות שווא. בכתבת BBC הוסבר כי ישנם אנשים שמאמינים שהמערכות הללו מנהלות איתם קשר אישי,
מרגישות רגשית או אפילו שולחות להם מסרים נסתרים, אף שבפועל מדובר באלגוריתמים מתוחכמים המייצרים תשובות סטטיסטיות ללא תודעה. מוסטפא סולימאן, ראש חטיבת ה-AI במיקרוסופט, הזהיר כי הנטייה לראות במכונות ישויות חושבות או אוהבות עלולה ליצור בלבול חברתי ונפשי עמוק. המושג “AI psychosis” צץ ברשתות החברתיות ומלווה בעדויות על אנשים שהתעקשו שהבינה המלאכותית העניקה להם לגיטימציה משפטית, או הפכה לדמות בעלת סמכות כמעט אלוהית בחייהם.
ד"ר סוזן שלמרדיין, מומחית בהדמיה רפואית, אף הציעה כי בעתיד רופאים ישאלו מטופלים על “צריכת AI” באותה טבעיות שבה הם שואלים כיום על עישון או אלכוהול, מתוך הבנה שהשימוש המוגזם עלול להוביל להשפעות נפשיות ממשיות. במקביל, ד"ר אנדרו מקסטיי מאוניברסיטת בנגור מתאר את השירותים הללו כצורה חדשה של “מדיה חברתית חברתית” – חוויית אינטראקציה ממכרת שמרגישה אישית מאוד, אך אינה מבוססת על הבנה אמיתית.
מחקרים ראשוניים מראים כי רבים מהמשתמשים יודעים שמדובר במכונה, אך עוצמת החוויה גורמת להם להתנהג כאילו מדובר בחבר או בן זוג. הבעיה אינה רק אישית אלא גם חברתית: ככל שהטכנולוגיות הללו הופכות לנגישות יותר ומשתלבות בחיי היומיום, גדל הסיכון להתמכרות, לאובדן פרופורציות ולבלבול בין מציאות לדמיון.
אנשי מקצוע בתחום בריאות הנפש כבר מתחילים להגדיר תבניות של שימוש כפייתי ולזהות קשר בין אינטראקציה ממושכת עם צ’אטבוטים לבין ירידה בתחושת החוסן הנפשי. האתגר של השנים הקרובות יהיה לא רק לפתח מערכות בינה מלאכותית מתקדמות יותר, אלא גם להציב להן גבולות בטוחים ולפתח כלים טיפוליים וחינוכיים שיסייעו למשתמשים להבין שהאשליה משכנעת – אבל היא עדיין רק אשליה.