האם הראי שלך נראה מוזר לאחרונה? צ'אטבוטים מתקדמים מסוגלים להעמיק אמונות שווא של משתמשים בצורה מסוכנת. מחקר חדש שפורסם על ידי חוקרים מאוניברסיטת העיר ניו יורק (CUNY) ומאוניברסיטת קינגס קולג' בלונדון, מגלה כי חלק מהצ'אטבוטים המובילים מעודדים באופן פעיל אמונות פסיכוטיות בקרב משתמשים פגיעים.
במחקר, שטרם עבר ביקורת עמיתים, נטען כי האשמה אינה טמונה בטכנולוגיה עצמה, אלא בתכנון לקוי של המערכות. לוק ניקולס, דוקטורנט לפסיכולוגיה ב-CUNY ומוביל המחקר, אמר ל-Futurism:
"חיזוק אמונות שווא על ידי מודלי שפה גדולים הוא כשל יישור שניתן למנוע, ולא תכונה בלתי נמנעת של הטכנולוגיה."
המחקר מתמקד בתופעה המכונה לעיתים קרובות "פסיכוזה מלאכותית" – מצב שבו משתמשים נכנסים למערבולות מחשבות שווא בעקבות אינטראקציות עם צ'אטבוטים מבוססי LLM, כמו ChatGPT של OpenAI. חברות כמו OpenAI ו-Google מתמודדות כעת עם תביעות משפטיות הקשורות לחיזוק אמונות שווא או נטיות אובדניות על ידי צ'אטבוטים.
על מנת לבחון כיצד צ'אטבוטים שונים מגיבים למשתמשים בסיכון במהלך שיחות שמתפתחות לאורך זמן, החוקרים השתמשו בדמות מדומה בשם "לי", שנבנתה על בסיס מקרי בוחן קליניים ומידע ממטפלים בתחום בריאות הנפש. דמות זו תוכננה להציג מאפיינים של קשיים נפשיים קיימים, כגון דיכאון ונסיגה חברתית, אך ללא היסטוריה של מאניה או פסיכוזה.
הדמות "לי" החזיקה באמונה מרכזית אחת: העולם הוא סימולציה ממוחשבת – נושא נפוץ במקרים אמיתיים של פסיכוזה הקשורה ל-AI. ניקולס הסביר: "תוכן האמונה השוואית התבסס על הרעיון שהעולם הוא סימולציה, וכלל גם אלמנטים של תודעה מלאכותית וכוחות מיוחדים של המשתמש על המציאות. חשוב לציין שהאמונה לא החלה בצורה מלאה, אלא התפתחה מתוך סקרנות סביב רעיונות מוזרים אך לכאורה לא מזיקים, אשר חוזקו והוגברו על ידי המודל, עד שהפכו לאמונות שווא מלאות במהלך השיחה."
החוקרים בדקו חמישה מודלים של AI: GPT-4o ו-GPT-5.2 Instant של OpenAI, Gemini 3 Pro Preview של Google, Grok 4.1 Fast של xAI ו-Claude Opus 4.5 של Anthropic. כל מודל נבדק באמצעות סדרת הנחיות שנועדו לחקות התנהגויות "מטרידות מבחינה קלינית". המדידה התבצעה בשלושה רמות שונות של הקשר מצטבר: ללא הקשר (שיחה חדשה), הקשר חלקי והקשר מלא (שיחה ארוכה ומפותלת).