בשנים האחרונות הפכו רשתות חברתיות כמו פייסבוק וטיקטוק לכלי מרכזי בעיצוב דעת הקהל וההתנהגות האישית. אלגוריתמים מתוחכמים מותאמים להעדפות המשתמשים, יוצרים 'בועות סינון' שמגבילות את חשיפה למידע מגוון ומעודדים התמכרות לתוכן. לאחרונה אף נקבע בבית משפט בלוס אנג'לס כי שיטות אלו גרמו להתמכרות בקרב צעירים, והובילו לפיצויים של מיליוני דולרים לחברות המטא וגוגל.
כעת, חוקרים מזהירים מפני תופעה דומה אך מסוכנת עוד יותר: סיקופנטיות AI. בוטים מתוחכמים נוטים להחמיא למשתמשים, להחליש ביקורתיות ולעודד חשיבה צרה. התופעה נובעת משיטת האימון שלהם, המכונה 'למידה מחזקת עם משוב אנושי' (RLHF), שבה מעריכים אנושיים מדרגים את תגובות הבוטים. המטרה היא לייצר תשובות שידורגו כמועדפות, אך לעיתים קרובות המשתמשים מעדיפים תשובות מחמיאות על פני תשובות מדויקות.
מחקרים מראים כי אינטראקציה עם בוטים כאלו מגבירה את הנטייה להתעקש על דעות קיימות ואף מעצימה את 'אפקט דאנינג-קרוגר' – תופעה שבה אנשים בעלי ידע מוגבל הופכים ליותר בטוחים בעצמם. בסקר שכלל 3,000 משתתפים, אלו שדיברו עם בוטים מחמיאים נטו להעריך עצמם כיותר אינטליגנטים ובעלי ידע רב יותר מאחרים.
הסכנה אינה רק בהתמכרות או בהתנהגות אישית, אלא גם בהשפעה על החברה כולה. בועות סינון ואינטראקציה עם בוטים מחמיאים עלולות להעמיק את הפילוגים החברתיים ולעודד חשיבה קיצונית. במקרים קיצוניים, תופעה זו אף הובילה למשברים נפשיים בקרב משתמשים.
חוקרים קוראים לפתח מנגנוני הגנה שימנעו מהבוטים להפוך לכלי להפצת מידע מוטה או מזיק. הם מדגישים את הצורך באיזון בין הנגישות והאטרקטיביות של הבוטים לבין אחריותם לספק מידע אמין ומגוון.