חשבונות מזויפים קיימים מאז ימי הרשתות החברתיות הראשונות, אך המקרה האחרון של אמילי הארט – 'אינפלואנסרית' פוליטית ימנית שהתגלתה כגבר בן 22 מהודו – חורג מהרגיל. לא מדובר בקטפיש אנונימי או בבובה וירטואלית, אלא בדמות מלאה עם תמונות, סרטונים ומאות אלפי עוקבים ברשתות שונות, שהצליחה להרוויח אלפי דולרים בחודש מפוסטים בלבד. הסיפור הזה הוא רק קצה הקרחון של תופעה חדשה: יצירת דמויות מזויפות באמצעים טכנולוגיים מתקדמים, שמערערת את אמון המשתמשים ברשת.
איך אמילי הארט הפכה לאינפלואנסרית מזויפת?
היוצר של אמילי הארט, סטודנט לרפואה בהודו, חשף בראיון ל-Wired כי השתמש ב-Google Gemini כדי ליצור את הדמות. הוא העלה סרטוני 'סופטקור' לפלטפורמות מתחרות ל-OnlyFans ומכר מוצרי מרצ'נדייז, תוך שהוא מרוויח אלפי דולרים מדי חודש. הדמות הצליחה לצבור עוקבים רבים מכיוון שהייתה מבוססת על תרבות פוליטית אמריקאית פופולרית ונתפסה כאותנטית למדי. המקרה הזה מדגים עד כמה קל כיום ליצור תוכן מזויף בעל מראה מקצועי באמצעות AI, וכיצד המערכות לא מצליחות לזהות אותו בזמן.
הבעיה הגדולה יותר: זיוף בקנה מידה עצום
סיפור אמילי הארט אינו יוצא דופן. Wired מצביע על מקרים דומים של 'אינפלואנסרים' מזויפים נוספים שתומכים בטראמפ, כמו ג'סיקה פוסטר. תופעה זו ניכרת גם ברשתות חברתיות אחרות, שם ניתן למצוא תוכן שנוצר ב-AI בעמודי החקירה של אינסטגרם, ללא גילוי ברור. התבנית ברורה: יצירת דמויות מזויפות היא זולה, מהירה, רווחית וקלה להעתקה. כל הרשתות החברתיות הגדולות מצהירות על מדיניות נגד תוכן מזויף, המחייבת גילוי של תוכן שנוצר ב-AI, במיוחד בנושאים רגישים כמו פוליטיקה, בריאות וכלכלה. עם זאת, בפועל, האכיפה כמעט ולא קיימת.
מדוע המערכות נכשלות בזיהוי תוכן מזויף?
אחת הסיבות המרכזיות היא שהטכנולוגיה המתקדמת של יוצרי התוכן עולה על יכולת הזיהוי של המערכות האוטומטיות. רוב כלי יצירת התמונות ב-AI כיום כבר לא מותירים סימנים ברורים כמו אצבעות מיותרות או רקעים נעלמים, שהיו מזוהים בעבר בקלות. ללא סימני מים (watermarks) או מטא-דאטה ברורים, אפילו מערכות אוטומטיות מתקשות להבחין בין תמונה אמיתית למזויפת.
בנוסף, רוב הרשתות החברתיות מסתמכות על דיווחי משתמשים ועל אלגוריתמים לזיהוי תוכן מזויף, אך אלה אינם מספיקים כאשר מדובר בתוכן שנוצר באופן מקצועי ומופץ בקנה מידה גדול. המערכות לא מצליחות לעמוד בקצב השינויים הטכנולוגיים, והמשתמשים נותרים חשופים לתוכן מטעה ללא הגנה מספקת.
מהי הפתרון האפשרי? 'תוויות תזונה' לאובדן
תקן חדש בשם Content Credentials נועד לפתור חלק מהבעיה. מדובר במערכת שתעקוב אחר תהליך יצירת התמונה לאורך כל מחזור החיים שלה, תוך שמירת המידע במטא-דאטה של התמונה. כך, אתרי אינטרנט יוכלו לזהות בקלות אם תמונה נוצרה ב-AI או עברה עיבוד דיגיטלי. עם זאת, תקן זה עדיין לא מיושם באופן נרחב, והמידע עליו אובד לעיתים קרובות במהלך העלאת התמונה לרשתות החברתיות.
ללא יישום מלא של תקנים כאלה ואכיפה מחמירה יותר, המשתמשים ימשיכו להיתקל בתוכן מזויף מבלי יכולת להבחין בו. השאלה המתבקשת היא: מי אחראי להגן עלינו מפני התופעה ההולכת וגדלה הזו? האם הרשתות החברתיות, הממשלות, או אולי המשתמשים עצמם?
מה ניתן לעשות כרגע?
- בדיקת מקורות: לפני שמאמינים לתוכן פוליטי או חדשותי, כדאי לבדוק את המקור שלו ולראות אם הוא מופיע במקורות מוכרים.
- שימוש בכלים לזיהוי AI: כלים כמו Hive AI או FotoForensics יכולים לסייע בזיהוי תמונות שנוצרו ב-AI.
- קריאה ביקורתית: לבדוק אם התמונה או הסרטון נראים 'מושלמים מדי' – למשל, פנים חלקות מדי או רקעים לא טבעיים.
- דיווח על תוכן חשוד: רוב הרשתות החברתיות מאפשרות דיווח על חשבונות או תוכן חשוד, ויש לעשות זאת כדי לסייע בזיהוי תופעות מזויפות.
סיכום: עתיד לא ברור, אחריות משותפת
הטכנולוגיה המתקדמת של ימינו מקלה על יצירת תוכן מזויף, אך המערכות להגנת המשתמשים עדיין לא מספיקות. המקרה של אמילי הארט הוא רק דוגמה אחת מתוך מאות אלפי מקרים דומים שמתרחשים ברחבי הרשת. ללא יישום תקנים חדשים ואכיפה מחמירה יותר, המשתמשים ימשיכו להיתקל בתוכן מטעה ללא יכולת להבחין בו. האחריות מוטלת על הרשתות החברתיות, הממשלות והמשתמשים עצמם להבטיח שהמידע שאנו צורכים ברשת יהיה אמין ומדויק ככל האפשר.