תקריות קשות: כשהבינה המלאכותית טועה — והאנושות משלמת את המחיר
ב-20 באוקטובר 2025, בעיר בולטימור, תפסה מצלמת מעקב מתקדמת עם יכולות בינה מלאכותית תמונה מטושטשת של תלמיד בן 17 בשם טאקי אלן, יושב מחוץ לבית הספר לאחר אימון פוטבול. המערכת זיהתה בטעות את שקית הצ'יפס בכיסו כאקדח. תוך דקות ספורות הגיעו ניידות משטרה, קצינים שלפו נשק, הורו לו לכרוע ברך והושיבו אותו בכוח. החיפוש העלה רק שקית צ'יפס מקומטת. מה שהיה אמור להיות ערב רגיל הפך לחוויה טראומטית בשל טעות במערכת AI ובהחלטות אנושיות שהתבססו עליה.
במקרה אחר, ב-24 בדצמבר 2025, שוחררה אנג'לה ליפס, סבתא מטנסי, לאחר שישבה חמישה חודשים בכלא בשל זיהוי שגוי של תוכנת זיהוי פנים. המערכת קישרה אותה בטעות לפשעי הונאה בצפון דקוטה — מדינה שאותה מעולם לא ביקרה. היא נעצרה באיומי נשק בזמן שטיפלה בארבעה מנכדיה.
מקרים אלה הם רק קצה הקרחון של בעיה רחבה יותר: כיצד אמון יתר במערכות בינה מלאכותית עלול להוביל למעצרים שגויים, הרשעות שווא ולפגיעה בזכויות אדם. הטעויות אינן נובעות רק מפגמים טכנולוגיים, אלא גם מהאופן שבו בני אדם מפרשים את תוצאות ה-AI כעובדות מוחלטות ולא כהסתברויות סטטיסטיות.
הבעיה העיקרית: AI מייצרת הסתברויות — בני אדם מתייחסים אליהן כאל ודאות
אנו חוקרים העוסקים בקשר בין טכנולוגיה, משפטים ומנהל ציבורי מזה שנים רבות. במהלך מחקרינו על השימוש במערכות AI במשטרות ועל תפקודן של טכנולוגיות דיגיטליות בחברה דמוקרטית, זיהינו תופעה מטרידה: המעבר המהיר מהסתברות סטטיסטית להחלטה מבצעית. כאשר מערכת AI מזהה איום פוטנציאלי, השאלה הנשאלת אינה מה מידת הוודאות של התחזית, אלא מה יש לעשות בנדון. תחזית סטטיסטית הופכת להחלטת פריסה, והאי-ודאות המקורית נעלמת בדרך.
בינה מלאכותית המשמשת בתחום אכיפת החוק לרוב פועלת על בסיס נתוני עבר. המערכות מנתחות דפוסי פשיעה היסטוריים ומדרגות שכונות לפי רמת הסיכון הצפוי, כך שיחידות המשטרה יופנו לאזורים המוגדרים כ"נקודות חמות". המנגנון נראה פשוט, אך השלכותיו מורכבות ומסוכנות.
מדוע AI אינה מחפשת עובדות — היא מנבאת הסתברויות
כאשר מודלי AI גנרativi כמו ChatGPT או Claude עונים לשאלות, הם אינם מחפשים מידע במאגרי נתונים או מאמתים עובדות. הם מייצרים את התשובה הסבירה ביותר על סמך דפוסים שנלמדו מהנתונים שבהם אומנו. לדוגמה, כאשר נשאלים "מי המציא את נורת החשמל?", התשובה הסטנדרטית היא "תומאס אדיסון". אולם התשובה הזו מתעלמת מכך שגם ג'וזף סוואן המציא נורה באותה תקופה, כמעט במקביל. הבעיה מתעצמת כאשר בני אדם מאמינים שהתשובה הסטטיסטית היא עובדה מוגמרת ולא הסתברות בלבד.
במקרה של טאקי אלן, המערכת לא רק זיהתה בטעות אקדח — היא גרמה למשטרה לפעול כאילו מדובר בוודאות. כאשר בני אדם מפרשים הסתברויות כעובדות, הם מאבדים את ההקשר, את הניואנסים ואת האפשרות לטעות. במדינות רבות, מערכות AI כאלו כבר נמצאות בשימוש במשטרות, אף שאין רישום ציבורי מלא של היקף השימוש בהן.
הסכנות: מאי-ודאות להרשעות שווא
השימוש במערכות AI בתחום אכיפת החוק אינו מוגבל לזיהוי תמונות או ניתוח נתוני עבר. מערכות אלו משפיעות על החלטות קריטיות כגון:
- הפניית משאבים משטרתיים: שכונות מסומנות כ"מסוכנות" מקבלות נוכחות משטרתית מוגברת, לעיתים ללא הצדקה אמיתית.
- עצירות והחזקות: כמו במקרה של טאקי אלן, אזרחים נאלצים להתמודד עם עצירות אלימות בשל זיהוי שגוי של מערכות AI.
- הרשעות שווא: במקרה של אנג'לה ליפס, זיהוי פנים שגוי הוביל למעצר ולהרשעה שלא בצדק, תוך פגיעה בחייה ובחיי משפחתה.
- העמקת אפליה: מערכות AI עלולות להחמיר אפליה קיימת כאשר הן מאומנות על נתונים מוטים היסטורית, המייצגים דעות קדומות של החברה.
הבעיה אינה טמונה רק בטכנולוגיה עצמה, אלא באופן שבו היא מיושמת ומופעלת על ידי בני אדם. כאשר שוטרים, שופטים ופקידי ממשל מאמצים את תוצאות ה-AI ללא ביקורת מספקת, הם הופכים את ההסתברויות לוודאויות — ומעמידים אזרחים חפים מפשע בסיכון.
"הסכנה הגדולה ביותר אינה בטעות הטכנולוגית עצמה, אלא באמון העיוור שאנו נותנים בה. כאשר אנו מפסיקים לראות ב-AI כלי עזר ומתחילים לראות בה מקור לוודאות, אנו מסכנים את החופש והצדק שלנו."
מה ניתן לעשות? פתרונות והמלצות
על מנת לצמצם את הסיכונים הכרוכים בשימוש במערכות AI בתחום אכיפת החוק, יש לנקוט במספר צעדים:
- שקיפות מלאה: יש ליצור רישום ציבורי של כל מערכות ה-AI בשימוש משטרתי, כולל פרטי האלגוריתמים והנתונים שבהם הן משתמשות.
- בקרה עצמאית: יש להקים גופים עצמאיים שיבקרו את תוצאות מערכות ה-AI ויוודאו שאינן מובילות לאפליה או למעצרים שגויים.
- הכשרה והסברה: יש להכשיר שוטרים ושופטים להבין את מגבלות ה-AI וללמדם שלא לקבל את תוצאותיה כעובדות מוחלטות.
- הגבלת שימוש: יש להגביל את השימוש במערכות AI בתחומים רגישים כגון זיהוי פנים ועצירות מבוססות הסתברות, עד שיובטח שהן אינן גורמות נזק.
הטכנולוגיה עצמה אינה טובה או רעה — היא כלי. השימוש שנעשה בה הוא שקובע את מידת הסיכון שלה. כאשר אנו מאפשרים למערכות AI לקבל החלטות קריטיות ללא ביקורת מספקת, אנו מסכנים את עקרונות הצדק והחופש שלנו. המקרים של טאקי אלן ואנג'לה ליפס הם תזכורת כואבת לכך שהאמון המופרז בטכנולוגיה עלול לעלות לנו ביוקר.