מעל לשנה וחצי שישראל עמוק בתוך הבוץ העזתי ומנהלת קרבות בחזית הדרומית במקביל לחזיתות נוספות. אולי החזית היחידה שהמדינה לא מצליחה להילחם בה היא חזית ההסברה - שם בנוסף לאינספור פוסטים וסרטונים נגד ישראל ישנו גם שימוש נרחב בבינה מלאכותית כדי לייצר פייק ניוז.
בימים האחרונים התקשורת העולמית מתעסקת בסיפור מותם של 9 מילדיה של אלאא' א-נג'אר, רופאה בבית החולים נאצר בח'אן יונס, שנהרגו ביום שישי בתקיפה ישראלית בביתם. למרות שהפרטים עדיין לא אושרו ע"י צה"ל ולפי גורם בכיר האזור היה אמור להיות מפונה, ברשתות החברתיות יוצרים תמונות שונות בעזרת AI בנושא. ההשפעה של אותן תמונות, למרות שחלקן קל לזהות בתור בינה מלאכותית, יוצרות נזק אדיר לתדמית ישראל, שגם ככה במצב בכי רע.
מיליוני גולשים נחשפים לאותן תמונות ולא ברור כמה בכלל מבינים שהן לא אותנטיות. נציין כי העובדה שהתמונות לא אמיתיות לא אומרת שהאירוע עצמו לא קרה, סיפור מותם של 9 ילדים ממשפחה אחת מתקיפה אחת יכול להפוך לכותרת ברחבי העולם, בלי קשר למוצאם. למרות שבצה"ל עדיין בודקים אם הם מתו כתוצאה מהתקיפה או מנפל שהיה באזור - בסוף יש 9 ילדים שנהרגו וברשתות לא נרגעים מכך.
אחת התמונות המפורסמות שרצות ברשת הן של אישה מחבקת שקיות של גופות. התמונה עצמה מעוררת חשד מכיוון שאין שום דרך לאשר מי האישה או מה יש בשקיות, למעשה מה שמחבר בין הסיפור לתמונה הוא רק הכיתובים שנותנים הגולשים. טל היגן, חוקר במיזם פייק ריפורטר, הצליח לקבוע שאותה תמונה נוצרה בעזרת בינה מלאכותית.
A few issues:
1. The photo on the right is AI. I'll include a real photo of Dr Alaa al Najjar.
2. The photo on the left isn't her family - It was reportedly children of the Abu Daqa family, killed by an Israeli airstrike in March 2025. I'll include photos that are reported to… https://t.co/zTiT0U6BsH pic.twitter.com/KjO36Z4SMc
בתמונה אחרת נראית אישה בוכה מעל לגופות בתוך שקיות לבנות, במקרה הזה די קל להבין שמדובר ב-AI לפי הפרצופים של כל אותם אנשים בתמונה. בנוסף, תמונת המשפחה שמצורפת לאותם פוסטים לא נעשתה ב-AI אבל היא לא רלוונטית לנושא, למעשה מדובר במשפחה אחרת, בני משפחת אבו דקא שנהרגו בהפצצת צה"ל במרץ 2025.
The AI image was likely used as an illustrative cover for the story by outlets, and eventually got interpreted as real. Here are is another version of that AI image - possibly the same creator: pic.twitter.com/LIaJuZJEiN
היגן מספר ל-mako על תהליך בדיקת התמונה: "יש לי הרבה ניסיון בזיהוי תמונות AI, ולכן היה לי אישית ברור שמדובר ב-AI - אבל תמיד יש אפשרות שטעיתי. אז בדקתי בגוגל לנס איפה עוד התמונה מופיעה, ובדקתי בהרבה מקומות את הקרדיט לתמונה ולא מצאתי כלום. בנוסף, יש 2 תמונות של ה'אמא' עם 'הילדים' - אצל אחד מהם רואים גם פרצופים של הילדים. ראיתי את הסרטון מעזה של גופות הילדים וגם לוויות - והם לא דומים בכלל. בנוסף, 2 התמונות דומות בצורה שאני מניח ששתיהן נוצרו על ידי אותו אדם".
היגן מציף גם פייקים שמגיעים מהצד השני, הישראלי, לגבי המלחמה. למשל תמונה של ילדה בוכה וקטועת רגליים שעלתה לרשת, דווחה ע"י יוזרים הנחשבים פרו-ישראלים בתור שקרית בעקבות שיחות עם מנועי בינה מלאכותית כמו גרוק ו-ChatGPT. אבל היגן מציין שהתמונה אמיתית. הילדה היא רעף סעד מנוסיראת, אשר נפגעה בהפצצת צה"ל בחודש ספטמבר 2024. הפרטים עליה מגיעים מדף מימון המונים שנועד לעזור לה ללכת שוב, בסופו של דבר סעד קיבלה פרוטזות ואפילו נפגשה עם מיס רייצ'ל, כוכבת היוטיוב לילדים שלאחרונה מתבטאת למען ילדי עזה.
This is her now.
Ms Rachel is doing a great job. She has a pure heart. https://t.co/Ib61FhJdZE
בשיחה עם היגן הוא מתייחס לעלייה בשימוש ב-AI לצורך תעמולה: "לאט לאט אני כן רואה עלייה - בעיקר בגלל ש-AI נהיה יותר נגיש עם הזמן לכולם, ואין פיקוח על חברות ה-AI שנותנות לכולם להשתמש בכלים שלהן בלי שום מגבלה - אין אפילו חובה לשים על כל תמונה סימון ברור של AI.
"חובה למדינה שלנו, חובה לאזרחים לדרוש מהממשלה, להגן עלינו מפני העלייה החדה ביכולות של AI. אנחנו מהר מאוד נגיע למצב שיהיה מאוד קשה לאזרחים להבדיל בין אמת ושקר. חובה ללמד ילדים ומבוגרים דרכים לזהות מה נוצר ב-AI וחובה לדרוש רגולציה על החברות שרוצות לתת לנו את הכלים להפיץ תמונות AI בעצמנו.
"כל פעם שיש דיווחים מהשטח, אנשים רוצים לעלות כתבות עם תמונות להמחשה, כי זה מביא יותר צפיות - אבל מהר מאוד אנשים חושבים שמדובר בתמונה אמיתית מהזירה. אז, במקום שנדבר על העובדות לגבי אותו אירוע, אנחנו מתעסקים בצילום AI שממסגר את האירוע כולו כפייק - גם אם זה לא נכון".