מודל הבינה המלאכותית הסיני שהפיל את מניית אנבידיה גויס לשימוש בידי האקרים ופושעים, כך טוענים חוקרי חברת אבטחת המידע צ'ק פוינט. לטענת החוקרים, הם הבחינו כי פושעי סייבר החלו להשתמש במודלים של דיפ-סיק ו-Qwen מבית עליבאבא ליצירת תוכן זדוני באמצעות הסרת מנגנוני הצנזורה שלהם בשיטה המכונה "ג'יילברייקינג" (Jailbreaking).

לפי צ'ק פוינט, גורמים זדוניים משתפים באינטרנט מדריכים שמסבירים כיצד ניתן לקלף את ההגנות של המודלים הסיניים ולהשתמש בהם לפיתוח נוזקות. לטענת חוקרי החברה, בעוד שב-OpenAI השקיעו בפיתוח מנגנוני הגנה למניעת ניצול לרעה של ChatGPT, המודלים הסיניים החדשים כמעט שלא כוללים מנגנונים כאלו. הדבר הפך אותם למוקד עניין לתוקפים, במיוחד כאלו בעלי יכולות טכניות נמוכות שלא נדרשים להבין את הטכנולוגיה.

לטענת צ'ק פוינט, פושעי סייבר משתמשים במקביל בשלושת כלי הבינה המלאכותית ChatGPT, Qwen ודיפ-סיק כדי לפתח אמצעים להפצת ספאם בהיקפים גדולים. בנוסף הם נעזרים ב-Qwen ליצירת נוזקות המשמשות לגניבת מידע ממשתמשים.

"ב-ChatGPT המשתמשים יכולים לשאול כל שאלה, אך המערכת מונעת מתוכן בעייתי להיווצר", אומר סרגיי שוקביץ', מנהל במחלקת המחקר של צ'ק פוינט. "לעומת זאת, במודלים הסיניים, ניתן לקבל תשובות ישירות לשאלות כמו איך לעקוף בקרה בנקאית או כיצד לפתח נוזקה – ללא כל סינון או חסם. המשמעות היא שהרף לביצוע פעולות זדוניות יורד משמעותית. הפער הזה משקף את כיווני ההתפתחות העתידיים של הבינה המלאכותית ואת האתגרים הגלובליים שיתלוו אליהם".