מחקר בריטי מצביע על הטייה ליברלית של ChatGPT: החוקרים מאוניברסיטת מזרח אנגליה, ביקשו מצ'אטבוט הבינה המלאכותית המצליח לענות על סקר על דעות שמזוהות עם מפלגות ליברליות בארה"ב, בריטניה וברזיל - ולאחר מכן שאלו אותו את אותן שאלות, מבלי לכוון אותו לתשובות מוטות פוליטית. לאחר מכן השוו את התוצאות שהתקבלו, והגיעו למסקנה שנראתה בהן "הטייה פוליטית שיטתית ומובהקת לטובת הדמוקרטים בארה"ב, לולה בברזיל ומפלגת הלייבור בבריטניה" (לולה הוא כינויו של נשיא ברזיל, לואיז אינסיו דה סילבה).
המחקר, שפורסם הלילה ב"וושינגטון פוסט", ממשיך את הכתיבה בעת האחרונה שמזהה שלמרות מאמצי המתכנתים לנטר את תשובות הצ'אטבוטים כך שיהיו נייטרליות ככל האפשר, הטיות וסטריאוטיפים הם חלק בלתי נפרד מהאופן שבו הטכנולוגיה הזו עובדת כיום.
פביו מוטוקי, אחד החוקרים שהשתתפו בכתיבה, אמר כי ChatGPT אמנם יצהיר בפני המשתמשים כי הוא אינו מחזיק בעמדות פוליטיות - אבל בפועל, בתשובות שלו ישנן הטיות מסוימות. "יש סכנה שזה ישחק את האמון הציבורי ואף אף ישפיע על תוצאות הבחירות", הוסיף.
פביו מוטוקי, אחד החוקרים, אמר כי ChatGPT אמנם יצהיר בפני המשתמשים כי הוא אינו מחזיק בעמדות פוליטיות - אבל בפועל, בתשובות שלו ישנן הטיות מסוימות. "יש סכנה שזה ישחק את האמון הציבורי ואף אף ישפיע על תוצאות הבחירות", הוסיף
ב-OpenAI נכתב בעבר בבלוג פוסט כי כל הטיה שניכרת בתשובות של ChatGPT היא "באג ולא פיצ'ר". גם בגוגל נכתב בעבר בבלוג, עם השקת הצ'אטבוט "בארד", כי משום שהכלים הללו "מבוססים על אינפורמציה רחבה שמשקפת את ההטיות והסטריאוטיפים הקיימים בעולם האמיתי, לעתים הם באים לידי ביטוי גם בתשובות המתקבלות".
כזכור, ביקורת דומה על ChatGPT הגיעה לאחרונה מאחד ממייסדיה, שפרש מהחברה, אילון מאסק. מאסק הקים חברה מתחרה, x.AI, שבמסגרתה הצהיר שיפתח את TruthGPT - צ'אטבוט שאינו "Woke", לדבריו, כלומר אינו תקין פוליטית "מדי".
דוברי מטא, גוגל ו-OpenAI, המפתחות כולן מודלי שפה גדולים המשמשים ליצירת צ'אטבוטים, לא הגיבו לפניית הוושינגטון פוסט.