הזמינות של כלי הבינה המלאכותית לכל אדם, בכל מקום, הופכת אותם לכלי מפתה. בעוד שטעויות בתחומים מסוימים עשויות להיות בלתי מזיקות, טעויות רפואיות עלולות לעלות בחיי אדם.

מחקר שפורסם בחודש אוגוסט 2024 בדק את יכולות האבחון של ChatGPT על פני 150 מקרים רפואיים. שיעור הדיוק? 49% בלבד. תארו לכם שהייתם הולכים לרופא, והוא היה טועה במחצית מהמקרים, האם הייתם סומכים עליו?

בניסוי נוסף, שהתמקד באבחון מחלות ילדים והתפרסם בכתב העת הרפואי JAMA, התברר כי המערכת טעתה ב-80% מהמקרים. אחת הבעיות המרכזיות היא שמערכות AI אינן מאומנות באופן מספק כדי לזהות את המורכבות במקרים רפואיים מסוימים, במיוחד כאלה שמצריכים שיתוף פעולה בין מומחים מתחומים שונים. בינתיים, הרופאים האנושיים עדיין עדיפים כאשר מדובר באבחון מקרים מורכבים.

עם זאת, בינה מלאכותית דווקא מצטיינת בזיהוי טעויות רפואיות. מחקר שפורסם ב-BMJ בדק 545 מקרים רפואיים וביקש מ-ChatGPT לזהות שגיאות בהחלטות רפואיות. הפעם, שיעור הדיוק היה 95% – תוצאה מצוינת. המשמעות היא שהכלי יכול לשמש כעזר מצוין לרופאים לבדיקת שגיאות, אך לא כתחליף לאבחון עצמאי.

רופא בוחן טפסים (צילום: getty images)
אבחונים - לא, זיהוי טעויות - כן (אילוסטרציה)|צילום: getty images

המצב בעייתי במיוחד בתחום התרופות. למרבה הצער, גם בישראל כבר התרחשו טעויות רבות כתוצאה ממרשמים שהופקו על ידי רופאים תוך הסתמכות על בינה מלאכותית. זה יכול להיות שגיאה במינון, אך לא רק. מחקר שפורסם לאחרונה ב-EJHPHARM בדק את הדיוק של ChatGPT במתן המלצות לגבי 50 תרופות שונות – כולל התוויות, מינונים, תופעות לוואי ואינטראקציות בין תרופות. התוצאה: רק 26% מהמקרים היו מדויקים ובטוחים לשימוש. יתרה מכך, ב-27% מהמקרים, ההמלצות של ChatGPT עלולות היו לגרום לנזק קריטי למטופלים. משמעות הנתונים ברורה ולפיהם שימוש בלתי מבוקר בהמלצות של AI בתחום הפרמצבטי עלול להיות מסוכן.

אחד העקרונות החשובים ברפואה הוא "יכולת השחזור". היכולת להגיע לאותה מסקנה בהינתן אותם נתונים. אך גם כאן, מחקרים הראו שהתוצאות המתקבלות אינן עקביות, ולעיתים ניתנות תשובות שונות לאותו מקרה רפואי, כאשר הבינה המלאכותית נשאלת בהפרש של כמה ימים. במדע הרפואה, חוסר עקביות כזה עלול להיות קטלני, מכיוון שהוא פוגע באמינות האבחנה ובהחלטות הטיפוליות.

במקום להסתמך עליה כאוטוריטה רפואית, יש להשתמש בה ככלי משלים בלבד. משרד הבריאות ובתי הספר לרפואה בישראל צריכים לגבש הנחיות ברורות לגבי השימוש בבינה מלאכותית ברפואה, על מנת להבטיח שהיא תשרת את הציבור בצורה בטוחה ויעילה. כולל קביעת סנקציות ואזהרות לצוותי רפואה המשתמשים בה במקומות בהן היא עלולה לסכן חיי אדם. הקדמה כבר כאן, ואין צורך לעצור אותה, אך עלינו לנווט אותה בזהירות, כדי שחיי אדם לא יעמדו בסכנה.

>>> יוסי ערבליך משמש כיו"ר ומייסד "למענכם", המעניקה יעוץ רפואי וולונטרי