זה קרה מתחת לרדאר בשיחת Space בטוויטר ביום שישי האחרון, אבל ראוי שההצהרה הזו של אילון מאסק תגיע לכותרות העיתונים: חברת x.AI, שהושקה אך לאחרונה, מתמקדת בפיתוח בינה מלאכותית כוללת (AGI) - הטכנולוגיה המסקרנת ואולי המסוכנת מכולן. עד כה נחשבה ה-AGI לתוצאה שתתרחש ככל שתתפתח הבינה המלאכותית הגנרטיבית (GenAI), אבל זו הפעם הראשונה שחברה מכריזה על כך שהיא מפתחת AGI במכוון.
היכולות של ה-AGI עוד לא ידועות, למעשה אין אפילו הסכמה בין המומחים על ההגדרה של AGI. מה שברור הוא שאם כיום מפתחי ה-AI לא מסוגלים להבין את מה שהם יצרו והם מתייחסים לבינה המלאכותית הגנרטיבית כ"קופסה שחורה", המצב יקצין הרבה יותר כשהיכולות של ה-AI הזו יתרחבו.
ההנחה, שלה שותף גם מאסק, שכשה-AI תגיע למדרגת AGI היא תהיה כה עוצמתית - שהיא תוכל להשתוות או אפילו להתעלות על יכולות בינה אנושיות. ה-G ב-AGI הוא General, להעיד על כך שזו תהיה בינה מלאכותית שאינה ממוקדת במשימה ספציפית, אלא יכולה לבצע את כולן.
ההשערות הן שה-AGI תפתח יוזמה עצמית, תחקור תחומים שהיא בוחרת בהם, תפתח יכולות להשפיע בפועל על העולם הפיזי ואולי גם תפתח מודעות עצמית. לחוקרים ולמפתחים לא תהיה יכולת להבין את דרך העבודה של ה-AGI או לשלוט בה. אם רואי השחורות צודקים, הבינה המלאכותית תשתלט על בני האדם ואולי תחליף את המין האנושי.
"ממש נאבקתי כנגד הדבר הזה"
במעבדות OpenAI, DeepMind וחברות GenAI נוספות ממשיכים במרץ לשפר את מודלי השפה הענקיים (LLMs) שלהן, בתהליך שיביא כנראה ללידתה של ה-AGI. זו הסיבה שיותר מאלף חוקרים, יזמים ומנכ"לים חתמו בחודש מרץ השנה על מכתב שבו המליצו לעצור לשישה חודשים את המשך פיתוח הבינה המלאכותית, כדי לאפשר דיונים על הדרך לעשות זאת בצורה מבוקרת שתאפשר לשלוט בתהליך.
למרבה האירוניה, מאסק היה אחד החותמים על המכתב. לרגע אפשר היה לחשוב שהוא חרד מעוצמת הטכנולוגיה הבלתי מוכרת. במאי השנה חתמו 350 בכירים, בהם מנכ"לי OpenAI, DeepMind ו-Enthropic, על אזהרה שניסח ארגון "המרכז לבטיחות ב-AI" שקובעת: "בלימת הסיכון של היכחדות על ידי בינה מלאכותית צריכה לעמוד בראש סדר העדיפויות העולמי לצד סיכונים נרחבים אחרים כמו מגיפות ומלחמות גרעיניות".
עכשיו מתברר שמאסק ממהר להתייצב בחזית המרוץ לפיתוח הטכנולוגיה הזו. "ממש נאבקתי כנגד הדבר הזה, AGI, התנגדתי לאפשר את זה", הוא אמר בשיחת הטוויטר לאוזני 30 אלף מאזינים, "אבל באמת נראה שבשלב זה יש שתי אפשרויות: או להיות צופה או להיות משתתף. וכצופה, אדם לא יכול לעשות הרבה כדי להשפיע על התוצאה". אגב, דן הנדריקס, ראש המרכז לבטיחות ב-AI, מוגדר כיועץ ל-x.AI.
עד כה נחשבה ה-AGI לתוצאה שתתרחש ככל שתתפתח הבינה המלאכותית הגנרטיבית (GenAI), אבל זו הפעם הראשונה שחברה מכריזה על כך שהיא מפתחת AGI במכוון
מאסק מתעניין ב-AGI כבר זמן מה. הוא ניסה שיתוף פעולה עם חברת OpenAI, שהוא היה אחד ממייסדיה עד שפרש לאחר שנכשל בניסיונו להשתלט עליה. הוא ניסה לשכנע את לארי פייג', ידידו מאלפאבית (גוגל), לשתף פעולה ונכשל שוב. זה גרם לו להתמרמר בפומבי על כך שחברות ה-AI מרפדות את שורותיהן בטובי הטאלנטים לפיתוח AGI, ובהמשך לצוד כמה מהטאלנטים האלה לשורותיו ולהקים את x.AI.
עכשיו אפשר להיזכר באפליקציית "X" שמאסק הציג בציוץ בטוויטר כ"אפליקציית הכל" (everything app). היא מתממשת ככל הנראה באפליקציית x.AI, שתתיימר לדעת הרבה יותר בתחומים רבים יותר ושאותה מאסק ימתג כ-AGI. "להבין את הטבע האמיתי של היקום", זו המטרה עליה הצהיר בעת הצגת החברה.
בשיחה הוא מנה שורה של נושאים שה-AGI תעזור לאנושות להבין, למשל מהו כוח הכבידה ומדוע לא התגלו חייזרים עד כה. ומה לגבי החשש שה-AGI תשמיד את האנושות? גם לזה יש לו תשובה: "עבור אינטליגנציית-על שוחרת אמת, קיומה של האנושות הרבה יותר מעניין מאי-קיומה". נותר רק לקוות שאינטליגנציית-העל תחשוב כמו מאסק.
Announcing formation of @xAI to understand reality
ההיסטוריה של מאסק רצופה בהצהרות שלא היה מאחוריהן כיסוי טכנולוגי. אבל היו גם הצהרות שסיכנו חיים. למשל כשהוא נתן את הרושם כאילו מכוניות טסלה הן אוטונומיות, מה שככל הנראה גרם לכמה וכמה תאונות כשנהגים במכוניות טסלה חשבו שהם יכולים לנמנם בדרך. האם מאסק הוא האדם הנכון להוביל את יצירת אחת הטכנולוגיות המסוכנות ביותר, לפי המכתב שהוא עצמו חתום עליו?
באירוע ביום שישי הוא הרגיע את המשתתפים ואמר שניתן לסמוך על חברת x.AI, אפילו יותר מאשר על OpenAI או גוגל. "גוגל ומיקרוסופט כפופות לתכתיבים של ESG וקיימות שדוחפים אותן לכיוונים מפוקפקים", הוסיף, "x.AI היא חברה פרטית שאינה כפופה לאילוצי השוק או ה-ESG ולכן אנחנו קצת יותר חופשיים לפעול".
ומה לגבי החשש שה-AGI תשמיד את האנושות? גם לזה יש למאסק תשובה: "עבור אינטליגנציית-על שוחרת אמת, קיומה של האנושות הרבה יותר מעניין מאי קיומה". נותר רק לקוות שאינטליגנציית-העל תחשוב כמו מאסק
מאסק חזר גם על הביקורת שהשמיע בעבר, על כך שהמתחרות מאמנות את ה-GenAI שלהן להיות פוליטיקלי קורקט: "זה מאוד מסוכן לאמן AI לשקר. ב-x.AI ניתן לבינה המלאכותית לומר את מה שהיא מאמינה שנכון, גם אם זה יביא לקצת ביקורת".
רוצים להביע ביקורת? שלמו 10 דולר
המידע הזה צריך מאוד להדאיג את כולנו. מאסק הוא אדם שחושב בגדול ומתלהב בגדול והוא מונע מהצורך להוכיח עד כמה הוא גדול. הוא אינו סובל ביקורת ומאחוריו משתרך שובל של מפוטרים שדעתם לא מצאה חן בעיניו. כשמחברים את כל זה עם הטכנולוגיה שעלולה להיות מסוכנת לאנושות יותר מהגרעין, מתחילים להצטמרר. כמה זמן ייקח לממשל האמריקאי להבין שהאירוע הזה דורש פיקוח הדוק?
בשולי הדברים, חברת x.AI תפרסם פרטים ראשונים על המוצר שלה בתוך כמה שבועות. ומאסק מבטיח: כל אדם יוכל להביע את דעתו ולהשפיע על כיווני הפיתוח של החברה. בתנאי שיוכיח שהוא אדם ולא AI ושישלם עמלה של 10 דולר.