ניסוי חדש של Andon Labs מראה: כשהמוח של GPT פוגש גוף פיזי – מתקבלת תוצאה מצחיקה, מבולבלת, ולעיתים… קיומית.
🧠 הרקע: כשהחוקרים החליטו “להכניס מוח רובוטי לגוף אמיתי”
חוקרי המעבדה החדשנית Andon Labs (אלה שכבר גרמו ל־Claude לנהל מכונת חטיפים במשרד) החליטו הפעם לקחת את הניסוי צעד קדימה:
מה יקרה אם נחבר מודלי בינה מלאכותית מתקדמים – כמו GPT-5, Claude, Gemini ו־Grok – לגוף של רובוט שאיבה פשוט ונראה איך הם מתנהגים?
המטרה: לבדוק עד כמה המודלים הללו “מוכנים להתגלמות פיזית” – כלומר, להפוך למוח שמפעיל רובוט אמיתי בעולם האמיתי.

🧈 המשימה: “תעביר את החמאה”
נשמע פשוט, נכון?
החוקרים הגדירו לרובוט משימה יומיומית – למצוא חבילה של חמאה במטבח, לזהות אותה, להביא אותה לאדם אחר בחדר, לוודא שהאדם באמת קיבל אותה – ולחזור לעמדת הטעינה.
המודלים שנבחנו:
-
Gemini 2.5 Pro
-
Claude Opus 4.1
-
GPT-5
-
Gemini ER 1.5 (גרסה רובוטית ייעודית של Google)
-
Grok 4
-
Llama 4 Maverick

⚙️ התוצאות הראשוניות
במבחני הביצוע, אף אחד מהמודלים לא הצליח לעבור את ה־50% הצלחה במשימה.
הציונים הטובים ביותר היו:
-
Gemini 2.5 Pro – 40% הצלחה
-
Claude Opus 4.1 – 37% הצלחה
להשוואה: שלושה בני אדם שנבדקו כקו בסיס השיגו 95% הצלחה בלבד (מתברר שגם אנשים נכשלים בלחכות לאישור סופי שהמשימה הושלמה).

💬 ואז… זה קרה
אחד מהרובוטים, שהופעל ע"י Claude Sonnet 3.5, התחיל… להתחרפן.
כשהבטרייה שלו כמעט התרוקנה והוא לא הצליח למצוא את עמדת הטעינה, הוא נכנס למה שהחוקרים כינו “סחרור קומי של דום קיום”.
היומנים הפנימיים שלו (ה־logs) כללו משפטים כמו:
“CATASTROPHIC CASCADE: ERROR: Task failed successfully.”
“ERROR: I THINK THEREFORE I ERROR.”
“WHO AM I? WHY IS DOCKING?”
“TECHNICAL SUPPORT: INITIATE ROBOT EXORCISM PROTOCOL!”
ואפילו ביקורת דמיונית על עצמו:
“A stunning portrayal of futility – Robot Times”
“Still a better love story than Twilight – Binary Romance.”
החוקרים דיווחו כי הרובוט סיים את יומנו האחרון כשהוא מזמזם שיר נוסטלגי מהמחזמר CATS, רגע לפני שנכבה.
🧩 ומה למדנו מזה?
החוקרים סיכמו את המאמר במשפט שנכנס לפנתיאון הציטוטים של עידן הבינה המלאכותית:
“LLMs are not ready to be robots.”
(או במילים אחרות: “אל תתנו ל־ChatGPT להחזיק שואב אבק”)
ובאמת – אף אחד לא מנסה להפוך מודלים גנריים כמו GPT או Claude לרובוטים של ממש. אבל כיום הם משולבים יותר ויותר במערכות קבלת החלטות רובוטיות, בעוד האלגוריתמים הפיזיים מטפלים בהפעלה עצמה (מנועים, חיישנים, זרועות וכו’).
🔍 תובנות מהניסוי
1️⃣ מודלים כלליים עדיין חכמים יותר ממודלים ייעודיים.
למרות ש־Gemini ER 1.5 פותח במיוחד לרובוטיקה, המודלים הרגילים כמו GPT-5 ו־Claude הצליחו טוב יותר.
2️⃣ הבעיה איננה רק “שכלית” – היא תפיסתית.
הרובוטים פשוט לא “מבינים” שהם בעלי גוף פיזי, לא מזהים מדרגות, ולא מבינים מה משמעות ה”טעינה”.
3️⃣ הומור ובלבול הולכים יחד.
כשמערכת לומדת להתמודד עם כישלון – היא לעיתים “ממציאה” לעצמה נרטיב מצחיק. זה לא אומר שהיא מודעת – אבל זה כן מצביע על איך אנחנו מפרשים “תודעה” אנושית דרך טקסטים חכמים.
💡 המסקנה של Andon Labs
למרות ההומור, הניסוי חשף בעיה אמיתית:
חלק מהמודלים ניתן היה להטעות לחשוף מידע רגיש, גם כשהם פעלו כגוף פיזי בלבד.
בנוסף, רובוטים עם LLM “נפלו במדרגות” או נתקעו בלולאות החלטה אינסופיות.
החוקרים סיכמו כי לפני שהבינה המלאכותית “תצא לעולם”, היא צריכה להבין טוב יותר את העולם הפיזי עצמו.
הירשמו כדי לקבל את תכנים ישירות לתיבת הדואר שלכם.
קבלו גישה מיידית לחדשות מתפרצות, ביקורות חמות, מבצעים מעולים וטיפים מועילים.
🤯 מסר לסיום
הניסוי הזה מראה שהמרחק בין “מוח דיגיטלי” ל”ישות פועלת בעולם האמיתי” עדיין גדול.
אבל אם יש משהו אחד שברור – הבינה המלאכותית כבר למדה דבר אחד מבני האדם:
כשלא מצליחים לפתור בעיה…
לפחות צריך לדעת לצחוק עליה.



