DIGIMATE.
חזרה לבלוג

אקס OpenAI מטיל פצצה: 'המודלים של היום הם רק חיקוי סטטיסטי' – האם הגענו לנקודת הרוויה?

חשבתם שה-AI בדרך להחליף אתכם מחר בבוקר? תחשבו שוב. ראיון עדכני ומרתק עם איליה סוצקבר (המדען הראשי לשעבר של OpenAI), מציג מסקנה מפתיעה: המודלים הנוכחיים הם כמו 'סטודנטים חרשנים'.. יודעים לשנן הכל למבחן, אבל נכשלים בהבנה אמיתית. כדי להבין את הדברים, אנו הולכים להיכנס לעומק הבעיה של תחום חי ובועט כיום - 'Vibe Coding', כדי לנסות להבין למה ה-AI נכנס ללופים של טעויות, ולמה דווקא עכשיו, היכולת האנושית שלכם חשובה יותר מתמיד כדי לצלוח את האתגר הזה.

רני יפרח
רני יפרח
AI Architect
29.12.2025
8 דקות קריאה
אקס OpenAI מטיל פצצה: 'המודלים של היום הם רק חיקוי סטטיסטי' – האם הגענו לנקודת הרוויה?

איליה סוצקבר (Ilya Sutskever), המדען הראשי לשעבר של OpenAI ומייסד SSI, מפרסם לאחרונה טענות רבות על כך שה-AI נמצא בנקודת 'רוויה' או איזשהי 'תקיעות התפתחותית', כתוצאה מהדרך בה בחרו לפתח את הטכנולוגיה. הוא מצביע על פער מוזר ומדאיג בין הביצועים של המודלים במבחנים (Evals) לבין היכולת שלהם לספק ערך איכותי ואמין בעולם האמיתי.

להלן ההסבר המורחב לדבריו, כפי שהם עולים מראיון שנעשה עם איליה בפודקסט מפורסם ביוטיוב, של כשעה וחצי, לגבי הבעייתיות הנוכחית בקידוד ובבינה מלאכותית בכלל.

כדי לחסוך האזנה ארוכה ומתישה, סיכמתי כאן את הכל! בהרחבה כמובן.

אם אתם בכל זאת רוצים, הנה הראיון המלא:

נושא #1: פרדוקס "Vibe Coding" ולולאת הבאגים

תופעת ה-Vibe Coding מוכרת לכולנו. בקצרה, הדרך לכל אחד מאיתנו ליצור בעזרת פרומפטים והנחיות, ובעזרת עבודה נכונה עם המודלים, תוכנות, אפליקציות ופתרונות שעד לאחרונה היו זמינים רק לבעלי רקע בכתיבת קוד - קרי מתכנתים, מהנדסי תוכנה וכולי.

אני יכול להעיד שזה עובד, זה נהדר וברמה של פיתוח מוצרים פשוטים עד בינוניים, אני מעיד על אחוזי הצלחה גבוהים מאד.

אחד הדברים שבולטים בתהליך פיתוח בסגנון הזה (ובכלל - כל פיתוח שהוא) זה שלב ההתמודדות עם שגיאות.

בשלב הזה, יש צורך לבקש מהמודל (במקרה של Vibe Coding) לעשות בשבילנו את העבודה ולתקן את השגיאות הללו.

מה שקורה בפועל, או במקרים בהם הקוד הולך ומסתבך, מתואר כאן בראיון על ידי סוצקבר.

בראיון עליו מתבסס המאמר הזה, הוא מתאר תופעה מתסכלת שמתרחשת בעבודה עם מודלים נוכחיים:

  • האדם מבקש מהמודל לתקן באג (שגיאה) בקוד.
  • המודל מתנצל ("אוי אלוהים, אתה צודק!") ומתקן את הבאג, אך בתהליך זה הוא יוצר באג חדש במקום אחר (יכול להעיד - קורה!).
  • כשאתה מעיר לו על הבאג השני, הוא מתקן אותו ומחזיר את הבאג הראשון (גם זה קורה לפעמים).
  • המשמעות שצריך להבין מכך: המודל חסר ראייה מערכתית. הוא לא באמת "מבין" את הקוד, אלא פותר בעיות נקודתיות בצורה עיוורת שפוגעת בחלקים אחרים. חוסר היכולת לשמור על עקביות (Reliability) הוא חסם קריטי כשרוצים להגדיל את סדרי הגודל של עבודת הפיתוח במתכונת הנוכחית, לאנשים ללא רקע.

נושא #2 - הקבלה לסטודנט "החורש" מול הסטודנט המוכשר

זכור לי הי-אז בתחילת שנות ה-2000, תקופתי כסטודנט להנדסה באונ' בן גוריון. זכור לי שהיו סביבי אותם סטודנטים סופר 'חרשנים'. אלו שהיו לומדים את כל השאלות למבחן כולל הפתרונות שלהם - בעל פה. מצליחים, בגלל יכולות-על לשנן הכל, ומגיעים למבחן כדי 'להקיא' הכל - ובלחץ מטורף כמובן.

אני אף פעם לא הצלחתי לעמוד בזה. לרוב הייתי מנסה להבין את הדברים וגם זה לא תמיד הצליח :)

אהבתי שבראיון סוצקבר מביא את ההשוואה הזו בין אותם 'חרשנים' ל'מנסים להבין' בהקבלה לדרך שבה מכשירים (או בז'רגון 'מאמנים') את מודלי ה-AI.

כך הוא מקביל את זה וכמובן שמתרכז בעולם התכנות התחרותי (כי מכונות לא קשור עם כל הכבוד):

  • סטודנט א' (המודל הנוכחי): התאמן 10,000 שעות, שינן את כל הטריקים, את כל האלגוריתמים ואת כל הפתרונות האפשריים. הוא יעבור כל מבחן בציונים מעולים כי הוא "ראה הכל".
  • סטודנט ב' (האנושי המוכשר - לדבריו): התאמן רק 100 שעות, אבל יש לו את ה-"It Factor", השימוש בהבנה עמוקה, 'אינטואיציה' ו"טעם טוב" (Taste - כך מכנה זאת.).
  • הבעיה לדבריו: המודלים של היום הם כמו סטודנט א'. הם אולי "על-אנושיים" בפתרון חידות תכנות ספציפיות שעליהן אומנו, אבל כשזורקים אותם למים העמוקים של פרויקט אמיתי שדורש שיקול דעת והכללה (Generalization) למצבים חדשים, הם נכשלים כי חסרה להם ההבנה העמוקה והראייה הרחבה.

נושא #3 - הבעיה בשיטת האימון (Reinforcement Learning)

אימון מודלים נועד לשפר את יכולותיהם. ברמה הכי פשוטה לתפיסה, כדי שמודל ידע להבחין שבתמונה שמולו מופיע חתול, הוא צריך להיחשף למידע רב המכיל בהקשר הזה עד ש'לומד'. בשונה מכך, ילד קטן יקבל פעם אחת את המידע הזה, וזה יספיק לו כדי לזהות שזה 'חתול'.

כדי שמודל כמו Gemini Pro 3, שמתמחה בקוד, ידע לפתור בעיות קוד מורכבות, מאמנים אותו כמו 'חרשן' על בעיות קוד רבות מאד. וזה מביא אותו לרמה גבוהה מאד בתחום הזה.

אבל הוא לא יכול 'לסגל בעצמו' ידע והקשרים מתוך המפגש עם עולם הקוד.

לכן - מסתבר, גם כשהמודל נמצא באינטנראקציה איתנו ולומד, הוא נדרש לכמויות גדולות מאד של דאטה כדי להשתפר. ואפשר לבחון את זה בשימושים היומיומיים שלכם אל מול המודלים..

מה שסוצקבר טוען הוא שהבעיה נובעת מהדרך שבה מאמנים את המודלים כיום:

  • ראשית - מיקוד צר מדי: אימון ב'חיזוקים' (RL) גורם למודלים להיות ממוקדים מדי במטרה הצרה של "לעבור את המבחן". זה הופך אותם ל"צרים" בתפיסתם וחסרי 'מודעות סביבתית'.
  • שנית - 'הנדסת יתר' לצליחת מבחנים: החוקרים האנושיים כל כך רוצים שהמודל יצליח במבחנים (Evals), שהם בוחרים סביבות אימון שמכשירות את המודל ספציפית למבחנים האלו. התוצאה היא מודל שנראה 'גאון' על הנייר, אבל בפועל היכולת שלו להכליל פתרונות למצבים 'אמיתיים' היא "בלתי מספקת באופן דרמטי".

נושא #4 - חוסר ב"למידה מתמשכת" (Continual Learning)

אחד הדברים שהעלה אילייה כאן, ואני מודה שהפתיעו גם אותי הוא עניין ה'חוסר של המודלים בלמידה מתמשכת'.

עד ששמעתי את זה ממנו, הייתי סמוך ב-100%, ואף אמרתי את זה בקול, שהמודלים הללו נמצאים בלמידה סימולטנית מכל האינטראקציות שיש להם איתנו.

אז מסתבר שהדבר נכון חלקית.

כי הדרך שבה לומדים המודלים הללו כרגע לפי אילייה זה דרך 'אימון והכשרה' במסגרת האימון שלהם לפני שמשגרים אותם אלינו, ובזמן שהם באוויר, הם לומדים מהמידע שאנחנו חולקים איתם, כאשר חברה (כמו openai) מעבירה את הדאטה שלנו לאימון המודל. אחרת זה לא קורה.

לטענתו, ואפשר להבחין בכך בקלות, בניגוד לבני אדם, שלומדים תוך כדי עבודה ומשתפרים מניסיון ללא הרף, מודלים כרגע "קפואים" בזמן לאחר האימון.

  • אדם שלומד לנהוג או לתכנת מקבל פידבק מיידי מהסביבה ומתקן את עצמו בזמן אמת.
  • מודלים צריכים כמויות דאטה אסטרונומיות כדי ללמוד משהו שבני אדם לומדים מהר מאוד.

סוצקבר טוען שחסר למודלים רכיב מהותי של למידה והשתפרות עצמית שקיים אצל בני אדם (אולי דרך מנגנון אבולוציוני או מבנה מוחי אחר).

ה"כישלון" אינו שה-AI לא יודע לכתוב קוד, אלא שההכללה (Generalization) שלו שבורה.

הוא מצטיין בחיקוי ובפתרון בעיות מוכרות, אך נכשל בשיפוט, בראייה מערכתית ובהתמודדות עם מצבים חדשים!

מה שמונע ממנו להשפיע על תחום כמו כלכלה לדוגמא בקצב שציפו לו.

מה הפתרון שמציע המדען ?

הגישה של איליה סוצקבר ושל החברה החדשה שלו, SSI-Safe Superintelligence,

נועדה לפתור בדיוק את אותן בעיות של "חוסר אמינות" וקושי בהכללה שתיארנו קודם.

יכול להיות שכל הראיון הזה והתבטאויות נוספות שלו נועדו לשיווק החברה?

יהיה אשר יהיה.

עצם העובדה שהוא חלק ממנגנון הפיתוח של ה-AI וחי את זה מקרוב, גורם לי להאמין לו.

אז הפתרון שלו לא מסתמך רק על "עוד מאותו הדבר" (עוד דאטה ועוד מחשבים), אלא על שינוי גישה בסיסי באופן שבו אנחנו תופסים ומאמנים בינה מלאכותית:

1. המעבר מ"יודע כל" ל"לומד על" (The Super-Learner)

התפיסה הישנה של AGI (בינה מלאכותית כללית) הייתה ליצור מודל שכבר יודע לעשות את כל העבודות בעולם מרגע השקתו. סוצקבר טוען שזו גישה בעייתית עד כדי טעות.

החזון החדש שלו ושל הפתרון שמגיש: ליצור מודל שדומה לנער בן 15 מבריק במיוחד. הוא לא יודע רפואה או תכנות מתקדם כרגע, אבל יש לו את היכולת ללמוד כל מקצוע במהירות על-אנושית.

זהו מודל של 'למידה מתמשכת' (Continual Learning):

במקום מודל קפוא, המערכת תלמד "תוך כדי עבודה". אתה "שוכר" את ה-AI, מכשיר אותו במשך חצי שנה (כמו עובד חדש), והוא הופך למומחה.

ההבדל הוא שאחרי שהוא למד, אפשר לשכפל את המומחיות הזו למיליוני עותקים.

וזה, מסתבר, לא מתאפשר במתכונת הנוכחית של מודלי ה-AI.

2. "פונקציית הערך" (The Value Function) - 'המצפן הפנימי'

כדי לפתור את בעיית הקידוד לדוגמא (שבה המודל מתקן באג אחד ויוצר אחר), המודל צריך שתהיה לו היכולת להעריך את עצמו לפני שהוא מגיש את התשובה הסופית. שזה מטורף כן? מודל עם יכולת כזו - הוא מודל עצמאי.

בהקבלה למשחק השחמט, כפי שמתאר איליה בראיון, שחקן טוב יודע שמהלך הוא "טעות" מיד אחרי שהוא חשב עליו, הוא לא צריך לחכות לסוף המשחק כדי להבין שהפסיד.

אז איך בכל זאת ניצח מודל AI את שחקן השחמט האנושי הטוב ביותר?

אימנו אותי אלפי ועשרות אלפי שעות על משחק השחמט כדי שיהפוך ל'מומחה' בזה. וכך התנהל המודל במהלך המשחק. אם לא היו מאמנים אותו על כך דרך כל הידע שקיבל, הוא לא היה מסוגל לעמוד בניצחון.

בעולם ה-AI, סוצקבר רוצה להטמיע במודלים משהו שמכנה "פונקציית ערך". פונקציה שתאפשר למודל "להרגיש" אם כיוון החשיבה שלו מוביל לפתרון נכון או למבוי סתום. זה ימנע את ה"הזיות" ואת הלולאות האינסופיות של תיקוני באגים שגויים.

3. חזרה ל"עידן המחקר" (The Age of Research)

סוצקבר טוען שהתקופה שבה רק הגדלת כוח המחשוב (Scaling) פתרה הכל נגמרה. כנראה שזו היתה הגישה עד כה כדי להביא את ה-AI למצב נגיש כפי שאנו פוגשים בו כיום.

אך לטענתו של סוטצקבר זה יוצר בעיה.

הבעיה היא שמרוב שהאכילו את המודלים בכמות כל כך גדולה של מידע (דאטה), אז נגמר הדאטה באינטרנט לאימון הזה (Pre-training), והמודלים מיצו את היכולת להשתפר רק דרך קריאת והכלת עוד טקסט או מידע.

זה מטורף בפני עצמו! המודלים זללו הכל, יודעים הכל, אבל כדי לעשות קפיצת מדרגה שהיא לא רק 'ידע' שעומד בפני עצמו אלא יכולת למידה עצמאית (מה שאין להם כרגע לטענתו) - הם צריכים להחליף גישה טכנולוגית. אחרת - המצב של עכשיו נשמר (וזה טוב לנו.. מאיט את קצב הפיתוח קצת. למה לא).

הפתרון של החברה של סוצקבר, SSI:

לא לבנות מוצרים לקהל הרחב עכשיו ולא להשתתף ב"מרוץ העכברים" המסחרי.

במקום זה, להשקיע את כל המשאבים במחקר בסיסי כדי לפצח את ה"קופסה השחורה" של הלמידה וההכללה. הוא מאמין שצריך "מתכון" חדש לגמרי לאימון מודלים, לא רק 'סיר גדול יותר', בהקבלה לעוד ועוד אתרי מחשוב ענקיים ברחבי העולם ועוד כמויות אדירות של דאטה להזנה למודלים.

4. בטיחות דרך "אכפתיות ליצורים תבוניים"

הנקודה המעניינת ביותר אולי, היא הגישה שלו לבטיחות (מה שנקרא בז'רגון 'Alignment'):

במקום לנסות לכתוב ל-AI "חוקים" נוקשים (כמו חוקי הרובוטיקה של אסימוב) שאפשר לעקוף, סוצקבר שואף ליצור AI שבאמת אכפת לו.

הוא רוצה לבסס את הבטיחות על רגש או תכונה עמוקה של "דאגה ליצורים תבוניים" (Sentient Life). ההנחה היא שאם ה-AI יהיה תבוני בעצמו, הוא יוכל להבין אמפתיה (כמו שבני אדם מסוגלים להרגיש אמפתיה לחיות לדוגמא), וזה בסיס יציב יותר לקיום משותף מאשר ניסיון לשלוט בו בכוח.

ופה צריך להדגיש שאילייה מתייחס לעובדה שנכון להיום - החלטות ה-AI אינן מכילות שיקול דעת רגשי לחלוטין. מה זה אומר? שבניגוד לבני האדם, אין אפשרות להשתמש ברגש לקבל החלטה.

במקרים מסוימים זה טוב! כי יש מקומות שבהם החלטות שמונחות משיקולי דעת רגשיים לא נכונים, מביאים להחלטות עקומות...

ברמה של 'כוח על' כמו ה-AI, נדרשים למשנה זהירות.

כי אם אין יכולת הבחנה תבונית-רגשית למודלים כאלו הם יכולים להיות קיצוניים.

וזה קורה כרגע. לא מעט מקרי התאבדות שנגרמו בעקבות מערכות יחסים עם AI, החלטות שגויות ברמת הפרט, שימוש מסוכן במודלים שכרגע אינם 'אחראיים' לכך כי הם פועלים באופן סטטיסטי לחלוטין!

כל הסיפור שלהם הוא 'היכולת לבחור את המילה הסטטיסטית הנכונה הבאה'. והם משפרים את יכולת זו על ידי אימון טכני בלבד.

לכן איליה מעלה את זה כנקודת תורפה משמעותית שדורשת התייחסות.

אפשר לומר אם כן, שהפתרון של איליה הוא לא לנסות לתקן את המודלים של היום בטלאים, כפי שלטענתו קורה עקב התחרות הגוברת והניסיון להוביל את השוק, אלא לבנות מערכת שיודעת ללמוד כמו אדם (בצורה יעילה, מהירה ומתמשכת) ושיש לה מצפן פנימי (פונקציית ערך) שמונע ממנה לעשות טעויות לוגיות גסות.

הוא מהמר שמי שיפצח את זה, יגיע ל'בינת-על' (Superintelligence) אמיתית, ולא רק ל"צ'אט-בוט משוכלל" כמו שזמין לנו כעת.

המפתחים כיום לא בונים "מוחות", הם בונים "קביים".

זה מעניין. מה שהוא אומר כאן, לא?.

אז מה בעצם עושים כל מפתחי הסוכנים והכלים?

האם הם בעצם משתמשים ביכולות מוגבלות, חזקות מאד, אבל בכל פעם שיוצא מודל חדש הוא טוב במה שאימנו אותו עליו בלבד?

בואו נרחיב על כך..

אם נתרגם את מה שאיליה אומר למציאות של אלפי המפתחים, הסטארטאפים ובוני ה"סוכנים" (Agents) שפועלים היום, המסקנה היא כזו:

1. מה באמת עושים מפתחי הסוכנים? (הנדסת מעקפים)

מכיוון שהמודל הוא כמו אותו "סטודנט חורש" שאין לו באמת היגיון עמוק או יכולת למידה בזמן אמת, המפתחים בונים סביבו 'מערכות תומכות' כדי להחזיק אותו 'על הפסים'.

דרך אגב, הרחבתי על 'סוכני AI' במאמר הזה >

חשיבה הדרגתית - שרשרת פעולות:

הם לא סומכים על המודל שיחשוב לבד מ-א' עד ת'. הם מפרקים לו את המשימה לשלבים (קוראים לזה chains או שרשראות בשפת הקודש): "קודם תעשה סיכום, עכשיו תבדוק אם הסיכום נכון, עכשיו תפרמט אותו". זו "האכלה בכפית".

ודרך אגב, אני יכול להעיד שכשאני בונה או יוצר עם AI, יהיה אשר יהיה הדבר, גם אני עדיין בוחר לעבוד בשלבים. אין את היכולת לתת הנחייה מלאה וארוכה ולצפות לקבל תוצר מוגמר מלא כשמדובר במשימות מורכבות. אבל בשלבים, מגיעים לתוצר הרצוי. בהחלט. זה דורש עבודה 'אנושית'. זה נכון. אבל זה המצב כרגע, וזה עדיין הרבה יותר יעיל/מהיר מהעבודה האנושית התלויה שהיתה עד עכשיו.

RAG (שליפת מידע):

בקצרה, RAG (מבלי להיכנס ל'תרגום ישיר') זה מאגר הידע שאנחנו או מאמני מודל נותנים למודל כמידע לייחוס. אם תנסו ליצור לעצמכם בוט AI שמבוסס על המודל המתקדם ביותר שיש היום, דרך API לדוגמא, תופתעו לגלות שעד שאין לו מאגר ידע לייחוס, הוא 'גאון טיפש'.

על כל שאלה שתשאלו הוא יענה לכם בהזיות או בתשובה 'אני מודל שפה שפותח על ידי גוגל' לדוגמא.

ברגע שהוא יקבל מידע, תוכן, הנחיות וכל השאר, הוא יעבוד! ויעבוד טוב.

את זה אני כבר אומר מניסיון ישיר של עבודה כזו. בניתי לעצמי בוט שכזה, ובהתחלה הופעתי שהוא אשכרה לא יודע או זוכר דבר אלא אם אני מנחה אותו לכך ! ויוצר לו את האפשרות לכך...

מה זה אומר בהקשר של האימון והמודלים לפי מה שאיליה מתאר כאן?

זה אומר שהמודל לא זוכר הכל ולא לומד!

לכן "מזריקים" לו את המידע הרלוונטי לתוך הזיכרון לטווח קצר (Context Window) בכל פעם מחדש.

ורק אז הוא 'מתפקד' כפי שאנחנו פוגשים אותו בצ'טים והבוטים שלנו.

הוספת "שופטים":

נכון להיום, בונים מערכת שבה מודל אחד כותב קוד, ומודל שני (או סקריפט רגיל) בודק אותו. למה? כי המודל הראשון לא אמין מספיק ("Vibe Coding" - זה בדיוק זה).

במילים פשוטות, התעשייה כרגע עסוקה בלבנות "חליפות לחץ" סביב המודלים כדי שהם יוכלו לתפקד בלי ליפול, כי הליבה שלהם (המוח) עדיין שברירית.

2. האם כל מודל חדש הוא רק "משנן טוב יותר"?

לפי התזה של איליה התשובה היא "כן, במידה רבה."

כשיוצא מודל חדש (נניח GPT-5 או Claude 4.5), הוא נראה חכם יותר בעיקר בגלל שתי סיבות:

  1. הוא ראה יותר דוגמאות: הוא "שינן" חלק גדול יותר מהאינטרנט. אם הוא נתקל בבעיה דומה למה שהוא ראה באימון, הוא יפתור אותה מושלם.
  2. הוא אומן להיות צייתן יותר: לימדו אותו טוב יותר איך לענות בצורה 'משביעה רצון', אבל זה לא אומר שהוא "מבין" יותר, אלא שהוא יודע לחקות טוב יותר את מה שבני אדם רוצים לשמוע.

הבעיה שאיליה מזהה היא חוק התפוקה השולית הפוחתת. אי אפשר להמשיך להאכיל את המודל בכל הדאטה בעולם לנצח, כי הדאטה נגמר, וכי זה לא פותר את בעיית ה"היגיון החדש" במצבים שלא נראו מעולם.

זו יכולת שלהערכתי יהיה קשה מאד לחקות בלבד. כי כל עוד מבססים את הטכנולוגיה אך ורק על 'הידע שהיה', גם אם הוא עד לשבריר השניה הנוכחי, הוא לא הידע ש'קיים'. מה שנקרא בשפת האדם 'רגע זה'.

שלא חזר על עצמו אף פעם !

3. למה "סוכנים אוטונומיים" נכשלים כרגע?

מסתבר אגב, שזו הסיבה שרוב סוכני ה-AI מרשימים ב'דמו', אבל נתקעים בעבודה אמיתית מורכבת:

ברגע שהם סוטים מהמסלול המוכר (כמו ב'דוגמת הבאג' של איליה), אין להם "מצפן פנימי" (Value Function) שיגיד להם "רגע, אני עושה שטויות".

מוכר ומניסיון, אני מאשר זאת.

הם יכולים להיכנס ללופ של טעויות, לתקן שגיאה אחת וליצור אחרת, כי הם חסרים את הראייה הכוללת.

הם לא לומדים תוך כדי תנועה.

אם סוכן נכשל במשימה בבוקר, הוא יבצע את אותה טעות בדיוק בערב, אלא אם המפתח האנושי ישנה את הקוד שעוטף אותו.

וזו מגבלה שיש לאנשים כמונו (אלו שבאים ללא רקע בקוד) שמדגישה את הזהירות בעבודה שכזו כדי ליצור מוצרים יציבים ואיכותיים..

אז למה זה עדיין שווה מיליארדים?

איך זה שעל אף המצב הזה, כל המוצרים הללו הפכו ל'מילה הנוכחית', התחרות הזו הפכה לעניין הכי גדול באנושות, ולתעשייה של מיליארדים וטריליארדים של כסף ?

איליה לא מזלזל בערך הכלכלי של המודלים הנוכחיים.

גם "מחשבון על סטרואידים" שיודע לחקות טקסט וקוד ברמה גבוהה הוא כלי עבודה מדהים שחוסך המון זמן. הוא פשוט טוען שזה לא הנתיב שיוביל לבינת-על אמיתית (ASI).

ואם לכך שואפים, חשוב להתייחס לדבריו של המדען.

בשורה התחתונה, התעשייה כרגע נמצאת בשלב של "סחיטת הלימון"!

מנסים להוציא את המקסימום מהטכנולוגיה הקיימת (שמסתבר לנו עכשיו עד כמה היא מוגבלת) באמצעות הנדסה 'מתוחכמת'.

מה שהוא בא ואומר זה ש"הלימון הזה תיכף נגמר. ולכן אני הולך לטעת פרדס מסוג חדש לגמרי".

אם אפשר להכניס כאן משהו מניסיון ישיר שלי בעבודה עם המודלים הללו ב-3 השנים האחרונות..

אפשר ליצור לא מעט עם המודלים כרגע. אולי לא 'הדנסת תוכנה מלאה' כמו מהנדס מומחה, אבל עדיין מרחב די גדול נפתח לכולם. . .

ועם זאת, יש כאן הבחנה קריטית בין "הצלחה מדעית" (מה שאיליה מחפש) לבין "הצלחה מוצרית/כלכלית" (מה שאתם ואני חווים).

העובדה שאיליה מאוכזב מכך שהמודל הוא לא "מהנדס בכיר אמין", לא סותרת את העובדה שהמודל הוא "מתמחה זוטר מדהים" אשר משנה את כללי המשחק עבור כולנו.

זה עדיין אומר שלמרות הכל, נפתח בפנינו מרחב עצום של אפשרויות שהיו עד כה סגורות בפני מעטים בלבד - החל מהאפשרות ליצור כל תמונה בצורה סופר מקצועית, דרך וידאו, מוזיקה או קוד...

הנה הסיבות לכך שהמרחב שנפתח הוא באמת עצום, למרות המגבלות:

1. כוחו של ה-80/20 (עיקרון פארטו)

רוב המשימות בעולם התוכנה והיצירה הן לא "מדע טילים".

במה מדובר כבר?

לבנות דף נחיתה?

לכתוב סקריפט אוטומציה בפייתון?

להרים אפליקציה פשוטה לניהול משימות?

לתרגם קוד משפה לשפה?

בשביל כל הדברים האלה, אף אחד לא צריך "בינת-על".

צריך מישהו שיעשה את העבודה השחורה מהר.

המודלים הנוכחיים נותנים לנו 80% מהתוצאה ב-1% מהזמן.

זה מכפיל הכוח המטורף, גם אם את ה-20% האחרונים האדם (או כמו שאני קורא לו ה'ארכיטקט') צריך לתקן לבד.

2. האדם הוא ה-"Value Function"

איליה הציף את העובדה שלמודל אין "מצפן פנימי" ולכן הוא נכנס ללופים במקרה של קוד, או נותן תשובות מסוכנות במקרים אחרים, שיכולים להשפיע על בני אדם לבצע פעולות במציאות, גם אם לא חשבו שצריך לבצען.

אבל כשאתם משתמשים במודל, המצפן הוא אתם! האחריות היא עליכם!

אם נתמקד בעולם הקוד החם מאד,

התהליך הוא:המודל כותב קוד-> אנחנו מריצים אותו -> מקבלים תמונת מצב -> אם יש שגיאה -> מחזירים לו לתקן.

בגלל ש'האדם בתמונה' (Human in the loop), הוא ה'מגשר' על הפער בין מה שהמודל יכול לראות (הקוד) לבין התוצרים במציאות (אנחנו)..

השילוב של אדם + AI 'מוגבל' הוא כרגע הרבה יותר חזק מכל אחד מהם בנפרד.

זה מה שמאפשר לאדם אחד לעשות עבודה של צוות שלם.

3. דמוקרטיזציה של יצירה (The "Non-Coder" Revolution)

המרחב הכי גדול שנפתח הוא לא ל'מתכנתים המומחים', אלא לאנשים כמוני כמוכם, שהיה להם רעיון אבל אפס יכולת ביצוע.

פעם, אם היה לך רעיון לאפליקציה ולא ידעת לקודד, היית צריך שותף טכני או 50,000 דולר.

היום, המודלים (עם כל המגבלות שלהם) מספיק טובים כדי לאפשר לך לבנות את ה-MVP (מוצר ראשוני) לבד.

זה משחרר כמות אדירה של יצירתיות לשוק שהייתה חסומה קודם.

מאז שזה נפתח בפניי, אני יכול להעיד שבניתי לעצמי עשרות כלים! עשרות פתרונות. דברים שלא חלמתי עליהם עד כה..

החל מסקריפטים פשוטים למניפולציות על טבלאות אקסל, או יצירת מסמכים, ועד לאפליקציות מלאות שעובדות על הנייד שלי ללא תשלום (!!!) או כלים מקצועיים שמאפשרים לי לנתח מידע בדרך הנכונה עבורי.

אגב, את זה אני מלמד בסדנת ארכיטקט הנתונים (אם מעניין אותך).

4. ה-"Vibe Coding" הזה מספיק טוב לרוב הדברים

איליה משתמש במונח "Vibe Coding" כביקורת (חוסר דיוק), ואני חייב להצטרף אליו בהקשר הזה כי אני ממש לא מתחבר למונח ולדרך השיווקית שבה רבים משתמשים בו...

בפועל, בלי קשר למונח הזה ולהשלכותיו, כקונספט זה עובד.

אפשר להנחות סוכן AI לכתיבת קוד לעשות בשבילנו עבודה מהסוג הזה, הוא יעשה אותה, נעבור איתו תהליך ובסופו של דבר נצא עם מוצר עובד. בדוק !

אם הקוד "מרגיש נכון" ועובד ב-99% מהמקרים עבור כלי פנימי או פרויקט צד, זה מעולה.

אנחנו לא בונים את מערכת הבטיחות של כור גרעיני עם Gemini Pro 3 עכשיו, אנחנו בונים אתרים וכלים יומיומיים.

שם, המרווח לטעות הוא נסבל.

שם האפשרויות - כמעט ואינן נגמרות !

אז מה עושים עם כל התובנות הללו ?

אני מאד מתחבר לדבריו של איליה סוצקבר (ישראלי אגב), ואני חושב ששאיפותיו נכונות ורלוונטיות להתפתחות הטכנולוגיה. אני מאמין שיצלחו גם את האתגר הזה, ואנו נפגוש את אותם כלים אימתניים ומלאכותיים שמתפקדים כמעט כמו בני אדם.

מה שכן, לפחות עד להודעה חדשה, אפשר לקחת איזשהי 'זריקת הרגעה' מהתייחסותו למצב הקיים!

אם עד לאחרונה היינו חרדים ובטוחים שתוך רגע ה-AI מחליף את כולנו, אנחנו מבינים שעוד יש זמן.

זה אומר שהזמן הנוכחי דורש מאיתנו להתחבר לקיים. לאפשר ל-AI במתכונתו הנוכחית להיות חלק מחיינו הפרטיים, עסקיים, מקצועיים וכולי, אבל לא להניח עליו את כל מרצינו ואמוננו.

כי זה עדיין, מודל סטטיסטי. גאון, יכול לעשות כל מה שלימדו אותו לעשות בצורה הרבה יותר טובה ממני (לצורך העניין) ומרבים אחרים, אבל עדיין - מוגבל.

והמגבלה הזו, היא חדשות טובות לבני אדם שעדיין לא הבינו את הערך האמיתי שלהם כבני אדם.

אתם לא נמדדים מול מכונה, או מול בינה מיוחדת כל כך.

אתם בעצם לא נמדדים בכלל!

יש בכם, כבני אדם, יכולות (כפי שאיליה הדגיש פה) שעולות בעשרות מונים על המכונה וככל הנראה לעולם ישארו בהיררכיה הזו.

קשה לי לראות את ה-AI הופך ליישות שחיה את 'רגע זה'. זה משהו אבולוציוני הומאני (ששייך לבני האדם).

זה שרוב אוכלוסיית העולם אינה 'חיה את רגע זה', כי אינה מודעת לכך, וחיה את העבר (אירועים, טראומות, מלחמות, דעות קדומות וכן לאמור) , או את 'העתיד לבוא' שלא קיים - מה יהיה איתי, עם הכסף, עם העולם, עם הבית, עם הילדים, וכולי, זה כבר עניין בפני עצמו.

ואולי זו הזדמנות לפתוח דלתות בפני כל אחד:

  1. להיכנס לעולם המתקדם של ה-AI, וליצור פתרונות באופן עצמאי. מסתבר שזה לא 'מדע טילים', זה אפשרי ואני יכול להעיד שזה אפילו כדאי !
  2. לא 'ליפול' בכל הפרסומים היומיומיים על עוד 'כלי AI' ועל כך שזה רץ מהר מדי, וש'לא כדאי להישאר מאחור'. . אפילו אני כבר הורדתי את זה מהנרטיב. די. עייפנו :) אפשר. עכשיו. וגם עכשיו. וגם עכשיו.
  3. לקחת אחריות אמיתית על החיים, ולממש את זכותכם כבני אדם - להיות בני אדם. פשוט. לחיות את רגע זה. לא את העבר, לא את העתיד. את עכשיו. ולפעול באופן בוגר ואחראי, מתוך ידיעה פנימית ומצפן פנימי פעיל, לא מאיפולסיביות, גזענות, דעות קדומות, פוליטיקה או כל היבט אחר. פשוט. אדם.

מאחל הצלחה בדרככם המיוחדת.

בטוח ב-100% שהמילים הללו חדרו אתכם.

אם אתם צריכים יעוץ או עזרה בתחום פיתוח כלים, הטמעת ה-AI בעסק שלכם, חניכה אישית או כל דבר אחר, אפשר לפנות אלי בווטסאפ (הכפתור הצף בצד ימין), או ישירות במייל / בטלפון (נמצא למטה בתחתית העמוד).

אשמח לשמוע כל התייחסות.

רני