האם הבינה המלאכותית מסכנת את קיום האנושות? ג'פרי הינטון מעלה את רף האזהרה
בראיון מטלטל שהתקיים לאחרונה, פרופסור ג'פרי הינטון, חתן פרס נובל לפיזיקה וממובילי מהפכת הבינה המלאכותית העולמית, העלה את הערכת הסיכון להכחדת האנושות על ידי AI ל-20%. הערכה זו מהווה עלייה משמעותית מהערכתו הקודמת שעמדה על 10% בלבד.
למה דווקא עכשיו? התפתחות מהירה מהצפוי
"קצב ההתפתחות מהיר מאוד, הרבה יותר ממה שציפיתי", מסביר הינטון בראיון ל-BBC Radio 4. לדבריו, רוב המומחים בתחום מעריכים שתוך כ-20 שנה נפתח מערכות AI חכמות יותר מבני אדם – מחשבה שהוא מגדיר כ"מפחידה מאוד".
השוואה מטרידה: בני אדם כפעוטות מול AI מתקדם
הפרופסור הבריטי-קנדי מציג השוואה מעניינת: "דמיינו את עצמכם מול ילד בן שלוש. אנחנו נהיה הילדים בני השלוש", הוא אומר בהתייחסו ליחסי הכוחות העתידיים בין בני אדם למערכות AI מתקדמות. הוא מוסיף שאלה רטורית מטרידה: "כמה דוגמאות אתם מכירים שבהן דבר פחות אינטליגנטי שולט בדבר אינטליגנטי יותר?"
קריאה לרגולציה ממשלתית
הינטון מזהיר כי אין להשאיר את פיתוח ה-AI רק בידי חברות מסחריות המונעות משיקולי רווח. "היד הנעלמה של השוק לא תשמור עלינו", הוא קובע נחרצות. "רק רגולציה ממשלתית יכולה לאלץ את החברות הגדולות לערוך יותר מחקרי בטיחות."
מחלוקת בקהילה המדעית
חשוב לציין כי לא כל המומחים מסכימים עם תחזיותיו של הינטון. יאן לקון, מדען ה-AI הראשי במטא (פייסבוק לשעבר) ואחד משלושת "אבות ה-AI", טוען שבינה מלאכותית דווקא "עשויה להציל את האנושות מהכחדה".
מה אפשר לעשות?
צעדים מומלצים להתמודדות עם האתגר:
- •פיתוח מושכל – תמיכה במחקר ופיתוח אחראי של בינה מלאכותית
- •רגולציה מתאימה – קידום חקיקה ופיקוח ממשלתי על פיתוח AI
- •שיתוף פעולה גלובלי – יצירת סטנדרטים בינלאומיים לפיתוח בטוח של AI
- •מודעות ציבורית – העלאת המודעות לסיכונים ולאתגרים שמציב פיתוח AI
נכון להיום, השאלה אינה האם בינה מלאכותית תשפיע על עתידנו, אלא כיצד נוכל להבטיח שהשפעה זו תהיה חיובית ובטוחה עבור האנושות. האזהרות של מומחים כמו פרופסור הינטון מדגישות את הצורך הדחוף בפיתוח אחראי ומפוקח של טכנולוגיות AI.
ועד שהרשויות יקחו אחריות,זה המקום של כל אחת ואחד מאיתנו לעשות כך בעצמנו!



