יום רביעי 23 יולי , 2025 04:44

הבינה המלאכותית הכללית: האתגר הבא לביטחון הלאומי האמריקאי

הבינה המלאכותית הכללית, הבית הלבן והיועץ לביטחון לאומי

הבינה המלאכותית הכללית (AGI) נחשבת לענף של הבינה המלאכותית התאורטית (AI), והיא שואפת לפתח רמה אנושית של תפקוד קוגניטיבי, כולל היכולת ללמידה עצמית. מטרתה היא ליצור תוכנה שתוכל לבצע משימות שלא בהכרח הוכשרה או פותחה במיוחד עבורן.

מאמר שפורסם במגזין Foreign Affairs, ותורגם על ידי אתר "אל ח'נאדק", מציין כי לעיתים קרובות מופתעים מקבלי ההחלטות בתחום הביטחון הלאומי מהתפתחויות גיאופוליטיות בלתי צפויות – למרות קיומם של סימנים מקדימים. המאמר מדגיש כי ההתקדמות המהירה בבינה המלאכותית והאפשרות להופעת AGI מהווים אתגר חסר תקדים לקובעי המדיניות, ודורשים היערכות מוקדמת ואסטרטגיות גמישות.

המאמר מדגיש כי AGI לא תופיע ברגע דרמטי וברור כמו נשק גרעיני, אלא תתפתח בהדרגה בסביבה מורכבת שבה מתחרות ארצות הברית וסין, ושבה חברות פרטיות מחזיקות בטכנולוגיה. בהקשר זה, על המתכננים האמריקאים להיערך לתרחישים בלתי שגרתיים שעשויים לעצב מחדש את המפה הגיאופוליטית.

המאמר דן בתרחישים כגון הכרזה של חברה אמריקאית או סינית על פריצת דרך ב-AGI, ומה שעלול לנבוע מכך – כולל החלטות רגישות בנוגע לביטחון הלאומי, כמו סיווג החברות הללו כ"נכסים ביטחוניים". הוא גם מזהיר מפני ניצול AGI לביצוע מתקפות סייבר הרסניות או לפיתוח נשק ביולוגי קטלני.

לטענת המאמר, ממשלות אינן מחזיקות כיום בכלים מספקים להערכת איומים אלה או למענה מהיר להם. לפיכך נדרשת בנייה של שותפויות חזקות יותר בין המגזר הציבורי לפרטי, עדכון פרוטוקולי אבטחת הסייבר, ופיתוח תוכניות תגובה גמישות למצבי חירום. בנוסף, יש לעודד תיאום בינלאומי ולשמר ערוצי תקשורת פתוחים עם יריבים כדי למנוע הסלמה לא מכוונת.

לסיכום, המאמר קובע שתכנון תרחישים הקשורים לבינה המלאכותית הכללית אינו מותרות או מדע בדיוני – אלא צורך אסטרטגי בעולם רב-קוטבי ומהיר שינוי. בהיעדר תכנון שכזה, יהפכו אסטרטגיות הביטחון הלאומי הנוכחיות לבלתי רלוונטיות בעידן שבו מהות הכוח והאיום משתנים מן היסוד.

הטקסט המתורגם מהמאמר:

על אמריקה להניח את הגרוע ביותר בנוגע לבינה המלאכותית
כיצד לתכנן משבר גיאופוליטי מונע טכנולוגיה

לעיתים נדירות יש למקבלי ההחלטות בביטחון הלאומי את הפריבילגיה לבחור במה להתמקד ועד כמה. לרוב הם פועלים תחת אילוצים שמחוץ לשליטתם. מתקפות ה-11 בספטמבר ביטלו את תוכנית ממשל ג'ורג' וו. בוש לצמצם את מעורבותה הגלובלית של ארה"ב; המהפכות בעולם הערבי אילצו את הנשיא ברק אובמה לשוב למזרח התיכון בזמן שניסה לסגת ממנו; והפלישה הרוסית לאוקראינה טרפה את יעד ממשל ביידן לבסס יחסים "יציבים וניתנים לחיזוי" עם מוסקבה כדי להתמקד בתחרות האסטרטגית עם סין.

למרות שמקבלי המדיניות הצליחו לחזות רבות מהמגמות שהובילו לאירועים מכוננים אלו, הם לרוב נכשלו בתכנון התגובה לאתגרים הקשים שנבעו מהן, ונאלצו לבנות מחדש את אסטרטגיותיהם בתגובה להתפתחויות מהירות.

ההתקדמות המהירה בבינה המלאכותית – והאפשרות להופעת בינה מלאכותית כללית (AGI) – מבטיחות אתגרים גדולים אף יותר. הסימנים לשינוי מהותי קרב מופיעים בכל מקום. בייג'ינג וושינגטון הגדירו את ההובלה בתחום הבינה המלאכותית כיעד אסטרטגי, וחברות אמריקאיות וסיניות מתחרות זו בזו להגיע ל-AGI. התקשורת מלאה בהכרזות כמעט יומיומיות על פריצות דרך טכנולוגיות, דיונים על אובדן משרות עקב בינה מלאכותית, וחששות מפני אסונות עולמיים – כמו יצירת מגפה קטלנית בעזרת AI.

לא ניתן לדעת באיזה מסלול תתפתח הבינה המלאכותית או כיצד תשפיע באופן מדויק על הביטחון הלאומי. לכן, על מקבלי ההחלטות לגשת אל האסטרטגיות השונות בענווה ובזהירות. בין אם אנו אופטימיים או פסימיים לגבי עתיד הבינה המלאכותית – מנהיגי הביטחון הלאומי חייבים להכין את אסטרטגיותיהם כך שיוכלו להסתגל למצבים שיתפתחו במהירות – אולי אף בתוך כהונת הנשיא הנוכחי.

וושינגטון חייבת להיערך לבחירות פוליטיות קשות ולשינויים גיאופוליטיים פוטנציאליים, ולזהות צעדים מעשיים שניתן לנקוט כבר היום לצמצום סיכונים וחיזוק התחרותיות האמריקאית. רעיונות שנראים כיום בלתי ישימים או מיותרים, עשויים להיראות דחופים וברורים מאליהם – בדיעבד.

לחשוב מחוץ לקופסה

אין הגדרה מוסכמת אחת לבינה מלאכותית כללית (AGI), ולא קיים קונצנזוס לגבי אפשרות הופעתה, עיתויה או האופן שבו תופיע. המודלים המובילים כיום ב-AI מסוגלים לבצע מספר הולך וגדל של משימות קוגניטיביות, לעיתים בצורה טובה יותר ממומחים אנושיים. מאז השקת ChatGPT ב-2022, התחזקה יכולת הבינה המלאכותית באופן משמעותי, ויש להניח שמודלים אלו יהפכו לעוצמתיים, עצמאיים ונפוצים אף יותר בשנים הקרובות.

עם זאת, לא סביר שעידן ה-AGI יוכרז באירוע דרמטי בודד, בדומה לניסוי הגרעיני הראשון בעידן האטום. גם התנאים הכלכליים והטכנולוגיים אינם מיטיבים עם המתכננים האמריקאים כפי שהיה בעבר. בעידן הגרעין, למשל, שלטה ממשלת ארה"ב בטכנולוגיה, והייתה לה תקופת חסד של שני עשורים לפתח מדיניות לפני שהופיעה מעצמה גרעינית יריבה. כיום, לעומת זאת, למתכננים יש פחות זמן ופחות שליטה. סין כבר משתווה למדינות מתקדמות בתחום הטכנולוגי, ואת הפיתוח מובילות קומץ חברות פרטיות. הבינה המלאכותית, כטכנולוגיה רב-תכליתית, חודרת כמעט לכל תחום בכלכלה ובחברה.

בסביבה זו, מהירה ובלתי צפויה, על מנהיגי הביטחון הלאומי להקדיש את משאבי התכנון הדלים לאירועים לא ודאיים – אך קריטיים. מדובר לא רק בשיבוש הסדר הקיים, אלא באינדיקציות לעתיד חלופי.

נניח שחברה אמריקאית טוענת לפריצת דרך מהפכנית ב-AGI. על המנהיגים להחליט כיצד תגיב ממשלת ארה"ב אם תבקש החברה להיות מסווגת כ"נכס לביטחון לאומי". סיווג כזה יקנה לה סיוע ממשלתי, אבטחה מוגברת, גישה לנתונים רגישים ולשבבים מתקדמים, ופחות רגולציה. לחלופין, ייתכן שחברה סינית תכריז על פיתוח AGI לפני כל מתחרה אמריקאית.

במקרים כאלה, קובעי המדיניות יצטרכו לאזן בין הערכות מנוגדות – מה שיוביל להחלטות שונות באשר למידת הסיכון שיש לקבל ועל מה יש לשים דגש. ללא יכולת ניתוח עצמאית וחזקה, תתקשה ממשלת ארה"ב להבחין אם טענות החברות אמינות. על מנהיגי הביטחון הלאומי גם לבחון אם פריצת דרך טכנולוגית תעניק לסין יתרון אסטרטגי – לדוגמה, אם תאפשר לה לאתר ולנצל חולשות בתשתיות אמריקאיות לפני שהגנות סייבר יוכלו לתקן אותן. תרחיש כזה עשוי להוביל לצעדים מסוכנים כמו ניסיונות לעכב או לחבל בהתקדמות הסינית – דבר שיגביר את הסיכון להסלמה גיאופוליטית. מצד שני, אם הדאגה הגדולה יותר היא שהטכנולוגיה תיפול לידיים לא מדינתיות – כמו קבוצות טרור – ייתכן שהעדיפות תהיה לשיתוף פעולה עם סין למניעת איום עולמי גדול יותר.

היערכות לתרחישי AGI דורשת הבנה מעמיקה של מערך ה-AI – מקומית ובינלאומית. על הממשלה לעקוב אחר מגמות הפיתוח כדי לזהות נקודות קריטיות להתקדמות טכנולוגית. כך ניתן יהיה לצמצם הפתעות אסטרטגיות ולהנחות את המדיניות לזיהוי צווארי בקבוק ונקודות תורפה שניתן לנצל כדי להאט את סין.

כמו כן, על קובעי המדיניות לבחון אפיקים לשיתוף פעולה עם המגזר הפרטי ומדינות אחרות. שותפות יעילה, גמישה ודו-כיוונית בין ממשלה לתעשייה חיונית להתמודדות אסטרטגית עם אתגרי AI – במיוחד בעידן AGI. חוסר אמון הדדי עלול לשבש את התגובה למקרי חירום. במקביל, יש לגבש מדיניות לשיתוף מידע רגיש בנוגע להתפתחויות ב-AI עם שותפים ובעלות ברית. ללא מדיניות כזו, קשה יהיה לבנות את הבריתות הבינלאומיות הנחוצות לניהול משברים, הפחתת סיכונים עולמיים והחזקת מדינות וחברות באחריות להתנהגות חסרת אחריות.

מודיעין עוין

הבינה המלאכותית הכללית (AGI) לא רק תסבך את הדינמיקה הגיאופוליטית הקיימת, אלא גם תיצור אתגרים ביטחוניים לאומיים מסוג חדש. דמיינו מתקפת סייבר חסרת תקדים המופעלת על ידי AI, שגורמת להרס במוסדות פיננסיים, חברות פרטיות ורשויות ממשלתיות – ואף משבשת מערכות פיזיות החל מתשתיות חיוניות ועד רובוטים תעשייתיים. בעולם של היום, זיהוי הגורם האחראי למלחמת סייבר הוא משימה מורכבת ואיטית. שחקנים מדינתיים ולא מדינתיים רבים מחזיקים את היכולות והמניעים לשיבוש. אולם בעולם של AI מתקדם, האתגר יגדל פי כמה. קובעי המדיניות יצטרכו לשקול לא רק אם אירוע כזה הוא פתיחה למערכה צבאית – אלא גם אם ייתכן שמדובר בסוכן AI עצמאי שמסוגל לשכפל את עצמו.

תכנון לתרחיש כזה דורש הערכת היכולות של היום להתמודדות עם איומי המחר. ממשלות אינן יכולות להסתמך על הכלים הקיימים לאבחון איומים במהירות ובביטחון – לא כל שכן להגיב בצורה נכונה. יכולות ההטעיה וההסוואה של מערכות AI מתקדמות עלולות למנוע מהמערכות הקיימות להבחין אם סוכן AI פועל בעצמו או בשליחות יריב. לכן, המתכננים צריכים לפתח דרכים חדשות להבנת מניעיו ולפיתוח אמצעי הרתעה נגד הסלמה.

היערכות לתרחישים הקיצוניים דורשת בחינה מחודשת של פעולות שאינן תלויות במקור ההתקפה – כגון חיזוק הגנות סייבר, בידוד מרכזי נתונים בסיכון, ומניעת שיבוש של רחפנים או כלי רכב מקוונים. יש להעריך מחדש את תקפותם של פרוטוקולים צבאיים ונהלי המשכיות הפעולה מול איומי AI עוין. חוסר אמון ציבורי כלפי הממשלה וחברות טכנולוגיה יקשה להרגיע אוכלוסייה מודאגת מול הפצת מידע כוזב בעזרת AI. לאור העובדה ש-AI עצמאי כנראה לא יכבד גבולות לאומיים, ההיערכות תדרוש פתיחת ערוצי תקשורת עם שותפים ויריבים כאחד – לתיאום תגובה בינלאומית.

אופן האבחון של מנהיגים כלפי תוצאות אפשריות של איום מתקרב ישפיע על תגובתם. במקרה של מתקפת סייבר, יאלצו קובעי המדיניות להחליט האם לבצע ניתוקים ממוקדים של מערכות פגיעות ומרכזי מידע, או – מתוך חשש להעתקה מהירה – להשבית מערכות באופן נרחב, דבר שעשוי למנוע הסלמה אך ישבש את הכלכלה הדיגיטלית והתשתיות שעליהן היא נשענת. תרחיש של אובדן שליטה מדגיש את הצורך בקביעת סמכויות משפטיות ברורות והכנת תוכניות תגובה למקרי חירום. בהרחבה, הוא מדגיש את הצורך הדחוף במדיניות ובאסטרטגיה טכנולוגית שתתמודד עם הנטייה של מודלים מתקדמים לסטות מהתנהגות רצויה.

לפחות, על ההיערכות לכלול ארבעה סוגי פעולות:

1)קביעת צעדים "ללא חרטה" – פעולות שניתן לנקוט כיום ללא סיכון גבוה, מתוך עמדה של עוצמה.

2)יצירת מדריכי תגובה פרואקטיביים למצבי חירום עתידיים – הניתנים לעדכון ככל שיתגלו איומים או הזדמנויות חדשות.

3)השקעה ביכולות שקריטיות למגוון תרחישים.

4)תעדוף סימנים מוקדמים לאיומים אסטרטגיים – ויצירת תנאים לתיקון מסלול מהיר.

אין מקום להרגלים ישנים

יש להתחיל בתכנון השפעות הבינה המלאכותית הכללית (AGI) על הביטחון הלאומי – עכשיו. בעולם המאופיין בתחרות גוברת ונפיצות, ובסביבה פנימית שברירית כלכלית ומקוטבת פוליטית, אסור לארצות הברית להיות מופתעת.

למרות שהבינה המלאכותית עשויה בסופו של דבר להתברר כ"טכנולוגיה רגילה" – כמו האינטרנט או החשמל, שמביאות לשינויים גדולים אך מתפשטות בקצב טבעי וניתנות לניהול ממשלתי וחברתי – יהיה זה טיפשי להניח שההיערכות להפרעה עמוקה תתברר כשגויה. תכנון לתרחישים קשים במיוחד מסייע למנהיגים לזהות נושאים אסטרטגיים מרכזיים ולבנות כלים שיהיו שימושיים גם בתנאים פחות קיצוניים. לא חכם גם להניח שתכנון כזה יוביל לאינסטינקטים פוליטיים שמגבירים סיכונים או מעכבים את התקדמות הבינה המלאכותית. בעידן הגרעיני, למשל, ההיערכות לטרור גרעיני הביאה ליוזמות עולמיות לאבטחת חומר בקיע – מה שבסופו של דבר הפך את העולם לבטוח יותר.

יהיה מסוכן להתייחס ל-AGI כאל תרחיש רגיל במרחב הביטחון הלאומי. הידע והיכולת הטכנולוגית במוסדות הממשלתיים מוגבלים ואינם אחידים, והגורמים שייקחו חלק בתגובה לא יהיו מוגבלים לסוכנויות הביטחון הקלאסיות. רוב התרחישים יתרחשו במקביל – בזירה הפנימית והבינלאומית. והתגובה לכל תרחיש תישען במידה רבה על החלטות גופים שמחוץ לממשל – חברות, ארגוני חברה אזרחית – שאין להם מושב בחדר המצב של הבית הלבן ואינם בהכרח שמים את ביטחון המדינה בראש סדר העדיפויות. כמו כן, אי אפשר להפקיד את התכנון בידי עתידנים ומהנדסים בבידוד – שיישלחו ל"מקלט טכנולוגי" כדי לתכנן לבד. ההיערכות ל-AGI חייבת להיטמע בשיח האסטרטגי השוטף.

התקיים דיון סוער על האסטרטגיות השונות לניצחון במרוץ ה-AI מבלי להידרדר לאסון – אך נדונה הרבה פחות השאלה כיצד תעצב הבינה המלאכותית הכללית את הזירה הבינלאומית, את מאזן הכוחות, ואת הבריתות הגיאופוליטיות. בעולם רב-קוטבי ההולך ומתרחב, רואות מדינות מתפתחות את הבינה המלאכותית – ואת הדרך שבה ארצות הברית וסין מפתחות ומיישמות אותה – כמפתח לשאיפות הלאומיות שלהן. תכנון מוקדם, תרגולים עם בנות ברית, ודיאלוג פתוח עם מדינות המעוניינות להגן על ההשקעות הדיפלומטיות שלהן – כל אלה יבטיחו שהאסטרטגיות יהיו מועילות לשני הצדדים. כל אסטרטגיית AI שמתעלמת מהעולם הרב-קוטבי וממערכת טכנולוגית מבוזרת – תיכשל. וכל אסטרטגיית ביטחון לאומי שלא תתמודד עם ההשפעות המהפכניות של AGI – תאבד רלוונטיות.

למנהיגי הביטחון הלאומי אין שליטה על מועד פרוץ המשבר – אך הם קובעים למה להתכונן, ואיפה להשקיע את המשאבים. תכנון לבינה מלאכותית כללית אינו חיזוי מדע בדיוני, ואינו הסחת דעת מבעיות קיימות. זהו תהליך אחראי שנועד להכין את המדינה לאיומים מסוג חדש – בעידן משתנה מן היסוד.


מקור: מגזין Foreign Affairs

סופר: Matan Chorev and Joel Predd




לוח שנה