האם אלון מאסק מתכנן להשתמש בבינה מלאכותית כדי לנהל את ממשלת ארה"ב? נראה שזו התוכנית שלו, אבל מומחים אומרים שזה "רעיון רע מאוד".
מאסק פיטר עשרות אלפי עובדי הממשלה הפדרלית באמצעות מחלקת היעילות הממשלתית שלו (DOGE), ולפי הדיווחים הוא מחייב את העובדים הנותרים לשלוח למחלקה דוא"ל שבועי הכולל חמש נקודות כדור המתארות את מה שהם השיגו באותו שבוע.
מכיוון שזה ללא ספק יציף את דוג במאות אלפי מיילים מסוג זה, מאסק מסתמך על בינה מלאכותית כדי לעבד תגובות ולעזור לקבוע מי צריך להישאר מועסק. על פי הדיווחים, חלק מתוכנית זו היא להחליף עובדי ממשלה רבים במערכות AI.
עדיין לא ברור כיצד נראים אף אחת ממערכות ה- AI הללו או כיצד הם עובדים – משהו הדמוקרטים בקונגרס של ארצות הברית דורשים להתמלא – אך מומחים מזהירים כי השימוש ב- AI בממשלה הפדרלית ללא בדיקה חזקה ואימות של כלים אלה יכול להיות בעל השלכות הרות אסון.
"כדי להשתמש בכלי AI באחריות, הם צריכים להיות מתוכננים עם מטרה מסוימת בראש. הם צריכים להיבדק ולאמתם. לא ברור אם כל זה נעשה כאן ", אומר קרי קוגליאנזה, פרופסור למשפטים ומדעי המדינה באוניברסיטת פנסילבניה.
קוגליאנית אומרת שאם AI משמשת לקבל החלטות לגבי מי צריך להפסיק מעבודתם, הוא היה "ספקן מאוד" מהגישה הזו. הוא אומר שיש פוטנציאל אמיתי מאוד לביצוע טעויות, כדי שה- AI יהיה מוטה ולבעיות פוטנציאליות אחרות.
"זה רעיון רע מאוד. איננו יודעים דבר כיצד AI יקבל החלטות כאלה (כולל כיצד הוכשרו והאלגוריתמים הבסיסיים), הנתונים עליהם יתבססו החלטות כאלה, או מדוע עלינו להאמין שזה אמין ", אומר שוביטה פרתאסראתיה, פרופסור למדיניות ציבורית באוניברסיטת מישיגן.
נראה כי חששות אלה לא מעכבים את הממשלה הנוכחית, במיוחד עם מאסק – איש עסקים מיליארדר ויועץ קרוב לנשיא ארה"ב דונלד טראמפ – המוביל את האישום על המאמצים הללו.
משרד החוץ האמריקני, למשל, מתכנן להשתמש ב- AI כדי לסרוק את חשבונות המדיה החברתית של אזרחים זרים כדי לזהות כל מי שעשוי להיות תומך חמאס במאמץ לבטל את הוויזה שלהם. ממשלת ארה"ב לא הייתה עד כה שקופה באשר לאופן שבו מערכות מסוג זה עשויות לעבוד.
פגיעות שלא זוהו
"ממשל טראמפ ממש מעוניין להמשיך ב- AI בכל מחיר, והייתי רוצה לראות שימוש הוגן, צודק ושוויתי ב- AI", אומר הילקה שלמן, פרופסור לעיתונאות באוניברסיטת ניו יורק ומומחה לבינה מלאכותית. "יכולות להיות הרבה נזק שלא מתגלות."
מומחי AI אומרים כי ישנן דרכים רבות בהן השימוש הממשלתי ב- AI יכול להשתבש, וזו הסיבה שצריך לאמץ אותו בזהירות ובמצפון. קוגליאנים אומרים כי ממשלות ברחבי העולם, כולל הולנד ובריטניה, היו בעיות עם AI שהוצא להורג בצורה לא טובה שיכולות לטעות או להראות הטיה וכתוצאה מכך הכחישו שלא בצדק את תועלת הרווחה שהם זקוקים להם, למשל.
בארצות הברית הייתה מדינת מישיגן בעיה עם AI ששימשה למציאת הונאה במערכת האבטלה שלה כאשר היא זיהתה באופן שגוי אלפי מקרים של הונאה לכאורה. רבים מאותם הטבות שהכחישו טופלו בחומרה, כולל נפגעו בעונשים מרובים ומואשמים בהונאה. אנשים נעצרו ואף הוגשו בגין פשיטת רגל. לאחר תקופה של חמש שנים, המדינה הודתה כי המערכת לקויה ושנה לאחר מכן היא החזירה 21 מיליון דולר לתושבים המואשמים בטעות בהונאה.
"רוב הזמן, הפקידים הרוכשים ופריסה של טכנולוגיות אלה יודעות מעט על אופן פעולתם, ההטיות והמגבלות שלהם ושגיאות", אומר פרתאסראתי. "מכיוון שקהילות בעלות הכנסה נמוכה ושוליים אחרת נוטות ליצור קשר מיותר עם ממשלות באמצעות שירותים חברתיים (כמו הטבות אבטלה, אומנה, אכיפת החוק), הם נוטים להיות מושפעים ביותר על ידי AI בעייתי."
AI גרמה גם לבעיות בממשלה כאשר היא משמשת בבתי המשפט כדי לקבוע דברים כמו זכאות השחרור של מישהו או במחלקות המשטרה כאשר הוא משמש כדי לנסות לחזות היכן עשוי להתרחש פשע.
שלמן אומר כי ה- AI המשמש את מחלקות המשטרה מתאמן בדרך כלל על נתונים היסטוריים מאותן מחלקות, וזה יכול לגרום ל- AI להמליץ על אזורי שיטור יתר שכבר מזמן הועברו יתר על המידה, ובמיוחד לקהילות צבעוניות.
AI לא מבין כלום
אחת הבעיות בשימוש ב- AI כדי להחליף עובדים בממשלה הפדרלית היא שיש כל כך הרבה סוגים שונים של משרות בממשלה הדורשות מיומנויות וידע ספציפיים. לאדם IT במחלקת המשפטים עשויה להיות עבודה שונה מאוד מאחד ממחלקת החקלאות, למשל, למרות שיש להם את אותה תואר תפקיד. לפיכך, תוכנית AI תצטרך להיות מורכבת ומאומנת מאוד כדי אפילו לבצע עבודה בינונית בהחלפת עובד אנושי.
"אני לא חושב שאתה יכול לחתוך באקראי את עבודתם של אנשים ואז (להחליף אותם בכל AI)", אומר קוגליאנזה. "המשימות שהאנשים ביצעו הם לרוב מתמחים מאוד וספציפיים."
שלמן אומר שאתה יכול להשתמש ב- AI כדי לעשות חלקים מהעבודה של מישהו שעשויים להיות צפויים או חוזרים על עצמם, אבל אתה לא יכול פשוט להחליף מישהו לגמרי. זה היה תיאורטי אפשרי אם הייתם מבזבזים שנים בפיתוח כלי AI הנכונים לעשות הרבה סוגים רבים של משרות – משימה קשה מאוד ולא מה שנראה שהממשלה עושה כרגע.
"לעובדים אלה יש מומחיות אמיתית והבנה ניואנסית של הנושאים, אשר AI לא עושה זאת. AI לא, למעשה, 'מבין' כלום, "אומר פרתאסראתי. "זה שימוש בשיטות חישוביות כדי למצוא דפוסים, המבוססים על נתונים היסטוריים. וכך סביר להניח שיש לו תועלת מוגבלת, ואף לחזק את ההטיות ההיסטוריות. "
ניהול נשיא ארה"ב לשעבר ג'ו ביידן הונפק צו ביצוע בשנת 2023 התמקד בשימוש האחראי ב- AI בממשלה וכיצד ייבדק ויאומת AI, אך צו זה בוטל על ידי ממשל טראמפ בינואר. שלמן אומר שהדבר גרם פחות לסביר כי AI ישמש באחריות בממשל או שהחוקרים יוכלו להבין כיצד משתמשים ב- AI.
כל זה נאמר, אם AI מפותח באחריות, זה יכול להועיל מאוד. AI יכול לבצע אוטומציה של משימות חוזרות ונשנות כך שהעובדים יוכלו להתמקד בדברים חשובים יותר או לעזור לעובדים לפתור בעיות שהם נאבקים איתם. אבל צריך לתת לו זמן כדי לפרוס באופן הנכון.
"זה לא אומר שלא יכולנו להשתמש בכלי AI בחוכמה", אומר קוגליאנזה. "אבל ממשלות עוברות שולל כשהן מנסות למהר ולעשות דברים במהירות ללא תשומות ציבוריות נאותות ואימות יסודי ואימות של האופן בו האלגוריתם עובד בפועל."