לפני כמה חודשים, כריסטין קרילו, מנכ"לית אמריקאית, ניסתה להחמיא לעוזרת האישית שלה בסדרת ציוצים וכנראה חשפה יותר מדי.
קרילו טענה שהעוזרת האישית שלה "מאפשרת" לה "לכתוב ולגלוש כל יום" כמו גם "לבשל ארוחת ערב ולקרוא כל ערב". בתיאור החושפני במיוחד של קרילו היא ציינה שהעוזרת האישית שלה עונה לרוב המיילים שלה, עושה עבודה רבה בגיוס הון ומבצעת פעילויות תפעוליות רבות. היא העריכה שהעובדת הלא-מזוהה הזו "חוסכת לי 60% מהזמן".
כצפוי, המון תגובות הצביעו על כך שאם מישהי עושה עבורה "60% מהעבודה" למה היא לא מקבלת 50% ממשכורתה של קרילו? אבל קרילו - בחוסר מודעות עצמית כמעט מדהים מרוב חוסר המודעות העצמית שלו - הודיעה למגיב אחד "שהעוזרת האישית שלה נמצאת בפיליפינים" ולמה? כי המשמעות של העברת התפקיד הזה לחו"ל היא שהיא צריכה לשלם פחות עבור העבודה של העוזרת האישית.
אנחנו, כולנו, עומדים כיום בפני סכנה מתהליך אוטומציה. חברות גדולות כבר פיטרו אלפים והודיעו על פיטורי עשרות אלפים בגלל בינה מלאכותית.
ואם פעם מיקרוסופט פיטרה צוות גדול של עיתונאים ב-2020 כדי להחליף אותם ב-AI ואז נאלצה להתמודד מיד עם אסון יח"צ בגלל כשלון התוכנה להבחין בין שתי נשים ממוצא אתני דומה; אמזון נאלצה לוותר על כלי גיוס מבוסס AI אחרי שלמד לעשות אפליה נגד נשים; וצ'אט-GPT שימש כצ'אטבוט רפואי ב-2020 והגיב למטופל (מדומה) שהציג מחשבות אובדניות בהוראה להתאבד - אז היום "התקלות" הללו כבר די תוקנו.
ולכן מדברים כיום על כך שהרבה מנכ"לים של הרבה החברות יכולים לצמצם בהוצאות באופן ניכר על ידי פיטורים המוניים והם לא ישלמו שום מחיר - אפילו לא מחיר של יח"צ גרוע.
השכר הממוצע של מנכ"ל ב-S&P עומד על 18.9 מיליון דולר
העניין הוא, ובשביל זה נחזור לגברת כריסטין קרילו, שאם המנכ"לים, מכל התחומים, נבחנים היום על "קבלת החלטות אסטרטגיות" שמובילות, תמיד, לקיצוץ משמעותי במצבת העובדים או גיוס תוכנת AI ולא אנשים שיעשו עבודות - למה שהעבודה שלהם תהיה בטוחה?
הרי במקומות שבהם נעשה שימוש בניהול אוטומטי - או "מודיעין החלטות", כפי שגוגל ו-IBM קוראים לזה - נהנו מתוצאות מרשימות. למשל, מערכת התחבורה הציבורית בהונג קונג הטילה על תוכנה לתזמן תחזוקה והיא כיום נחשבת לאחת ממערכות המטרו הנקיות והיעילות בעולם. במיקרוסופט גם דיברו על כך שבקרוב מאוד, ולאחר הרבה מאוד סימולציות, יהיה מודל שיוכל "לקבל החלטות" אבל אף פעם לא יהיה תחליף ל"מנהיגות אמיתית".
העניין הוא ש"המנהיגות האמיתית" הזו עולה הרבה כסף. מנכ"לים ברחבי העולם עשויים לקבל "חבילות שכר" של 150-200 מיליון דולר על עבודה. בארה"ב השכר הממוצע של מנכ"ל ב-S&P עומד על 18.9 מיליון דולר; באירלנד זה 6.7 מיליון דולר; בגרמניה - 4.7 מיליון דולר; בהודו - 2 מיליון; בדרום אפריקה - 1.6 מיליון דולר.
היחס בשכר של מנכ"ל לעובד ממוצע שלו עומד בארה"ב על 285 דולר שמקבל המנכ"ל על כל דולר שמקבל העובד הממוצע. בחברות מסוימת היחס הזה הוא 632:1. גם בבריטניה היחס הזה גבוה 122:1. בגרמניה היחס נמוך מאוד 50:1 אבל יש חברות בהן הוא 77:1. ובישראל, על פי חוק, הוא 44:1 (אבל יש דרכים לעקוף זאת).
אם המשכורות של המנכ"לים נראות לכם הוגנות או אתיות, אחלה - אבל השאלה הגדולה היא, בעצם, האם הן הכרחיות? אם קבלת החלטות אסטרטגיות - שעל זה, בסופו של דבר, מקבלים את הביג-באקס - בעצם מתקבלת על ידי הבעלים והדירקטוריון ויש היום תוכנות כל כך מתקדמות שיכולות לנהל עבודה טוב יותר מבן אנוש - בן אנוש, שבדרך כלל מקבל את השכר הכי גבוה בחברה - אז למה בעצם להחזיק אדם בעל משכורת כזו גבוהה.
בקיצור, התרגיל המחשבתי הזה רק מלמד שאף אחד לא באמת בטוח מההליך שנקרא "התייעלות" בעידן ה-AI. לא עובדים פשוטים ולא מנכ"לים. הרי הבינה המלאכותית, בסופו של דבר, זו תוכנת מחשב שיכולה לחשוב יותר מהר ויותר טוב מאשר כל אדם לאורך ההיסטוריה, אז מן הסתם בעוד שנה, שנתיים, שלוש או ארבע היא גם תוכל לעשות את העבודה של כל אדם.
מה שאומר שעכשיו, ולא בעוד שנה-שנתיים-שלוש-או ארבע - צריך ממש לשנות את כל החוזים שבין אדם לכלכלה, לחברה ולממשלה. אבטלה המונית בשם "היעילות" ממש מעבר לפינה.
לאחרונה פרופ' יובל שני, ראש הקתדרה למשפט בינלאומי פומבי ע"ש הרש לאוטרפכט באוניברסיטה העברית פרסם מאמר בו הוא קורא לגיבוש מגילת זכויות אדם בינלאומיות ייעודית לבינה מלאכותית.
הוא מזהיר שמסגרות זכויות האדם הקיימות מתקשות להתמודד עם האתגרים שמציבות מערכות AI. במסמך המדיניות החדש הוא טוען שהשימוש הגובר בבינה מלאכותית יוצר מציאות שבה זכויות יסוד מופעלות בתנאים חדשים, כאלה שהחוק הנוכחי לא נותן להם מענה מספק.
מגילת זכויות אדם בינלאומית לבינה מלאכותית
המסמך, שנכתב בעת שהותו של פרופ' שני במכון לאתיקה ובינה מלאכותית אוקספורד, עוסק בהשפעה המתרחבת של AI בתחומים כמו בריאות, חינוך, תחבורה, רווחה ואכיפת חוק, ומצביע על סיכונים מרכזיים שכבר מתעוררים: הטיה ואפליה אלגוריתמית; פגיעה בפרטיות ובהגנת מידע; חוסר שקיפות והיעדר הסבר של החלטות אוטומטיות; מניפולציה והיחלשות האוטונומיה האנושית; וכן פערי אחריות בין מדינות לחברות טכנולוגיה. לדבריו, מערכות בקנה מידה רחב, שפועלות לעיתים באטימות וללא קבלת החלטות אנושית ישירה, מפעילות לחץ חסר תקדים על דיני זכויות האדם.
במקום לנטוש את המסגרות הקיימות, פרופ' שני מציע להשלים אותן באמצעות מגילת זכויות אדם בינלאומית לבינה מלאכותית, שתתבסס על שבעה עקרונות ליבה.
מהמאמר:
"המסמך הלבן מציע רשימה ראשונית של שבע זכויות, שאני ממליץ לכלול במסגרת עתידית של מגילת זכויות האדם בעידן הבינה המלאכותית. זכויות אלו נועדו להגן על יכולתנו להשתמש במערכות בינה מלאכותית בדרכים התואמות את רווחת האדם, מצמצמות נזק לבני אדם, ועומדות בסטנדרטים של הוגנות וצדק בתהליכים ובתוצאות הכרוכות בפיתוח ובשימוש במערכות כאלה:
- הזכות לגישה למערכות בינה מלאכותית
- הזכות להגנה על פרטיות מפני שימושים מזיקים במערכות בינה מלאכותית
- הזכות להיות חופשי מהטיות ובלתי-הוגנות אלגוריתמיות
- הזכות לשקיפות ו"הסבריות" אלגוריתמית
- הזכות לא להיות נתון למניפולציה אלגוריתמית
- הזכות להחלטה אנושית ולאינטראקציה אנושית-לאנושית
- הזכות לאחריות ולמתן דין וחשבון על נזקים שנגרמו משימוש במערכות בינה מלאכותית
מומחה הבינה מבית הפנקייק
פרופ' יובל שני מציע להתחיל במסמך "חוק רך", שיכול לשמש מצע לשפה משותפת למדינות, לבתי משפט ולמוסדות בינלאומיים, ולהניח תשתית לפיתוח נורמות מחייבות בעתיד.
ובזמן שאנשים חשובים וחושבים מייצרים מסמכים שאמורים לסייע לנו בעולם חדש ודי מופרע, מה עשה "סגן השא שמונה לנציג ראש הממשלה לדיוני AI" - הרי הוא אלמוג כהן מבית הפנקייקס? לפי התנועה לחופש המידע מאז שהוא נכנס לתפקיד במאי 2025 הוא הביא 6 עובדים בעלויות של מאות אלפי שקלים וקיים רק שתי פגישות בנושא שהוא אמור להיות האחראי עליו מטעם הממשלה.
או בקצרה: אל תבנו על ממשלת הטבח שתגן עליכם מ-AI. אם אתם מנכ"לים או סתם עובדים פשוטים.
