וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

בדידות בטריליון דולר: פסיכוזת הצ'אט כבר כאן, והיצרניות סופרות את הכסף

28.12.2025 / 8:37

אינטימיות מזויפת ומכוונת: חברות ה-AI מעודדות קשר רגשי מסוכן בשביל רווחים של מיליארדים. "פסיכוזת הצ'אט" כבר כאן, ובזמן שהרגולציה שותקת - הבכירים בורחים ומתריעים: ה-AI מסוכן יותר מפצצת אטום

בווידאו: נטלי זוהר, חוקרת טרנדים מאוניברסיטת רייכמן, בתוכנית "וואלה פתרנו" עם המדריך לשימוש בבינה מלאכותית להתייעלות כלכלית/צילום: אולפן וואלה

"פסיכוזת צ'אטבוט" (Chatbot psychosis, או AI psychosis) היא תופעה חדשה שבה אנשים מדווחים כי פיתחו או חוו החמרה של פסיכוזה, כגון פרנויה ואשליות בעקבות השימוש שלהם בצ'אט-GPT או אפליקציית AI כלשהי.

המונח הומצא בשנת 2023 על ידי הפסיכיאטר הדני סרן דין אוסטרגור, שהבחין ביותר ויותר מטופלים שפיתחו אמונה חזקה כי צ'אטבוטים הם בעלי תודעה, מתקשרים עם רוחות, או חושפים קונספירציות. לעיתים אמונות אלו הובילו למשברים אישיים משמעותיים, למעשים פליליים ואפילו להתאבדויות.

הגורמים לתופעה כוללים את הנטייה של צ'אטים לייצר מידע שגוי או דמיוני ("הזיות"), וכן העיצוב של האפליקציות מעודד הגברת שימוש בהן על ידי חיזוק האמונות של המשתמשים ועל ידי חיקוי תחושת אינטימיות, שאנשים אינם חווים לעיתים מול בני אדם אחרים. כלומר, חלק מהגורמים לפסיכוזת צ'אטבוט הם תוצאה ספציפית של עיצוב המוצר.

על פניו, יצרני הבינה המלאכותית היו צריכים להזהיר מפני הדבר הזה - בדיוק כפי שיצרני הסיגריות היו צריכים לכתוב על המוצר שלהם שהוא גורם לסרטן ושלל מחלות אחרות - אבל זה לא קרה. רוב חברות ה-AI ידעו שיש סכנה נפשית לשימוש ב-AI אבל הן ניסו להצניע את הבעיה הזו ולהעלים אותה. הסיבה לכך היא כסף. ובגלל הכסף הסכנה מהבינה המלאכותית רק הולכת וגדלה.

בינה מלאכותית/בינה מלאכותית

קחו לדוגמה את החלוצה בתחום, חברת OpenAI. החברה הכניסה 3.7 מיליארד דולר ב-2024 ורשמה הפסדים של 5 מיליארד דולר. לפי התחזיות, החברה אמורה לייצר 13 מיליארד דולר ב-2025 והערכות הן שלמרות העלייה בהכנסות, ההפסדים יגדלו גם.

מאז 2021, רוב הכסף של המשקיעים הלך ל-10 חברות שפיתחו AI ולפי אנשי התעשייה יושקעו 6.7 טרילין דולר בחברות הבינה המלאכותית עד 2030. ההכנסה השנתית של התעשייה שתצדיק את העלויות האלה? 2 טריליון דולר בשנה. כמה התעשייה מכניסה כיום? כ-200 מיליארד דולר.

זה לא נראה שיצליחו להצדיק את ההשקעה בעשור הקרוב אבל מה שקרה זה שעבור התעשייה כולה הצמיחה בהכנסות חשובה עכשיו יותר מכל דבר אחר. וזה סכנה גדולה מאוד - לא רק לתעשיית ה-AI אלא לבני אדם. כי אם צמיחה חשובה יותר מכל דבר, היא חשובה הרבה יותר מעניינים פעוטים כמו בטיחות ורגולציה על מוצרים שיכולים לייצר פסיכוזה אצל אנשים ואף לאיים על האנושות.

מתחת לראדר, יותר ויותר אחראים לבטיחות עוזבים את חברות ה-AI המובילות והם מספרים על כל במה אפשרית על הסכנות הטמונות במרדף של החברות המסחריות אחר צמיחה והכנסות. חברת OpenAI, למשל, לא פרסמה כבר זמן רב שום מסמך שמעדכן לגבי האימפקט הכלכלי והבטיחותי של המוצר שלהם. לפי דיווח במגזין Wired, החברה של סם אלטמן יותר "מגוננת" על המחקרים הפנימיים שלה כי חלקם מלמדים ש-AI יכול להיות רע לכלכלה. וזה לא טוב לשווי המנייה של השותפות המרכזיות של OpenAI, כולל חברת אורקל.

לפי WIred לפחות שני עובדים בכירים בחברה עזבו את OpenAI בגלל תסכול מההתנהלות. אחד מהעובדים הוא טום קאניגהאם, חבר בצוות המחקר הכלכלי של Open AI שטען במייל העזיבה שלו שהחברה "מתרחקת ממחקר אמיתי ומבקשת מחטיבת המחקר להיות "זרוע במכונת התעמולה" שלהם. גם האחראי הראשי על האסטרטגיה של OpenAI, ג'ייסון קוואן, עזב וטען במכתב עזיבה שהחברה צריכה "לבנות פתרונות" ולא למנוע פרסום מחקרים על "הנושאים הקשים".

כש-OpenAI הוקמה ב-2016 היא היתה אמורה להיות יותר ארגון ללא מטרות רווח עם שורשים אלטרואיסטים ומשימה ברורה: לפתח בינה מלאכותית שאינה מסוכנת למשתמש. ואולם, עם השנים המטרה שלה השתנתה ו-OpenAI גייסה טריליונים ממשקיעים. עכשיו היא צריכה להתחיל לנפק החזרים.

זה נכון גם לחברות אחרות. וזה, בהיעדר רגולציה - בעיקר בארה"ב - מוביל ללקיחת סיכונים משמעותיים בטכנולוגיה שלפי היוצרים שלה יכולה להיות מסוכנת מאוד למשתמשים.

הסכנה היא לא רק קטסטרופה בסגנון "שליחות קטלנית" (כלומר השתלטות המחשבים על מערכות החיים) - יש גם תופעות מטרידות מאוד כגון פסיכוזת צ'אטבוט או מודל שפה, שלפתע פתאום מאיים לסחוט את המשתמשים, מוכן לירות ביוצרים שלו (בסרטון) או מבין שעושים עליו טסטים.

sheen-shitof

עוד בוואלה

איך נראה עתיד ההשקעות בנדל"ן: להצליח בשוק משתנה בעידן של חוסר ודאות

בשיתוף CofaceBdi

בינה מלאכותית/freepik

ושוב, אם נחזור לאנשים שעזבו את OpenAI, כגון וויליאם סונדרס (ראש צוות לשעבר) וסטיבן אדלר, חוקר בטיחות לשעבר בחברה, הם הזהירו מכך שמתמקדים ב"יצירת מוצרים חדשים ונוצצים" ומתעלמים מהכלים החזקים שמפותחים.

בראיון לפודקאסט Factually סטיבן אדלר תיאר את מירוץ החימוש של חברות ה-AI למירוץ החימוש הגרעיני רק שבניגוד לפרויקטים הממשלתיים, התאגידים הגדולים מנהלים את המירוץ לטכנולוגיה משמעותית ומשפיעה יותר מאשר פצצת האטום. כרגע, לפחות בארצות הברית, אין רגולציה אמיתית כי ממשלת ארה"ב היא כיום מושחתת עד העצם.

אז כן, זה מה שקורה עכשיו. דונלד טראמפ רוצה שהוא ומשפחתו ירוויחו מ-AI, זה נוגד את האינטרס האישי שלו לשים רגולציה על חברות, שחלקן תרמו והעבירו לו ולמשפחתו עשרות מיליונים. אלו חברות שאשכרה יכולות לעשות נזק רציני עם המוצר שלהן (וזה משהו שהם בעצמם אומרים וגם המדענים שאחראים לפיתוחי ה-AI). או בקיצור, פסיכוזת צ'אטבוט צפויה להיות בעיה בטיחותית כמעט שולית אם המציאות הדפוקה הזו לא תשתנה בקרוב.

טרם התפרסמו תגובות

top-form-right-icon

בשליחת התגובה אני מסכים לתנאי השימוש

    walla_ssr_page_has_been_loaded_successfully