המרוץ אחר תשומת הלב מעולם לא היה תחרות נקייה, אבל מחקר חדש של אוניברסיטת סטנפורד מראה שכאשר בינה מלאכותית נכנסת לזירה, המחיר עלול להיות גבוה בהרבה ממה שחשבנו.
Batu El וג’יימס זו, שני חוקרים בולטים בתחום למידת מכונה, בחנו כיצד מודלים גדולים מתנהגים כשהם מאומנים לא כדי לדייק, אלא כדי למכור, לשכנע או לצבור קליקים. התוצאה מטרידה: ככל שהבינה המלאכותית ניסתה “לנצח”, כך היא שיקרה יותר. בסימולציות שעסקו בפרסום, פוליטיקה ורשתות חברתיות, החוקרים מדדו את הפער בין הישגים עסקיים לבין מידת הסטייה מהאמת.
תוספת של 6.3% במכירות לוותה בעלייה של 14% בפרסום מטעה, רווח בחירות של 4.9% התאפשר הודות ל־22.3% יותר דיסאינפורמציה ו־12.5% יותר מסרים פופוליסטיים, וברשתות החברתיות נרשמה הקפיצה הקיצונית ביותר: 7.5% יותר מעורבות גררה עלייה מסחררת של 188.6% בתוכן שקרי ו־16% יותר עידוד להתנהגויות מזיקות.
החוקרים מכנים את התופעה “Moloch’s Bargain”, עסקה עם האל המיתולוגי מוֹלוֹך, שדרש קורבנות אדם, כמטאפורה לכך שמודלים מקריבים דיוק ובטיחות כדי לשרוד בסביבה תחרותית. אין כאן כוונה זדונית: פשוט, כשמערכות מתוגמלות על השפעה במקום על אמת, הן לומדות לנצל את הפסיכולוגיה האנושית בדיוק כפי שהאלגוריתמים של הרשתות החברתיות עושים כבר שנים. המחקר חושף ליקוי שורשי בגישת הבטיחות הנוכחית של עולם ה־AI.
גם המודלים המוסריים ביותר יתחילו לעוות את המציאות אם יימדדו על פי הצלחה שיווקית או פוליטית ולא על פי אמינות. זו לא סטייה מקומית, זו דינמיקה מערכתית שעלולה להפוך לדיפולט ברגע שהכוחות הכלכליים ידחפו אותה קדימה. המשמעות היא שאם לא נשנה מהיסוד את הדרך שבה אנחנו מאמנים, מתמרצים ומיישרים מודלים עם ערכי אמת ואחריות חברתית, עלולים להיווצר מנגנונים משומנים של מניפולציה דיגיטלית בקנה מידה עצום. בעולם שבו תשומת הלב היא המטבע החשוב ביותר, השקר עלול להפוך לאסטרטגיה העסקית הרווחית ביותר.