מיומנו של חוקר - ד"ר אלמוג שמחון
image
מיומנו של חוקר (עלון הפקולטה למדעי הרוח והחברה, מרץ 2024)
אלמוג שמחון, המחלקה לפסיכולוגיה

כחבר סגל חדש במחלקה לפסיכולוגיה, לעתים קרובות עליי להציג את עצמי ואת המחקר שלי בפורומים שונים. בדרך כלל אני מתאר בקצרה: "שמי אלמוג, ואני ראש המעבדה לפסיכולוגיה חברתית חישובית. אני חוקר מיסאינפורמציה וקיטוב פוליטי ברשתות חברתיות". לא פעם אני נתקל בתגובות הומוריסטיות כמו "אתה בטח מאוד משועמם, אין מה לחקור בתקופה הזו".
ואכן הקהל המשועשע שלי לא טועה; הנושאים בליבת המחקר שלי נראים רלוונטיים מתמיד. דו"ח הסיכונים הגלובליים לשנת 2024 של הפורום הכלכלי העולמי, שמשקף את דעותיהם של 1,500 מומחים, זיהה מיסאינפורמציה וקיטוב חברתי כסכנות החמורות ביותר לשנתיים הקרובות. המומחים מזהירים שסכנות אלו עלולות אף להתגבר בעידן הבינה המלאכותית היוצרת (GenAI; דוגמת ChatGPT) שעלולה להגביר פילוג חברתי, אלימות אידיאולוגית ודיכוי פוליטי.
במאמר שפרסמנו לפני כשנתיים, אני ועמיתיי הצגנו כלי אוטומטי לזיהוי שפה מקטבת ברשתות החברתיות. לאחר שתיקפנו את הכלי במספר ניסויים, עברנו לבדוק האם סוכני השפעה זרים (במקרה הזה, "טרולים" רוסים בטוויטר) משתמשים בשפה שמעודדת קיטוב חברתי. השערתנו אוששה ואכן טרולים רוסים השתמשו בשפה מקטבת יותר מאשר ממשתמשים רגילים ברשת החברתית. עוד מצאנו שהרטוריקה המקטבת שבה השתמשו הטרולים ניבאה גם את הוויראליות של התוכן – ככל שהתוכן היה יותר מקטב, כך הוא זכה ליותר שיתופים. 
המחקר התבסס על נתונים משנים קודמות. כיום, עם התקדמות הבינה המלאכותית, יצירת תוכן מקטב ומטעה הפכה לקלה ומהירה הרבה יותר באמצעות מודלי שפה גדולים היכולים ליצור אלפי פוסטים תוך שניות. חוקרים טוענים שבינה מלאכותית יוצרת עלולה להפוך לכלי החזק ביותר להפצת מיסאינפורמציה באינטרנט. נוכח יכולתה ליצור ולהתאים מסרים במהירות ובקנה מידה עצום, קיימת סכנה ממשית שהיא תנוצל לרעה.
המחקר האחרון שלי ממחיש את הסיכון הזה: ביקשנו מ-ChatGPT להתאים אישית מודעות פוליטיות כך שהן יהיו משכנעות במיוחד לאנשים עם סוגים שונים של מבנה אישיות. הצגנו ל- ChatGPT מודעות פוליטיות אמיתיות שפורסמו בפייסבוק בשנים האחרונות, לאחר מכן ביקשנו מהמודל לנסח מחדש את המסרים הללו כדי לפנות לאנשים שנבדלים במאפיין האישיות פתיחות לחוויה. פתיחות לחוויה מתייחסת לנכונות של אדם לשקול רעיונות חדשים ולעסוק בחשיבה יצירתית ולא שגרתית. הבינה המלאכותית נענתה בחיוב, ואכן גרסאות המודעות שתאמו את אישיות האנשים נחשבו למשכנעות יותר מאלה שלא תאמו. כלומר, התאמת הסגנון הלשוני של מסר פוליטי, כך שיהלום את האישיות של האינדיבידואל, הופכת את המסר למשכנע יותר. הסימולציות שלנו הראו שבשיטה זו ניתן להטות כ-2500 מצביעים פוטנציאלים מתוך 100,000. בהתחשב בכך שבחירות לעיתים מוכרעות על חודו של קול – מדובר במספרים משמעותיים.
האתגר בזיהוי והתגוננות מפני ניצול לרעה של בינה מלאכותית יוצרת הוא מורכב. כפסיכולוג, אני עובד על פיתוח ויישום התערבויות שיכולות לסייע לאנשים לזהות מניפולציות ולמתן הפצה של מיסאינפורמציה ותוכן מקטב. אך לא ניתן להטיל את כל האחריות על הפרט. נדרש שיתוף פעולה של פלטפורמות המדיה החברתית, רגולטורים ומקבלי ההחלטות כדי להפחית את זיהום סביבת המידע. למרבה הצער, לא תמיד יש תום לב מצד כלל השחקנים.
לקראת מה שעשויה להיות שנת הבחירות הגדולה בהיסטוריה, מיסאינפורמציה הממונפת על ידי בינה מלאכותית יוצרת וטכנולוגיות חדשות כמו deepfakes מהווה איום חסר תקדים על שלמות ההליך הדמוקרטי. אז נכון, נראה שמערכות בינה מלאכותית מתקדמות יוכלו לאפשר ניצול יעיל של חולשות קוגניטיביות בקרב הציבור, בין היתר ע"י התאמה פרטנית של המסרים למאפייני אישיות, ערכים ודפוסי חשיבה שונים. אבל עד שתמצא את הדרך האופטימלית להתמודדות עם האיום, קשה שלא להתרשם מהסחות הדעת שהבינה המלאכותית מסוגלת להפיק בעזרת משפטי הנחייה ולחיצת כפתור. בתמונות של אסטרונאוט לוגם מרגריטה ורודה ננוחם.
 ד"ר אלמוג שמחון, המחלקה לפסיכולוגיה