מה עושים כשהשקר מקבל כנפיים, והאמת הופכת למשאב נכחד? האם תהליך ההידרדרות של החברה האנושית לעולם בלתי מוסרי בעליל, הוא בלתי נמנע? האם נפסיק פעם לשקר? טכנולוגיה עתידית עשויה לסייע, ואולי גם להשיב את האמון באמת לאמיתה. אם זה יצליח, זו תהא מהפיכה של ממש.
——————-
אז מה נכון?
מאז שהאדם למד לדבר, הוא למד גם לשקר. במקרים רבים השקר לא נבע מרוע, אלא שימש ככלי הישרדותי וכ"דבק חברתי" שמנע עימותים ושמר על שלום הקהילה.
בעידן הנוכחי משהו השתנה מן היסוד. העידן הדיגיטלי, ובעיקר מהפכת הבינה המלאכותית, העניקו לשקר כנפיים עוצמתיות. הטכנולוגיות החדשות יצרו עולם חדש ומופלא של פייק – תמונות מזויפות, סרטוני דיפ־פייק, כתבות שנכתבות על־ידי אלגוריתמים, ורשתות חברתיות שמתגמלות את הדרמה במקום את הדיוק. בעולם החדש הזה האמת כבר אינה ברורה מאליה, היא רק אחת מגרסאות רבות של "האפשרי".
העולם מוצף מידע אך צמא לאמת. ברשתות שבהן הצלחה נמדדת לפי עוצמת הרגש שהפוסט מעורר, השקר נעשה ויראלי, כמעט סקסי, האופציה שהוא מציע, קוסמת הרבה יותר מהעובדה הפשוטה והכמעט משעממת.
האמון במה שנאמר, ונכתב, ומוצג כ-פני הדברים, הולך ונשחק. הגענו, כך נראה, לנקודה מסוכנת שבה החשדנות והספק הם הבסיס המשותף, ולא האמת. אם אין אמת, אין אמון; ואם אין אמון, אין חברה.
אולי הגיעה השעה לשדרוג מסוג חדש – שדרוג טכנולוגי־מוסרי, שיחזיר למציאות את עמוד השדרה שלה: תשתית אמת שתעזור לנו להבחין בין עובדה לבדיה.
אחריות על האמת
דמיינו עולם שבו כל אדם יכול לגשת אל עמדת חישה עצמית, עתירת טכנולוגיה, להתייצב לרגע מול המסך ולהניח את אגודלו במקום המתאים. הרעיון פשוט: לענות בקצרה על כמה שאלות יסוד: על עברו, הכשרתו, הישגיו, וגם על הערות אישיות שיבחר להוסיף. המערכת המבוססת על בינה מלאכותית וחיישנים ביומטריים, בודקת תוך שניות את אותות הגוף – את המראה, הקול והשפה, ומזהה האם קיימת הלימה בין מה שהגוף מרגיש לבין מה שהפה אומר.
זו אינה מכונת פוליגרף מיושנת עם אלקטרודות ומחטים, אלא מין קיוסק אוטונומי וחכם – מראה מדעית שמחזירה לאדם תמונה כנה של אמירתו. בתום הבדיקה מתקבלת חותמת אמת: אישור דיגיטלי המאמת ביולוגית את ההצהרה שנבדקה.
האדם יוכל לצרף את האישור הזה לכל הקשר אישי, מקצועי או ציבורי: בקשת עבודה, הצעה עסקית, מאמר מחקרי, או הצהרה פוליטית. במובן מסוים מדובר ביצירת תו אמינות חברתי. זו איננה תווית הניתנת לנצח,אלא אות לכך שבמבחן הרגע, דבריך נבחנו ונמצאו כנים.
המערכת תהיה מבוססת על שילוב של מדדים ביולוגיים: דופק, מיקרו־הבעות פנים, מוליכות עור, תנודות קול ותבניות נשימה, יחד עם ניתוח שפה ותגובה רגשית. אלגוריתם לומד־מכונה יאחד את הנתונים מכל הערוצים ויפיק ציון אמינות הסתברותי, לא הכרעה מוחלטת. במובן רחב יותר, זו איננה רק טכנולוגיה של מדידה, אלא כלי שנועד להחזיר לנו את האחריות על האמת.
—————-
—————-
שימושים חברתיים
מערכת כזו תוכל להשתלב במגוון תחומים, ביניהם:
במקום העבודה – מועמדים שיבקשו לאשר הצהרות בקורות החיים;
באקדמיה – חוקרים שיבקשו חותמת על הצהרת מקוריות;
במערכת המשפט – כתוספת ראייתית מדעית;
בעיתונות – כתמיכה באמינות תחקיר או פרסום ציבורי.
מעבר ליישומים הישירים, עמדות אמת עשויות לשמש גם במרחב החברתי־דיגיטלי:
רשתות חברתיות, פורומים ואתרי חדשות יוכלו לסמן תכנים שעברו אימות אמינות, ובכך להפחית משמעותית את הפצת הפייק ניוז. ארגונים בינלאומיים יוכלו לקבוע סטנדרט אחיד לאימות הצהרות פומביות – בדומה לתקן ISO, אבל בתחום האמת. הרעיון הזה יוכל לשנות את כללי המשחק גם בזירה הפוליטית; דמיינו פוליטיקאי שעומד בפני הציבור ומצרף חותמת אמת לנאום שלו. הציבור עשוי להתחיל להעריך שקיפות על פני סיסמאות, ויושרה על פני רטוריקה. וכך, בהדרגה, תיווצר תרבות ציבורית חדשה, שבה לא הכוח לשכנע קובע, אלא היכולת לעמוד מאחורי האמת שלך.
תוקף “תו האמינות”
ומה יקרה אם אדם דיבר אמת בבדיקה אחת, קיבל תו אמינות – אך בהמשך שיקר? כדי למנוע מצב שבו “תו אמינות” הופך לתעודת יושר כללית שניתנה בעבר ומנוצלת לרעה, יש כמה עקרונות שניתן להכילם בתשתית המערכת:
1. תו ממוקד הקשר – החותמת אינה “תו אופי” קבוע אלא מתייחסת רק לאמירה או פעולה מסוימת. כל חותמת קשורה למסמך, או להצהרה ייחודית בלבד.
2. תו דינמי ומתחדש – לשמירת הרלוונטיות, כל חותמת אמינות תקפה לזמן קצוב – חודש, רבעון או שנה. לאחר מכן תידרש בדיקה חדשה. חשבו לרגע על רישוי המכוניות שלנו והמבחנים השנתיים שאנו נדרשים לעשות להם. במקרה הזה, אנחנו אלה המשולים לכלי הרכב.
3. דירוג אמינות מתפתח – ניתן לדמיין מערכת צוברת, מעין “מדד אמינות אישי” המבוסס על היסטוריה של הצהרות מאומתות. המדד יכול לעלות או לרדת בהתאם לעקביות בין הצהרות שונות לאורך זמן.
4. אימות מבוזר בזמן אמת – בעתיד ניתן יהיה לשלב בינה מבוזרת שתזהה סתירות בין הצהרות חדשות להצהרות ישנות ותתריע לציבור על חוסר עקביות. בצורה זאת אפשר יהיה להבטיח כי המערכת לא תעניק “תו נצחי” אלא תמדוד אמינות מתמשכת; אמון דינמי בעולם שבו המידע משתנה כל הזמן.
זהירות! אמת
עיסוק ב-אמת ושקר, מן הערכים היותר מורכבים וטעונים רגשית, יחד עם העובדה שמערכות טכנולוגיות, שמורות ככל שיהיו, אינן חסינות לאורך זמן, עשוי לחשוף אותנו לשורה של סכנות פוטנציאליות, בינהן:
1. פגיעה בפרטיות – איסוף נתונים ביומטריים עלול לחשוף מידע רפואי ורגשי רגיש.
2. טעויות והטיות – פחד, מתח או טראומה עלולים להיראות כ"שקר". חשוב לפתח מודלים המבחינים בין רגש לאי־אמת.
3. תלות יתר בטכנולוגיה – קיים סיכון שהחברה תסמוך בעיניים עצומות על אלגוריתם במקום על שיפוט אנושי.
4. שימוש ברעה – מערכת אמינות עלולה להפוך לכלי פוליטי או סמכותי אם לא תישמר שקיפות מלאה.
ההיערכות לשילוב מכונות אמת בסדר היום שלנו, תצטרך לקחת בחשבון כמה עקרונות יסוד, כגון: וולונטריות מוחלטת; שמירה הדוקה על פרטיות; פיקוח ציבורי עצמאי; ושימוש מוגבל, כאמצעי תומך, ולא תחליף מלא למצפון ולשכל הישר.
מהפכת הכנות
אם תיושם בזהירות ובשקיפות, מערכת כזו עשויה להוליד מהפכת אמון חדשה. בפעם הראשונה יהיה לנו כלי שמסוגל להבחין בין טעות תמימה להונאה מתוכננת, בין דעה לגיטימית לדיסאינפורמציה מסוכנת. אין מדובר באמצעי שליטה, אלא במנגנון שמחזיר לאדם אחריות על דבריו. לא כפייה, אלא עידוד שקיפות. לא עונש, אלא תמריץ לאמינות.
בדיוק כמו שחגורת הבטיחות הפכה להרגל מציל חיים, אולי נתרגל בעתיד “לחגור את האמת” לפני שאנחנו לוחצים על "SEND". במובן מסויים, זו איננה רק חדשנות טכנולוגית, אלא גם סוג של אבולוציה מוסרית. עתיד שבו נמדוד התקדמות לא רק לפי מהירות זרימת המידע, אלא לפי עומק האמון שהטכנולוגיה מאפשרת בינינו. העתיד יהיה שייך לא למי שיצעק חזק יותר, אלא למי שיהיה מוכן לומר את האמת, ולא רק ליד המכונה.
——————-
—-——————————-

רעיון מעניין… אבל נשמע לי קצת מוזר. הזכיר לי את בוקה ואריטה ברומא 🙂
קצת מוזר… מסכים, כמו שאמר לי מישהו: בני אדם לעולם לא יוכלו להפסיק לשקר…העניין הוא שהרשתות החברתיות מאפשרות סוג של לגיטימציה לכל מיני תחליפים למציאות ולמה שקרה באמת. כאילו כבר אין כל בעיה לשקר בגדול. וזה ממש סכנה להתנהלות החברתית שלנו, לפחות במושגים שאני מכיר.
האמת מעולם לא נעלמה, החיפוש אחריה לעולם לא ייעלם, ואופרות סבון ימשיכו לפרוח סביב "חשיפת האמת".
כמו הרבה פנטזיות טכנולוגיות שמעבירות את האחריות מן האדם לטכנולוגיה לענ"ד גם ההצעה הזו היא בעצם "ויתור" מודע לאחריות האדם/האשה על מה שיוצא מהפה/המקלדת שלהם.