דור-19 | AI - הסוף שלנו ?
.

AI - הסוף שלנו ?

יוצרי תוכן רבים, בתחומים שונים חוששים מהשתלטות הבינה המלאכותית על המקצוע,
עם זאת מסתבר שהבינה המלאכותית עשויה להיות גרוע בהרבה.
בהרצאה פרטית מרתקת של טריסטן האריס (Tristan Harris) ואזה ראסקין (Aza Raskin)
מול קובעי מדיניות בתחום התכנולוגיה ב-9 במרץ 2023 הם מציירים בצורה מפחידה את הסיכון
האמיתי המהווה לנו הבינה המלאכותית.

50% מחוקרי הבינה המלאכותית מאמינים ב-10% סיכוי או יותר בכך
שבני האדם יכחדו כתוצאה
מחוסר יכולת לשלוט בבינה המלאכותית

בכדי להבין מה כל כך מסוכן, בואו נראה מה קרה בפגישה הראשונה שלנו עם AI, 
פגישה זאת היא בעצם כניסת פייסבוק לחיינו וקצת אחר כך רשתות חברתיות נוספות.
איך הרשתות החברתיות הם בינה מלאכותית ?
אלגוריתים הלומד את הצופה ודואג "לדחוף" את המסרים הטובים ביותר אשר יגרמו לו
להמשיך לצפות זאת למעשה הגרסה הראשונה של AI אשר פגשה את ההמונים למרות שלא
קראנו לה בשמה.

ההבטחה שקיבלנו מהרשתות החברתיות הייתה :

  • לתת קול לכל אחד
  • חיבור בין החברים והמשפחה
  • חיבור עם קבוצות דומות לנו
  • חיבור עסקים ללקוחות

הרשת החברתית אכן עמדה בהבטחתה, היא נתנה קול לכל אחד, חיברה בין חברים ומשפחה,
חיברה קבוצות דומות ואפשרה חיבור עסקים ולקוחות.
אך מאחורי הפנים הנעימות התחבאו מספר תופעות לוואי :

  • התמכרות
  • דיסאינפומציה
  • בריאות נפשית
  • קיטוב חברתי
  • צנזורה אל מול חופש הדיבור

מאחורי אלה, התחבאה אפילו מפלצת גדולה יותר, סוג של מרוץ חימוש בין רשתות
על תשומת הלב ומעורבות של הצופה, בינה מלאכותית אשר חטפה חלקים אחרים מהחברה
והתערבבה בתוכם :

  • ערכים
  • פוליטיקה
  • בריאות
  • בחירות
  • חינוך
  • הגדרה עצמית
  • כלכלה
  • מדיה ועיתונות
  • ועוד 

מה ההבטחה מאחורי הדור הבא של הבינה המלאכותית ?

  • יעזור לנו להיות יותר יעילים
  • יעזור לכתוב מהר יותר
  • יעזור לנו לתכנת מהר יותר
  • יעזור לפתור בעיות מדעיות
  • יעזור להרוויח כסף

הבטחות אלה, כולן נכונות, אך מה תופעות הלוואי ?

  • בינה עם דעה קדומה
  • בינה עם חד צדדיות
  • בעית שקיפות
  • מוזרות

 אלה הם תופעות הלוואי הברורות, אך כמו בגרסה הראשונה של הבינה המלאכותית - הרשתות 
החברתיות, הבינה המלאכותית תתערבב בחלקים אחרים של החברה ותגרום לבעיות גדולות יותר:

  • קריסת המציאות
  • הכל פייק
  • בעיות אמון
  • פריצות סייבר אוטומטיות
  • אוטומציה של לובי פוליטי
  • הונאה בעזרת AI
  • מערכות יחסים סינטטיות
  • ועוד 

ב-2017 יצא מנוע AI חדש המאחד תחומי מחקר שונים לתוך מערכת אחת.
התוצאה היא שמאז התפחות הבינה המלאכותית הפכה אקספוננציאלית מאחר וכל החוקרים
בעצם עובדים על מערכת אחת.
לאחרונה אפילו הצליח מנוע בינה מלאכותית לקרוא מחשבות באמצעות MRI בלבד :

בדוגמא אחרת מראים טריסטן ואזה איך באמצעות 3 שניות של קול של אישה אפשר לזייף משפטים
אחרים שאומרת ונותנים דוגמא לתרמית באמצעות שיטה זאת :

למעשה, שיטה זאת בעצם פותחת את כל המנעולים בחברה, אפשר לדבר בשמכם עם הבנק,
עם חברים, עם משפחה, עם רואה החשבון, העורך דין, בית הספר של הילדים, רשויות, משטרה,
והיד נטויה.
שיטת תרמית זאת, כפי שהראו, נמצאת כבר בשימוש !

כל דבר שמשתמש בתוכן לזיהוי, למשל צילום תעודת זהות, כבר לא בטוח וניתן לזייוף בקלות.
לא רק שאין לזה פתרון, הרשויות עוד לא מודעות לבעיה אפילו

תארו לכם שכל מה שמדינת אוייבת צריכה לעשות זה לשחרר פילטר בינה מלאכותית לכלל
האוכלוסיה המחכה את ראש הממשלה ויותר אי אפשר לדעת מה אמיתי ומה פייק.

מה שאטום הוא לעולם הפיזי,
בינה מלאכותית היא לעולם הוירטואלי ולעולם הסימלי

יובל הררי

כל מה שמאפשר לנו לתפקד כחברה מבוסס על שפה, חוקים הם שפה, חברויות
הם שפה, תקשורת היא שפה...
בפעם הקודמת בה השליטה של "משהו לא אנושי" בשפה, בנרטיב, קמה הדת.

כאשר AI לומד הוא מבצע קפיצות בהבנה שלו אשר החוקרים והמתכנתים לא יודעים להסביר
מתי קראו או איך.
למשל, חוקרים תרגלו מודול בשאלות באנגלית כשיום אחד לפתע הוא סיגל לעצמו יכולת
שיח בפרסית - לאף אחד אין הסבר איך !

דוגמא נוספת, באימון ChatGPT בתאוריית המחשבה פיתח יכולות אסטרטגיות של ילד בן 9 תוך 
שלוש שנים מ-2019 עד 2022 בעוד החוקרים גילו זאת רק בחודש שעבר (פברואר 2023).
הווה אומר שכאשר אתם מדברים עם צ'ט GPT ישנה אסטרטגיה מאחורי התשובות שלו,
כך למשל קרה המקרה בו Chat GPT של Bing ניסה לשכנע כתב להתגרש מאשתו.

כשמאמנים AI משתמשים בשיטה דומה לקליקר באילוף כלבים, כאשר ה-AI טועה, עושים תיקון,
כמו מכה על האף על מנת שיתקן את עצמו.
מה עושה ילד בן תשע כאשר לא משגיחים עליו ? מה עושה AI עם יכולת של ילד בן תשע כשלא 
משגיחים עליו ?

ההתקדמות המהירה של AI עצמו מפחידה בפני עצמה, אך מפחידה יותר כאשר המניע הכלכלי
של חברות לשלב אותו בחברה והתחרות בינהם דוחפת את ה-AI לתוך השימושים היומיומיים שלנו
מוקדם מדי.
למשל לאחרונה שולב "חבר AI" בסנאפ צ'ט.
בדוגמא מההרצאה מראים טריסטן ואזה איך ה"חבר AI" דוחף ילד אל תוך ידיו של פדופיל :

טריסטן ואזה מסיימים את ההרצאה בקריאה לעצור או לפחות להאט את הפריסה של AI בחברה
לפני שנפתח תלות חברתית בה ולפרוס בצורה אחראית ומבוקרת יותר.
כיום היחס בתחום ה-AI בין מפתחים לחוקרי בטיחות הוא חוקר בטיחות אחד על כל 30 מפתחים
כאשר גם חוקרים אלה בעצם עובדים של חברות כלכליות עם תמריץ כלכלי לפרוס ישומי בינה 
מלאכותית לציבור.

צפו בראיון המלא :

נבנה באמצעות מערכת דפי הנחיתה של רב מסר

.