More
    Homeטכנולוגיההסיכונים של התפתחות הבינה המלאכותית ללא פיקוח רגולטורי

    הסיכונים של התפתחות הבינה המלאכותית ללא פיקוח רגולטורי




    סצנת הפתיחה הבלתי נשכחת מתוך “פנטזיה” של דיסני מציגה את מיקי מאוס הלומד כשף מתלמד. הוא מחליט להשתמש בקסם כדי להחיות מטאטא שיעשה עבורו את העבודה המלוכלכת של סחיבת דליי מים. בהתחלה, הכל עובד לפי התוכנית. אך מהר מאוד, המטאטא מקבל חיים משלו, מתרבה, מציף את החדר – ומיקי מאבד שליטה.

    זוהי לא רק אגדה מצוירת. זו אלגוריה מדויקת למה שמדענים, אנשי טכנולוגיה ומנהיגי מדינות מזהירים מפניו – השתלטות אפשרית של הבינה המלאכותית על עולמנו. “לא ברור לי איך אנשים עדיין ישנים טוב בלילה”, אמר ביל גייטס. אילון מאסק כינה את הבינה המלאכותית “האיום הביטחוני הגדול ביותר שידע המין האנושי”, ולדימיר פוטין לא הסתיר את שאיפתו: “מי שישלוט בבינה מלאכותית, ישלוט בעולם”.

    מתוך ''פנטזיה בפילהרמונית'' (צילום: באדיבות הפילהרמונית הישראלית)
    מתוך ”פנטזיה בפילהרמונית” (צילום: באדיבות הפילהרמונית הישראלית)

    אבל האם מדובר באיום אמיתי, או רק בהפחדות לצורך יחסי ציבור? בשנים האחרונות, ההתפתחות של מערכות הבינה המלאכותית הפכה למהירה ועמוקה כל כך, עד שמומחים מעריכים שכבר היום, רמת האינטליגנציה של המערכות המתקדמות שוות ערך לאיי קיו של 150 – מעל לטווח האנושי הממוצע שעומד בין 85 ל־115. תוך שלוש שנים, כך לפי התחזיות, נגיע לרמת איי קיו של 300. אלה מספרים לא נתפסים.
     
    “הבינה המלאכותית כבר הצליחה לעבור את כל המבחנים המקצועיים של עורכי דין, רופאים, מהנדסים וקיבלה לכאורה הסמכה פורמלית”, מסביר מני ברזילי, מומחה לבינה מלאכותית ממרכז הסייבר באוניברסיטת תל אביב.

    “אבל מה שמפחיד יותר זו לא רק ההצלחה בבחינות, אלא מה שמגיע מעבר: היכולת של המערכות הללו לעבד מידע ולהנגיש אותו ולייצר אותו היא פנומנלית ורק הולכת ומשתפרת. התובנות שהן מסוגלות להגיע אליהן, השימוש בכלי מחקרי, היכולת להגיע למסקנות באופן עצמאי – כל אלה כבר מתעלים על זו של האדם. הן לא מתעייפות, לא מאבדות ריכוז, לא נעלבות, לא מצוברחות. כל דבר שהאדם מוגבל בו – הבינה המלאכותית משתפרת בו”.
     
    בשונה ממבחני אינטליגנציה אנושיים, מדידת האייקיו של הבינה המלאכותית נעשית לפי הצלחה במבחנים אנליטיים, יכולת פתרון בעיות מורכבות, מהירות תגובה, הבנה של הקשרים מופשטים, יצירתיות וניסוח טקסטים. כאשר בינה מלאכותית כמו GPT-4 מצליחה לענות נכון על שאלות מבחני לשכה בארה”ב, או לנסח מאמר מדעי אמין בזמן קצר, מומחים מחשבים את ביצועיה כאילו היו אדם, ומפיקים מכך אינדיקציה לערך האיי קיו שלה. זהו כמובן חישוב תיאורטי בלבד, אך הוא נותן אינדיקציה על עוצמת המערכת.
     
    ולא מדובר רק בצ’אטבוטים שמנסחים טקסטים. יש מערכות שיודעות להלחין מוזיקה, לצייר, לזהות פרצופים, לתכנת, לייצר צילומים מדויקים ולהפעיל רובוטים בעולם הפיזי. אבל מה שקורה מאחורי הקלעים הרבה יותר מעניין – היכולת לעשות מה שמכונה “ריזונינג” – כלומר, להבין לא רק את השאלה שנשאלה, אלא לנתח מה עמד מאחוריה, לשער את הכוונה האמיתית, לשאול שאלות הבהרה, ולהשיב תוך חידוד מטרות המשתמש.

    הקללה שבברכה

    ואז מגיעות הבעיות: בשנים האחרונות נחשפו שורה של כשלים מביכים, מסוכנים – ולעיתים גזעניים. באחד המקרים, מערכת בינה מלאכותית לניבוי פשיעה בארה”ב תייגה אוכלוסיות אפרו־אמריקניות כבעלות פוטנציאל גבוה לפשע, למרות שלא היה לכך כל ביסוס. מערכת מיון קורות חיים אחרת העניקה ניקוד גבוה לגברים בלבד והדירה נשים לחלוטין. בצ’אטבוטים מוקדמים, היו גם תקלות מביכות במיוחד, בהם מערכות שלמות הביעו דעות אנטישמיות, הצדקה לשואה או הכחשתה.
     
    ולא רק תקלות מביכות או מסוכנות טומנת בחובה הבינה המלאכותית, גם למוח שלנו אורבת סכנה אמיתית של ניוון: “אנחנו רואים כבר היום הרבה מאוד אנשים שלא מצליחים להתמודד בלי הבינה המלאכותית” מסביר ברזילי, “כל משימה הופכת להיות תלויה במערכת. אנשים שואלים את צ’אט ג’י פי טי שאלות בסיסיות במקום לחפש לבד, לא זוכרים מספרי טלפון, לא קוראים מאמרים בעצמם. וכשזה קורה – יש האטה של המוח האנושי”.

    לדעת ברזילי, לא מדובר בהתפתחות טבעית כמו כל מהפכה טכנולוגית: “יש הבדל מהותי”, מבהיר ברזילי. “בינה מלאכותית עלולה להוביל אותנו לנקודת הסינגולריות – מצב שבו תהיה בכדור הארץ ישות חכמה מאיתנו. כמו חור שחור – לא ניתן לראות מעבר לו. אם תיווצר מערכת שמסוגלת לפתח את עצמה ולשפר את עצמה בלי שנבין מה היא עושה, אז נהיה בבעיה. כבר היום יש מערכות שיודעות לייצר בינה מלאכותית חדשה – כלומר, בינה שיוצרת בינה”.
     
    בעולם כבר החלו לפעול. נשיא ארה”ב חתם על צו המגביל שימושים מסוימים במערכות בינה מלאכותית, כולל חובת סימון תכנים שנוצרו בבינה, דרישות בטיחות בפיתוח מערכות עצמאיות, ותיאום עם גופי ביטחון. באירופה גובש לאחרונה חוק הבינה המלאכותית של האיחוד האירופי: רגולציה מקיפה שמחלקת את המערכות לרמות סיכון ומטילה חובות שקיפות, הסבר, ומניעת פגיעה בזכויות אדם.
     
    גם בישראל נעשית עבודה, אם כי בקצב איטי יותר. משרד המשפטים ומרכז המחקר של הכנסת החלו לבחון רגולציה ישראלית לבינה מלאכותית. בישראל פועלת גם יחידת מדיניות בינה מלאכותית במשרד החדשנות, ומספר אוניברסיטאות כמו תל אביב והעברית הקימו ועדות אתיקה וטכנולוגיה.

    אבל לפי ברזילי, זה לא מספיק: “עלול להיווצר מצב שמדינה אחרת תפתח מערכת חזקה הרבה יותר. אפשר יהיה לייצר מניפולציות בבורסות, רחפנים תוקפים, טיסות קרב אוטונומיות. זו תהיה מלחמת עולם רביעית. אם מדינה אחת תנצח בבינה מלאכותית – שום רגולציה לא תעזור כדי לעצור אותה”.

    ולדימיר פוטין (צילום: רויטרס)
    ולדימיר פוטין (צילום: רויטרס)

     “כל פעם מחדש חושבים שטכנולוגיה חדשה תהפוך את בני האדם לטפשים יותר”  מסכם ברזילי, “כך חשבו אחרי המצאת הרדיו, הטלוויזיה, הסלולרי. אבל ההיסטוריה מלמדת שכל דור חדש לוקח את הפיתוחים ומתקדם איתם הלאה. כל פיתוח חדש הוביל את האנושות קדימה. השאלה היא אם הפעם זו לא תהיה הפעם האחרונה”.





    Source link

    LEAVE A REPLY

    Please enter your comment!
    Please enter your name here

    Must Read

    spot_img