עיתון אוניברסיטת בן-גוריון בנגב
המחקר מהווה תמרור אזהרה לבעלי תפקידים, לחברות הטכנולוגיה ולציבור הרחב. בעידן שבו מערכות בינה מלאכותית זמינות לכל אדם בעל מחשב או טלפון חכם, האחריות לניהול הסיכון לא יכולה להישאר בידי המפתחים בלבד. החוקרים קוראים לשיתוף פעולה רחב שיכלול בקרה ציבורית, רגולציה ברורה ושיפור דרכי הפיתוח בתעשייה. ד״ר פייר קובע כי יש להקדים תרופה למכה ולהסדיר את התחום לפני שיתרחש אירוע חמור. למרות תחושת הדחיפות מציינים החוקרים כי פתרונות קיימים כבר היום, וכעת נדרש לחזקם וליישמם באופן שקוף. המחקר פותח דיון חיוני על האיזון שבין חדשנות ובין שמירה על ביטחון הציבור, ועל החובה להבטיח שהכלים המקדמים את החברה לא יהפכו, חלילה, לכלים המאיימים עליה.
המאפשרות למודלים לשכוח תכנים מסוימים שנכנסו אליהם בעבר ושעלולים לשמש למעשי עבירה נכלל אף הוא ברשימת ההמלצות של ד"ר פייר ופרופ' רוקח. עוד הם קוראים לקבוע כללי בקרה מחייבים ולבחון את המודלים באמצעות גורמים עצמאיים, בדומה לנוהלי בטיחות בתחומים רגישים אחרים. לדברי החוקרים, ההמלצות אינן עניין טכני בלבד אלא דורשות גם הסדרה רגולטורית. לטענתם יש להתייחס למידע האפל המצטבר במודלים כסיכון ביטחוני של ממש ולחייב את ספקי המערכות לשאת באחריות על דרך השימוש בהן. פרופ׳ רוקח מזהיר כי מדובר באיום חדש בשל השילוב המיוחד של נגישות, יכולת התרחבות ויכולת הסתגלות, וקורא לפעול במהירות להסדרת הפיתוח והשימוש במערכות מן הסוג הזה.
המתקדמים מציגים יכולת להסיק מסקנות מורכבות ולשלב ידע מפוזר ליצירת תכנים חדשים. לדבריו, יכולת זו מגבירה את הסיכון במיוחד לנוכח התפתחותם של כלים אוטומטיים המסוגלים לפעול באופן עצמאי ולהרחיב את טווח הפעולות בלי בקרה מספקת. "כלים אלו", מזהיר פרופ' רוקח, "אף עלולים להעניק סיוע לא מודע למי שמבקש לנצל את יכולותיהם לרעה". על יסוד הממצאים ממליצה קבוצת המחקר מהפקולטה למדעי המחשב והמידע על שם שטיין לחזק את בקרת האיכות בנתוני האימון ולהסיר מהם חומרים בעלי פוטנציאל מזיק. כמו כן מציעים החוקרים לפתח מנגנוני חסימה מתקדמים המונעים מהמערכת לענות על בקשות העלולות להוביל ליצירת תוכן מסוכן. פיתוח שיטות
11 | אבג
Made with FlippingBook Online newsletter creator