"אני מצטער דייב, אני חושש שאני לא יכול לעשות זאת"
מאמרים מקצועיים

"אני מצטער דייב, אני חושש שאני לא יכול לעשות זאת"

עדי מרכוס, עו"ד

נכתב על ידי

עדי מרכוס, עו"ד
28 יולי 2024
הדפסה
PDF

בסרט הקלאסי "2001: אודיסאה בחלל" (1968), טוענת בינה מלאכותית בשם האל כי "אף מחשב מסוג זה מעולם לא עשה טעות או סילף מידע. אנחנו תחת כל הגדרה – חסינים ולא יכולים לטעות", כמה דקות לפני שהיא מתחילה להביא למותם של האסטרונאוטים. ב"שליחות קטלנית" (1984), הבינה המלאכותית סקיינט מנהלת מלחמת חורמה נגד שארית האנושות בניסיון לחסל אותם. אולם, מה אם הייתה בידינו הדרך להבטיח שסקיינט לא תיוולד לעולם או שהאל לא תוצב לעולם על ספינת חלל? הרגולציה החדשה של האיחוד האירופי לעניין בינה מלאכותית לאו דווקא תציל את האנושות (ונודה, שאם כן אז זה יהיה סרט מדע בדיוני משעמם במיוחד), אולם היא שואפת, לפחות בבסיסה, לאפשר לעסקים לזהות בינה מלאכותית "מסוכנת" ולהגביל את יכולתה להתפתח ולנוע בשוק ללא פיקוח.

הרגולציה, אשר טיוטה שלה פורסמה עוד במאי 2024, ואשר נכנסה לתוקף לבסוף ב-01 אוגוסט, 2024, שואפת ליצור גבולות אתיים ושקיפות בנושא השימוש בבינה מלאכותית ולהחיל את הגבולות כאמור בצורה אחידה בכל העולם, כפי שרגולציית הפרטיות של האיחוד (GDPR) השפיעה על כלל העולם. כך, הרגולציה מוחלת לא רק על כל עסק בתחום הבינה המלאכותית באיחוד אלא גם על כל עסק בעולם, המשווק או מפעיל את מוצריו הכוללים בינה מלאכותית, ברחבי האיחוד.

הרגולציה נוקטת גישת "הערכת סיכונים" המסווגת את מערכות הבינה המלאכותית ל- 4 דרגות סיכון: בלתי סביר, גבוה, מוגבל ומינימלי. במסגרת הסיווג כאמור, מערכות המאפשרות למפעיל לנצל בינה מלאכותית למטרות שאינן אתיות, למשל, מסווגות כסיכון בלתי סביר. כך, למשל, מערכות שבנויות כדי לנצל חולשות של אנשים כתוצאה מגיל או מגבלה פיזית, מערכות שמנצלות מידע ביומטרי לצורך קיטלוג לפי דת, גזע או מין או מערכות שאוספות תמונות מהאינטרנט או ממצלמות אבטחה למאגר שישמש לזיהוי פנים. פעולות אלה, המהוות רשימה סגורה, אסורות וחברה העומדת מאחורי מערכת כזו חשופה לקנסות של עד 35 מיליון יורו או 7% מרווחי החברה השנתיים, הגדול מביניהם.

לעומת זאת, סיווג בסיכון גבוה אינו מונע שימוש אך דורש רישום במאגר האיחוד האירופאי והצבת חסמים, מערכות ניהול סיכונים ופיקוח אנושי, שנועדו לפקח על המערכת ולוודא שלא תצא מכלל שליטה או תממש את הסיכון. במערכות בסיכון מוגבל ההגבלות והדרישות פחותות בהרבה ומרבית הדרישות נוגעות לשקיפות וגילוי נאות. במערכות בסיכון מינימלי, אשר נתפסות כמערכות בינה מלאכותית כלליות יותר המסוגלות למספר גדול של מטרות, החוק מתיר אותן לרוב ללא התייחסות ומשאיר אותן לחסות תחת חקיקה מקומית או אירופאית אחרת.

הבעיה היא כמובן שמערכות הבינה המלאכותית, מעצם הגדרתם, הן מערכות לומדות ומתפתחות. קיימת סבירות גבוהה שהרשימה הסגורה שמציגה הרגולציה לעניין מערכות בסיכון בלתי סביר תהא לוקה בחסר באופן משמעותי עוד מספר שנים כשהתפתחות טכנולוגית תאפשר ותציף בעיות אתיות מהותיות שהחוק אינו צופה. בנוסף, גם ההגדרה של מערכות בסיכון גבוה היא אמורפית ומקשה על חברות בסיווג נכון של המערכות המופעלות על ידם, מעבר לכך שלא תמיד ניתן לצפות מלכתחילה את הסיווג של המערכת המפותחת. כך יכולה חברה למצוא עצמה מפתחת מערכת בינה מלאכותית ומשקיעה כספים ומשאבים ניכרים, רק כדי לגלות בסוף הדרך שהמערכת שפותחה נופלת נחשבת בסיכון בלתי סביר (ולו רק בגלל שיכולה לבצע אילו מן הדברים המנויים ברגולציה, אפילו אם הוא משני למטרות המערכת) ועל כן לא יכולה לפעול או נדרשת להשקיע עוד כספים ומשאבים בהוספת חסמים והליכי בדיקה בשל הסיווג כמערכת סיכון גבוה.

החוק לא נועד לחול במלואו באופן מיידי ונותן לוח זמנים, הפרוס על פני 5-6 שנים, לתחולת החוק בשלבים. כך, למשל, דרישות השקיפות מיועדות ליישום בשנה הראשונה אולם דרישות אופרטיביות של פיקוח אנושי במערכות סיכון גבוה נדרשות ליישום רק תוך שנתיים ויותר. ועדיין, המדובר בלוח זמנים נוקשה ובהגדרות מסובכות ורגישות, המחייבות כל חברה בתחום לבצע במיידית בדיקה משפטית וטכנית מדוקדקת של הערכת סיכונים ותכנון עתידי על מנת לוודא עמידה בדרישות בבוא העת וחשוב שהדבר ייעשה בשיתוף עורכי דין בעלי הבנה של התחום הטכנולוגיה ושל הרגולציה החדשה.