פסקי דין

עעמ 63194-08-25 נבו בן כהן נ' עיריית רמת גן - חלק 4

22 מרץ 2026
הדפסה

 

     

נעם סולברג

משנה לנשיא

 

 

השופט עופר גרוסקופף:

אני מסכים.

     

עופר גרוסקופף

שופט

 

 

השופטת גילה כנפי-שטייניץ:

אני מצטרפת בהסכמה לפסק דינו של חברי, המשנה לנשיא נ' סולברג.  חברי היטיב לתאר את הכשלים שנפלו בהתנהלות העירייה, ופסק דינו מציב תמרור אזהרה באשר לאופן השימוש של רשויות המינהל במערכות בינה מלאכותית.  אכן, תועלות רבות עשויות לצמוח משימוש בכלי בינה מלאכותית על-ידי רשויות המינהל - הן בשיפור השירות לאזרח, הן בחיסכון משאבי ציבור.  ואולם לצד תועלות אלה, הדגיש חברי בצדק את הסכנה הטמונה, נכון לעת הזאת, בהסתמכות עיוורת על טכנולוגיה זו.

לנוכח קצב התפתחותם המהיר של כלי הבינה המלאכותית, והתמורות שאלה צפויים לחולל בשירות הציבורי, ראיתי להעיר מספר הערות על האתגרים שמציבה קבלת החלטות תוך שימוש בכלי בינה מלאכותית, באספקלריה של המשפט המינהלי.

  1. ראשית, דומה כי תהום פעורה בין הגשת כתבי בית דין הנסמכים על אסמכתאות שאינן קיימות, פרי "הזייתה" של בינה מלאכותית, לבין קבלת החלטה מינהלית המבוססת על כלים אלה. חברי, המשנה לנשיא סולברג, נעץ את הכשל המינהלי בעילת השרירות, אך נראה כי הבעיה עלולה לרדת במקרים מסוימים לשורש הסמכות גופה.  שהרי לא אחת שנינו כי כלל יסוד הוא, שרשות אינה רשאית להתפרק משיקול דעתה או לאצול סמכות ללא הסמכה מפורשת (בג"ץ 2303/90 פיליפוביץ נ' רשם החברות, פ"ד מו‏(‏1‏)‏ 410, 420 ‏(‏1992‏) (להלן: עניין פיליפוביץ);‏‏ ברוך ברכה משפט מינהלי כרך שני 154 (1996)).  מזווית זו, יש המצביעים על כך ששילוב מערכות בינה מלאכותיות בתהליך קבלת החלטות מאתגר איסור זה, שכן הלכה למעשה, החלטות פרטניות, ואף החלטות הנוגעות לעיצוב מדיניות כללית, "מואצלות" לאלגוריתם ובמובלע לספקים הפרטיים המפתחים אותו (Deirdre K.  Mulligan & Kenneth A.  Bamberger, Procurement as Policy: Administrative Process for Machine Learning, 34 Berkeley Tech.  J.  773 (2019) (להלן: Mulligan & Bamberger);Danielle Keats Citron, Technological Due Process, 85 Wash.  U.  L.  Rev.  1249, 1296-97 (2008) (להלן: Citron)).
  2. אכן, יש ששימוש בכלי בינה מלאכותית ייעשה תוך הסתייעות בהם ותו לא - הסתייעות שאף היא צריכה להיות זהירה ומבוקרת - מבלי שתתפרק הרשות המינהלית משיקול דעתה המקצועי (והשוו: בג"ץ 38379-12-24 פלונית נ' בית הדין השרעי לערעורים ירושלים, פסקה 26 [נבו] ‏(23.2.2025‏)‏‏ (להלן: עניין פלונית)). ואולם, התמונה משתנה מקום בו מועברת קבלת ההחלטה עצמה לכלי הבינה המלאכותית.  במצב דברים זה, שוב לא ניתן להשקיף על השימוש במערכת כ'הסתייעות טכנית' גרידא, מעין שימוש במחשבון, מאגר מידע או כלי ניסוח (עוד על ההבחנה בין אצילה להסתייעות ולהתייעצות, ראו: עניין פיליפוביץ, בעמ' 424-422; דפנה ברק-ארז משפט מינהלי כרך א 180-178 (2010)), אלא כהעתקת מרכז הכובד של הפעלת שיקול הדעת מן האדם אל כלי הבינה המלאכותית.  העברת ההכרעה לבינה מלאכותית המפעילה מעין "שיקול דעת" משלה, עלולה לעלות במקרים מסוימים כדי התפרקות פסולה משיקול הדעת או אצילה אסורה.

כך, למשל, אירע במקרה שלפנינו, בו ביססה הרשות את החלטתה על חוזר מנכ"ל שאינו קיים, פרי "הזייתה" של הבינה המלאכותית, תוך הפניות לסעיפיו השונים והסתמכות על "ציטוטים" מפורטים מאותו חוזר מומצא.  לא יכול להיות חולק כי לו התקבלה ההחלטה על-ידי גורם אנושי, תוצרו של ההליך המינהלי היה שונה בתכלית.  יתר על כן, לו נמסרה ההחלטה למערער ללא פירוט החוזר עליו בוססה, ייתכן שכלל לא היה עולה בידו לעמוד על הכשל שבבסיסה.

  1. כדי להימנע מהתפרקות פסולה מסמכותה ומשיקול דעתה של הרשות המינהלית, קובע חברי, בצדק, כי על גורמי המינהל להפעיל בקרה אנושית על תוצר המערכת ולבוחנו בטרם קבלת החלטה. רוחה של גישה זו, המכונה ה"אדם בלולאה" (Human-in-the-Loop) מנשבת גם בשיטות משפט מקבילות (ראו לדוגמה סעיף 22 לתקנות הכלליות של האיחוד האירופי בדבר הגנת מידע (General Data Protection Regulation); ולהרחבה על גישות רגולטוריות שאומצו במשפט המשווה, ראו: Ben Green, The Flaws of Policies Requiring Human Oversight of Government Algorithms, 45   L.  & Sec.  Rev.  1, 4-7 (2022) (להלן: Green); Aziz Z.  Huq, A Right to a Human Decision, 106 Va.  L.  Rev.  611, 620-27 (2020)).

אכן, פיקוח אנושי עשוי, בין היתר, להגביר אחריותיות ובמקרים מסוימים לטייב את איכות ודיוק תוצרי המערכת (משרד החדשנות, המדע והטכנולוגיה ומשרד המשפטים עקרונות מדיניות, רגולציה ואתיקה בתחום הבינה המלאכותית 56-55 (2023) (להלן: מסמך מדיניות ורגולציה בתחום הבינה המלאכותית)).  ואולם, הספרות המחקרית העדכנית מלמדת כי דרישה להשגחה אנושית, כשהיא לעצמה, רחוקה מלספק הגנה הולמת מפני כשלים או טעויות של הבינה המלאכותית; ומזהירה מפני הוספה של גורם אנושי לשרשרת קבלת ההחלטות, מבלי ליתן את הדעת למורכבות הממשק שבין אדם לכלי הבינה המלאכותית (ראו במאמר אליו הפנה חברי: Rebecca Crootof, Margot E.  Kaminski & W.  Nicholson Price II, Humans in the Loop, 76 Vand.  L.  Rev.  429 (2023).  כן ראו: Citron, בעמ' 1277-1271; Green, בעמ' 11-7).  כך לדוגמה, ממשק זה סובל פעמים רבות מהטיות קוגניטיביות המאתגרות את יעילות הפיקוח.  יש שמפקחים אנושיים נוטים להסתמך יתר על המידה על תוצרי המערכת במקום להפעיל שיקול דעת עצמאי (תופעה המכונה "הטיית האוטומציה" (automation bias)).  מן העבר השני, מצביעים מחקרים על נטייה בלתי רציונלית לדחות החלטה שהתקבלה על-ידי מערכת בינה מלאכותית, גם בהיעדר הצדקה לכך (תופעה המכונה סלידה אלגוריתמית (algorithm aversion); ולהרחבה על הטיות אלה, ראו: Marina Chugunova & Daniela Sele, We and It: An Interdisciplinary Review of the Experimental Evidence on How Humans Interact with Machines, 99 J.  Behav.  & Exp.  Econ.  1, 8-9 (2022); מסמך מדיניות ורגולציה בתחום הבינה המלאכותית, בעמ' 58-57).  עוד יש ליתן את הדעת לכך שמעורבות אנושית הנעשית ללא האמצעים והידע הנדרשים, לעיתים קרובות נעדרת יכולת ממשית לזהות את טעויותיה או הטיותיה של הבינה המלאכותית ולתקנן.  במקרים אחרים, היא אף עשויה לגרוע מאיכות התוצר המתקבל על-ידי הבינה המלאכותית ולקזז מיתרונותיה (מסמך מדיניות ורגולציה בתחום הבינה המלאכותית, בעמ' 57-56; Green, בעמ' 8; Amit Haim, The Administrative State and Artificial Intelligence: Toward an Internal Law of Administrative Algorithms, 14 UC Irvine L.  Rev.  103, 142 (2024)).

  1. לנוכח תובנות אלו, המובאות על קצה המזלג, יש להיזהר מלקרוא את מודל ה"אדם בלולאה" כהכשר לפיקוח אנושי פורמלי בלבד. ברי כי אין להסתפק אך בפיקוח ובחינה פסיבית של תוצרי המערכת, ויש לדרוש, מעבר לחובה עליה עמד חברי, מעורבות משמעותית יותר מצד הרשות.  חובה מוגברת זו אינה עשויה מקשה אחת, והיא יכולה ללבוש ולפשוט צורה בהתאם לטיב ההחלטה המינהלית ולמאפייני המערכת בה נעשה שימוש.  מבלי למצות, מעורבות זו עשויה להשמיע, בין היתר, שימוש מושכל הכולל היכרות מספקת עם יתרונותיה, מגרעותיה ומגבלותיה של המערכת; וחשוב מכך - כשירות וסמכות לדחות את המלצותיה במקרים המתאימים (והשוו: :State v.  Loomis, 881 N.W.2d 749, 768-70 (Wis.  2016); Green, בעמ' 7-6).  היא עשויה להטיל חובה לניטור מתמשך של התוצרים המתקבלים, תוך בחינתם בעין ביקורתית, בין היתר, על דרך השוואתם להחלטות אנושיות דומות.  בפרט באשר לסוגיות בעלות השפעה ממשית על הפרט, כבענייננו.  אפשר כי על מעורבות זו להתחיל עוד בשלבי עיצוב המערכת והליך למידתה - תוך התאמת מאפייניה לכללי המשפט המינהלי (וראו: Mulligan & Bamberger, בעמ' 773).  לבסוף, ראוי כי טרם הטמעת המערכות, רשויות המדינה יקיימו הליך מקדים במסגרתו ייבחן האם ההחלטה הנדרשת אכן הולמת הסתייעות במודל בינה מלאכותית; ואם המודל הספציפי אמין דיו והולם במאפייניו כדי לסייע בקבלת אותה ההחלטה (ולשיקולים הצריכים לעניין זה ראו: Citron, בעמ' 1304-1303; Green, בעמ' 15-11).  מובן כי יש לשוב ולתקף מסקנות אלה מעת לעת בראי התמורות הטכנולוגיות והכלים הזמינים לשימוש.
  2. הערות אלה רחוקות מלמצות את מנעד האתגרים העקרוניים והשיקולים שראוי ליתן עליהם את הדעת עת נעשה שימוש בכלי בינה מלאכותית על-ידי המינהל הציבורי. דברים אלה הם בבחינת קריאת כיוון לשאלות שבוודאי יעסיקו במעלה הדרך את רשויות המינהל, ולכללים שטוב אם יעוצבו "עקב בצד אגודל".  מאליו מובן כי ממשק העבודה הראוי שבין האדם לבין בינה מלאכותית הוא תלוי נסיבות.  יש לעצבו בשום שכל, בזהירות ובשים לב לתמורות הטכנולוגיות התדירות המאפיינות טכנולוגיה זו.  אף לא מן הנמנע כי נוכח קצב ההתפתחות המואץ של הטכנולוגיה, יאבד ביום מן הימים הכלח על האמצעים המפורטים לעיל, והחובות המהותיות המוטלות על הרשות יבואו על סיפוקן בדרכים חלופיות שטרם ידענו.  כפי שהזדמן לי לציין במקרה אחר - "יש לקחת בחשבון את האפשרות כי חששות אליהם אנו נדרשים כיום, יזכו במרוצת הזמן למענה טכנולוגי מספק; וכי הכללים שיפים לשעה זו, יפנו מקומם לכללים עדכניים ומתאימים יותר" (עניין פלונית, בפסקה 26).

אולם לפי שעה, אימוץ של כלי בינה מלאכותית דורש "לעשות בטכנולוגיה זו שימוש אחראי, זהיר וביקורתי, להבין לעומקן את יכולותיה ומגבלותיה, ולהתעדכן מעת לעת בכל הנוגע לחולשותיה וחוזקותיה" (עניין פלונית, בפסקה 26).  דברים אלה, שנאמרו ביחס לחובותיהם של עורכי דין, יפים מקל וחומר מקום בו עסקינן ברשויות המדינה.

עמוד הקודם1234
5עמוד הבא