חיפוש אמוק – על אתגרי הפרטיות שמציב מודל ה AI הסיני מודל 2025
מאמרים מקצועיים

חיפוש אמוק – על אתגרי הפרטיות שמציב מודל ה AI הסיני מודל 2025

גלעד בר-עמי, עו"ד

נכתב על ידי

גלעד בר-עמי, עו"ד
24 אפריל 2025
הדפסה
PDF

בספרו של קרלו קולודי (Carlo Collodi) הרפתקאותיו של פינוקיו משנת 1883, מגיע פינוקיו ל'ארץ המשחקים' רק בכדי לגלות שמאחרי פארק השעשועים מסתתרת תכנית זדונית להפוך את הילדים התמימים לחמורים ולהתעשר ממכירתם.  142 שנים לאחר מכן, ב-2025, נחשף מודל בינה מלאכותית (AI) חדש בשם Deep Seek-R1, אשר, לדברי מפתחיו הסינים, מתיימר, בין היתר, להציע יכולות דומות למודלים מערביים, ובעלויות נמוכות משמעותית.  אלא, שרעש הבאזז החריש את קולם של אלו, שכמו ג'מיני הצרצר לפני 142 שנים, ניסו להזהיר.

כך, בניגוד לChat GPT, לא ניתן לעשות שימוש במודל ללא הזדהות או במצב אנונימי, וגם אפשרות למנוע איסוף מידע אינה קיימת.  עיון במדיניות ה(העדר-)פרטיות מדליק נורות אזהרה מסנוורות נוספות.  כך, למשל, מצוין שם שנאספים נתוני מיקום, פרטים מזהים ומעל הכל, תחת צירוף המילים התמים "text input", כל המידע שהמשתמש מזין תוך כדי שימוש.  כאשר לאלו נוסף "דובדבן" שמירת המידע על גבי שרתים בסין וציון כי החברה תשתף את המידע שייאסף עם הרשויות או כל צד ג', אם מדובר (בין היתר) בבקשה ממשלתית.

בניגוד למוכנות לשתף מידע של משתמשים, החברה לא שיתפה פעולה באופן מספק עם בדיקה שערכה הסוכנות האיטלקית להגנה על פרטיות (Garante) באשר לאיסוף המידע ואחסונו.  בנוסף, החברה עומדת על כך שחוקי הפרטיות של האיחוד האירופי (GDPR) אינם חלים עליה היות ואין לה נציגות באיחוד האירופי - עמדה שסותרת חזיתית את עמדתו המסורתית האיחוד האירופאי, כי חוקי ה GDPR חלים לגבי מידע של תושביו.  בעוד שאיטליה חסמה לחלוטין את השימוש במודל ומדינות אחרות כגון קנדה ואוסטרליה הגבילו אותו, הרשויות בישראל בחרו, עד כה, להתעלם מהדרקון הסיני שבחדר.  אך מה עמדת הדין הישראלי ביחס לסוגיות דלעיל?

שניים מהעקרונות שבבסיס דיני ההגנה על הפרטיות בישראל הם: עקרון ההסכמה (ודרישת השקיפות הנלווית אליו), המחייב לפרט בפני נשוא ההחלטה את כלל המידע הרלוונטי לקבלת הסכמתו לשתף מידע, לרבות מה נאסף, מה השימושים, למי נמסר ולאיזו מטרה;  ועקרון צמידות המטרה, המחייב שימוש במידע רק למטרה לשמה נאסף.  במידע שנאסף ומעובד על ידי בינה מלאכותית קיים קושי אינהרנטי בקיום עקרונות אלו בשל העדר היכולת של מפעיליה להסביר כיצד היא הגיעה למסקנה מסוימת, קרי, מה השימוש המדויק (אם בכלל) שנעשה (קל וחומר שיעשה) במידע ספציפי שנאסף.  אלא, שניסוחה העמום של מדיניות הפרטיות של המודל ואופן הפעלת המודל, לרבות העדר אפשרות להגביל זיהוי או איסוף ועיבוד מידע או למחקו, מובילים להחרפת בעיות אלו, סותרים את מדיניות הרגולטור הישראלי לצמצום איסוף מידע פרטי[6] ובפועל מאיינים את יכולת נשוא האיסוף להקטין את הפגיעה בו.

יוער כי בעוד שהרשויות מתמקדות במידע האישי של יחידים, החשש קיים גם למידע של תאגידים.  כך, כפי שכתבנו בעבר, לצד הבטחה עצומה, מהפכת הבינה המלאכותית טומנת בחובה סכנות מרובות לפרט ולתאגיד.  משכך חשוב להיות מלווה בעורך דין הבקיא בתחום טרם השימוש בכלים אלו ובתוצריהם..afiklaw.com/articles/a419