בינה מלאכותית ואחריות נזיקיץ

מהפכה באחריות מנועי בינה מלאכותית?

מבוא 

עולם הבינה המלאכותית מתפתח במהירות מסחררת, ואיתו גם הסיכונים הכרוכים בשימוש בטכנולוגיה זו. הצורך בשינוי ברור: כיום, אדם שנפגע ממערכת בינה מלאכותית עומד בפני משימה כמעט בלתי אפשרית. עליו להוכיח לא רק את הנזק שנגרם לו, אלא גם את הקשר המדויק בין המערכת הטכנולוגית המורכבת לבין הפגיעה. זוהי משימה שדורשת מומחיות טכנית עמוקה, גישה למידע שנמצא בידי החברות המפתחות, והוצאות כספיות משמעותיות על מומחים ובדיקות.

הפתרון האירופי מציע גישה חדשה ומאוזנת. במקום להטיל את כל נטל ההוכחה על הנפגע (התובע, יש לזכור), הדירקטיבה בה נעסוק מיד יוצרת מנגנון משפטי חדש: ברגע שאדם מצליח להציג ראיות בסיסיות לנזק ולקשר אפשרי בינו לבין מערכת הבינה המלאכותית, הכדור עובר למגרש של החברה המפעילה. עליה להציג את המידע הרלוונטי לאותו נזק ולהוכיח שלא התרשלה.

זהו עיקרון דומה למה שאנחנו מכירים בישראל כ"הדבר מדבר בעד עצמו" (סעיף 41 לפקודת הנזיקין), אבל הוא הותאם במיוחד לעידן הטכנולוגי החדש. הרעיון פשוט: כשהמידע נמצא בידי החברה המפתחת, הגיוני שהיא תהיה זו שתצטרך להסביר מה קרה.

עם זאת, האיחוד האירופי מכיר בצורך לאזן בין זכויות הנפגעים לבין האינטרסים העסקיים הלגיטימיים של החברות המפתחות. לכן, הדירקטיבה מאפשרת לבתי המשפט להגן על סודות מסחריים של מפעילי הבינה המלאכותית, ולחייב את חשיפת המידע ההכרחי להוכחת או דחיית התביעה, ואותו בלבד. יתרה מזאת, היא חלה רק על מערכות שהוגדרו מראש כ"בעלות סיכון גבוה" לפי חוק הבינה המלאכותית האירופי, הEU AI Act-).

הדירקטיבה לאחריות נזיקית (שאינה חוזית)

בספטמבר 2022 הציע האיחוד האירופי פתרון חדשני לאחת הבעיות המורכבות ביותר בתחום: כיצד להגן על אזרחים שנפגעו ממערכות בינה מלאכותית. ההצעה, דירקטיבה 2022/3030 (העוסקת בשאלת האחריות הלא-חוזית למערכות בינה מלאכותית), מציעה מהפכה של ממש בתחום האחריות הנזיקית ביחס למנועי בינה מלאכותית (חשוב לשים לב שאין בה התייחסות לאלמנטים פליליים כלשהם, שנותרו באחריות המדינות הפרטניות.

סעיף 3 לדירקטיבה מציג את החידוש הראשון והמשמעותי: חובת גילוי מידע. על פי סעיף זה, ברגע שנפגע מצליח להציג ראיות סבירות לנזק ולקשר כלשהו בין הנזק למערכת הבינה המלאכותית, מוטלת על מפעיל המערכת חובה לחשוף מידע רלוונטי. זהו שינוי דרמטי מהדין הקיים, שבו נטל ההוכחה נופל כולו על כתפי התובע. חשוב להדגיש: אם המפעיל יסרב לספק את המידע הנדרש, הדבר יפעל לחובתו בהליך המשפטי.

הדירקטיבה מכירה בכך שחובת גילוי זו עלולה לפגוע בסודות מסחריים. לכן, סעיף 3 מסמיך את בתי המשפט לאזן בין הצורך בגילוי לבין ההגנה על מידע עסקי רגיש. בית המשפט יורה על גילוי רק של מידע הכרחי ופרופורציונלי לנסיבות המקרה.

סעיף 4 לדירקטיבה מוסיף נדבך משמעותי נוסף: חזקת אחריות לכאורה. כאשר תובע מצליח להציג ראיות לכאוריות לאחריות ולקשר סיבתי בין מערכת הבינה המלאכותית לנזק, קמה חזקה משפטית שהמפעיל אחראי לנזק. חזקה זו ניתנת לסתירה בידי הנתבע, המפעיל. כלומר נטל ההוכחה עובר למפעיל המערכת להראות שלא הוא זה שגרם לנזק (ולא לתובע, שעליו הראיה).

שילוב שני הסעיפים הללו יוצר מנגנון משפטי מוכר, אך חדשני ביישומו, שמתמודד עם האתגר המרכזי בתביעות נזיקין בתחום הבינה המלאכותית אך מותאם במיוחד לאתגרים הייחודיים של העידן הדיגיטלי: פערי המידע ו(חוסר) היכולת להוכיח אחריות לנזק או קשר סיבתי.

במהלך הכנת הדירקטיבה שקלה נציבות האיחוד האירופי אפשרויות נוספות, ביניהן הטלת אחריות מוחלטת על מפעילי מערכות בינה מלאכותית. בסופו של יום, נבחרה גישה מאוזנת יותר, תוך קביעה שהפתרון המשפט יעמוד לבחינה ובדיקה בעתיד, והוא עלול להשתנות בהתאם למציאות. המטרה היתה מצד אחד לאפשר המשך פיתוח טכנולוגי ומולו, לתת הגנה לזכויות האזרחים שעלולים להיפגע.

מעניין במיוחד הוא שהאיחוד האירופי מכיר בכך שזהו תחום מתפתח, ולכן הדירקטיבה כוללת מנגנון לבחינה מחודשת של יעילותה לאורך זמן. זוהי גישה פרגמטית המכירה בכך שככל שהטכנולוגיה תתפתח, ייתכן שיהיה צורך להתאים את המסגרת המשפטית.

ביולי 2024, למרות התנגדויות שונות, אישרה הנציבות האירופית את קידום הדירקטיבה שבעתיד תתקדם ותהפוך למחייבת. צעד זה מסמן תחילתו של עידן חדש באיזון שבין חדשנות טכנולוגית לבין הגנה על זכויות אזרחים. זהו מודל שעשוי להשפיע על מדינות רבות נוספות, כולל ישראל, בבואן להתמודד עם האתגרים המשפטיים שמציבה הבינה המלאכותית.