top of page

גם בעידן הבינה – אין קיצורי דרך לצדק: טעויות AI יובילו להוצאות אישיות

  • תמונת הסופר/ת: מגזין בית המשפט
    מגזין בית המשפט
  • לפני 15 שעות
  • זמן קריאה 3 דקות

בתי המשפט בישראל ניצבים בתקופה האחרונה בפני אתגר טכנולוגי שלא הכירו בעבר: שימוש גובר בבינה מלאכותית (AI) על ידי עורכי דין – שלעיתים, מבלי להבין את מגבלות הכלים, מביא להטעיית הערכאות השיפוטיות ולהפרת החובות המקצועיות המוטלות על בעלי רישיון עריכת דין.


יותר ויותר תיקים נחשפים, שבהם הוגשו כתבי טענות, חוות דעת ומסמכים משפטיים המבוססים על מקורות בדויים, ציטוטים מטעים ואף פסקי דין "מומצאים" – כולם פרי יצירתו של כלי בינה מלאכותית ליצירת טקסטים.


תופעה זו חוצה מגזרים, תחומי עיסוק וסוגי הליכים – מייצוג לקוחות פרטיים ועד תובענות ייצוגיות מורכבות. במקרים מסוימים מתברר כי עורכי הדין לא זיהו כלל שהמידע המשפטי שבו נעשה שימוש מוטעה או בדוי. ההסתמכות הבלתי מסויגת על טיוטות שמפיקה בינה מלאכותית, גם כאשר הן נראות מהוקצעות או עקביות, פוגעת באמינות ההליך ופוגשת את תגובת בתי המשפט ביד קשה. הסנקציות – לרבות מחיקה של תביעות, פסיקת הוצאות אישיות ואף הגשת תלונות אתיות – הופכות במהירות מחריג לכלל חדש.

במספר מקרים שנדונו לאחרונה בבתי משפט השלום והמחוזי, וכן בפני רשמים וערכאות מיוחדות – דוגמת לשכות ההוצאה לפועל – עמדו השופטים על תופעה מדאיגה: עורכי דין המציגים אסמכתאות שאינן קיימות, תוך הסתמכות עיוורת על תוצרי AI. כך, למשל, באחד המקרים נחשפה פסיקה כביכול של בית המשפט העליון – אשר התבררה כפברוק גמור. גם כאשר הוטחו טענות כלפי עורכי הדין, רבים מהם טענו בתום לב כי הסתמכו על "כלים מומלצים", מבלי לבדוק את מקורם.


המשותף לרוב המקרים שנידונו עד כה הוא חוסר ההבחנה בין תוצר אוטומטי לבין חוות דעת משפטית מבוססת. השופטים לא חסכו את ביקורתם. השופט ציון סהראי מבית משפט השלום בירושלים קבע באחד המקרים כי "מדובר במעשה שלא ייעשה", והוסיף כי עורך דין שאינו בודק את תקפותם של פסקי הדין עליהם הוא מסתמך "פוגע באמון בית המשפט".


לא רק עורכי הדין שגו. גם רשויות אכיפה הופתעו. כך, בדיון שהתקיים לאחרונה בבית משפט השלום בחדרה התברר כי המשטרה התבססה בטיעוניה על סעיף חוק שכלל אינו קיים. השופט אהוד קפלן, שעמד על כך במהלך הדיון, התריע מפני "שאננות טכנולוגית" שלטענתו עלולה לערער את יסודות ההליך ההוגן. לדבריו, אם בעבר חששו מערבוב תחומים, הרי שכיום "המכונה עלולה להוביל את האדם".


בית המשפט העליון הצטרף למגמה ובחר להתוות גבולות. בפסק דין תקדימי שניתן על ידי השופטת גילה כנפי־שטייניץ, נקבע כי עורכי דין המסתמכים על פסיקה פיקטיבית או תכנים לא מבוססים שהופקו בבינה מלאכותית – חשופים לסנקציות משמעותיות. בהחלטה שניתנה בהרכב שופטים שכלל את דוד מינץ ויוסף אלרון, צוין כי לא ניתן עוד לקבל טעויות מסוג זה כהיסח דעת. השופטים דחו עתירה שהכילה עשרות הפניות שקריות, והבהירו: "אין זו זכות אלא חובה לבדוק את הדברים".

בעקבות פסיקות אלו, חלה החמרה בגישת הערכאות כלפי "מסמכים דיגיטליים ללא מקור". במקביל, עלתה השאלה כיצד יבחן בית המשפט בעתיד מסמכים מקצועיים שנערכו – או סביר שנערכו – בסיוע מערכות AI. הפסילה הגורפת אינה עומדת בקנה אחד עם ההתפתחות הטכנולוגית, אך היעדרה של מדיניות מסודרת משאיר את השופטים ואת בעלי הדין באי־ודאות מסוכנת.


הבעיה מחמירה כאשר המסמכים נמסרים במסגרת תביעות ייצוגיות או הליכים פליליים. כך אירע במקרה בו נמחקה בקשה לאישור תובענה ייצוגית נגד קופות חולים בהיקף של כ־3.8 מיליארד שקל, לאחר שהתברר כי הבקשה מבוססת על פסקי דין מומצאים. השופט אילן דפדי חייב את עורך הדין בהוצאות אישיות – מסר ברור כי "הרף הראייתי" לעולם אינו נמסר בידי אלגוריתם בלבד.


עו"ד עדי אלבוים, חבר מחוז מרכז בלשכת עורכי הדין, מציין: "הקידמה הטכנולוגית אינה תירוץ להתנערות מאחריות. על עורך דין לדעת שכל מילה בכתב הטענות היא התחייבות – גם אם נכתבה עבורו על ידי מחשב. כלי AI יכולים לייעל את ההליך, אך אינם תחליף לבקרה אנושית קפדנית".


השופט בדימוס דניאל ארנסט, מומחה לדיני ירושה, סבור כי השימוש בבינה מלאכותית עשוי לייעל את עבודת עורכי הדין, אך בשום אופן אינו פוטר אותם מהאחריות המקצועית המוטלת עליהם. "בינה מלאכותית יכולה לסייע רבות בעבודת עורכי הדין, אך היא אינה תחליף לשיקול דעת מקצועי. האחריות לבדוק ולאמת את המידע המוגש לבית המשפט נשארת על כתפיהם של עורכי הדין", הוא מבהיר. גם עו"ד דוד טובול מתריע מפני מה שהוא מכנה "תופעת ההעתקה העיוורת", ומדגיש: "כלי AI הם כמו מזכיר אישי מוכשר – אך כזה שאסור בשום אופן לתת לו לחתום בשמנו".


כעת, עם הצטברות המקרים, נדרש טיפול מערכתי – הן ברמת החקיקה, והן באתיקה המקצועית. נראה כי בהיעדר רגולציה ברורה, יוסיפו בתי המשפט לקבוע את הכללים בשטח. ועד אז, האחריות נותרת על כתפיהם של העוסקים במלאכה. במילים פשוטות: גם בעידן הבינה – אין קיצורי דרך לצדק. מי שמשתמש ב-AI מבלי לבדוק את תוצריו – עשוי לשלם מחיר כבד.

Comments


bottom of page