تكنولوجيا

“الذكاء الاصطناعي في المحكمة: محام يواجه عقوبات بسبب استخدام ChatGPT لصياغة وثائق قانونية وهمية”

كتب : د. وائل بدوى 

قام قاضي فدرالي في نيويورك يوم الخميس بفرض عقوبات على المحامين الذين قدموا مذكرة قانونية كتبها أداة الذكاء الصنعي ChatGPT، والتي تضمنت اقتباسات لآراء قضائية غير موجودة واقتباسات مزيفة.

 

قال القاضي بي. كيفن كاستل إن المحامين، بيتر لودوكا وستيفن شوارتز، “تخلوا عن مسؤولياتهم” عندما قدموا المذكرة التي كتبها الذكاء الصنعي في دعوى عميلهم ضد شركة الطيران أفيانكا في مارس، و”استمروا في الوقوف بجانب الآراء المزيفة بعد أن وضعت الأوامر القضائية وجودها تحت الشك”.

 

أمر كاستل كلاً من لودوكا وشوارتز، بالإضافة إلى مكتبهما القانوني ليفيدو، ليفيدو وأوبرمان، بدفع غرامة قدرها 5,000 دولار لكل منهما. كما أمرهم بإبلاغ كل قاضي تم التعرف عليه بشكل خاطئ باعتباره مؤلفًا لحكم القضية المزيفة عن العقوبة.

 

“لن يطلب المحكمة اعتذارًا من المستجيبين لأن الاعتذار المكرر ليس اعتذارًا صادقًا،” كتب كاستل في أمره في المحكمة الفدرالية بمانهاتن. “يترك أي قرار بشأن الاعتذار للمستجيبين.”

 

قال القاضي، في أمر منفصل يوم الخميس، إنه قد وافق على طلب أفيانكا برفض الدعوى، التي قدمها المحامون نيابة عن روبرتو ماتا، الذي ادعى أن ركبته أصيبت بشدة في رحلة في أغسطس 2019 إلى نيويورك من السلفادور عندما ضربته صينية خدمة معدنية.

 

قال كاستل إن دعوى ماتا تم تقديمها بعد انقضاء فترة سنتين مسموح بها للمطالبات القانونية المتعلقة بالسفر الجوي الدولي بموجب اتفاقية مونتريال.

 

قال القاضي إنه ربما لم يكن قد فرض عقوبات على المحامين لو أنهم قد “تنظفوا” حول شوارتز باستخدام ChatGPT لإنشاء المذكرة المعارضة لطلب أفيانكا برفض الدعوى.

 

لكن كاستل قال إن المحامين أظهروا “نية سيئة” من خلال إصدار تصريحات كاذبة ومضللة حول المذكرة ومحتواها بعد أن أثار محامو أفيانكا مخاوف من أن الاقتباسات القانونية في المذكرة كانت من قضايا محكمة لا توجد.

 

“عند البحث وصياغة التقديمات المحكمة، يحصل المحامون الجيدون بشكل مناسب على المساعدة من المحامين الجدد، وطلاب القانون، والمحامين المتعاقدين، والموسوعات القانونية وقواعد البيانات مثل ويستلو ولكسيسنكس،” كتب كاستل في أمره.

 

“التقدم التكنولوجي شائع وليس هناك شيء غير صحيح بشكل جوهري حول استخدام أداة الذكاء الصنعي الموثوقة للمساعدة،” كتب كاستل. “لكن القواعد الحالية تفرض دورًا للحراسة على المحامين لضمان دقة تقديماتهم

 

وقد تم اكتشاف استخدام ChatGPT بعد أن لم يتمكن محامو Avianca من العثور على بعض وثائق المحكمة للقضايا التي أشار إليها فريق Mata، وتقدموا بطلب طلب المزيد من المعلومات حولها. ثم عاد شوارتز إلى ChatGPT للحصول على نسخ من وثائق القضية، معتقدًا أنه محرك بحث، وسلمها إلى المحامي الآخر لماتا، بيتر لودوكا، كما أوضح محامو شوارتز في مستندات المحكمة. عند مراجعة الوثائق المقدمة، توصل القاضي الفدرالي في نيويورك، بي. كيفن كاستل، إلى أن القضايا كانت وهمية، وأعلن أن المحكمة تواجه “ظرفًا غير مسبوق” وسوف تنظر في فرض عقوبات.

 

أمر القاضي الفدرالي في نيويورك، بي. كيفن كاستل، شوارتز ومحامي ماتا الآخر، بيتر لودوكا، بالحضور لجلسة شخصية يوم الخميس في الظهيرة لشرح لماذا لا يجب أن يواجهوا عقوبات لاستشهادهم بـ “قضايا غير موجودة”. من المتوقع أن يحدد كاستل ما إذا كانت العقوبات مبررة أو إذا كان العقاب الذي قال شوارتز ومكتبه القانوني إنهم قد واجهوه بالفعل – اتهامات بالاحتيال والضرر الذي لا يمكن إصلاحه لسمعتهم – كافيًا، ولكن لم يتم اتخاذ أي قرار خلال الجلسة، MHK جوش راسل إن القاضي أعطى “اعترافًا صارمًا” واقترح أنه قد يفرض عقوبات بعد.

 

عندما جادلوا بأن العقوبات “لن تخدم أي غرض” في تقديمهم قبل جلسة العقوبات، كتب فريق شوارتز: “أصبح السيد شوارتز والمكتب رموزًا لمخاطر التلاعب بالتكنولوجيا الجديدة؛ تم تعلم درسهم”.

 

ChatGPT – روبوت محادثة يعمل بواسطة الذكاء الصنعي من OpenAI – ارتفعت شعبيته في وقت سابق من هذا العام بمجرد أن أصبح متاحًا على نطاق واسع، ولكن مع ارتفاعه جاءت المخاوف حول قدراته. اعترف الطلاب بأنهم استخدموا الذكاء الصنعي للقيام بواجباتهم المنزلية وبدأ السياسيون في استخدام الصور المُنشأة اصطناعيًا في إعلان

اظهر المزيد
زر الذهاب إلى الأعلى