به روز شده در ۱۴۰۳/۰۹/۰۶ - ۱۳:۳۴
 
۰
تاریخ انتشار : ۱۴۰۲/۰۹/۲۶ ساعت ۱۰:۳۸
کد مطلب : ۴۴۵۰۵۱

پای ChatGPT در کفش دستگاه قضایی بریتانیا!

پای ChatGPT در کفش دستگاه قضایی بریتانیا!
گروه علمی: قضات انگلستان و ولز می‌توانند از ChatGPT در احکام حقوقی خود استفاده کنند، اما به آن‌ها هشدار داده شده که مراقب باشند، زیرا این فناوری مستعد تشکیل دادن پرونده‌های جعلی است.به گزارش ایسنا، زمانی که یک جنایت‌کار متوجه می‌شود که باید زندگی خود را پشت میله‌های زندان سپری کند، یکی از حیاتی‌ترین لحظات هر پرونده قضایی است، اما به رغم اهمیت حکم قاضی، این حکم -حداقل تا حدودی- در ChatGPT بارگذاری می‌شود.
 
قضات در انگلستان و ولز می‌توانند از چت‌بات هوش مصنوعی برای کمک به نوشتن احکام حقوقی خود استفاده کنند. این در حالی است که ChatGPT مستعد ساخت موارد جعلی شناخته شده و حتی اعتراف کرده که می‌تواند در صفحه فرود خود اشتباه کند.
 
استفاده از چت‌بات ChatGPT که قبلا توسط یک قاضی بریتانیایی خیلی سودمند توصیف شده بود، به طور فزاینده‌ای در حوزه حقوقی نفوذ کرده و باعث نگرانی برخی از کارشناسان شده است. دستورالعمل رسمی جدید «دفتر قضایی بریتانیا» که برای هزاران قاضی صادر شده است، خاطرنشان کرده که هوش مصنوعی را می‌توان برای خلاصه کردن مقادیر زیادی متن یا در کار‌های اداری مورد استفاده قرار داد. این دستورالعمل‌ها به عنوان وظایف کاری اساسی، واجد شرایط هستند، اما بخش‌های برجسته‌تر این فرآیند مانند انجام دادن بررسی‌ها یا تحلیل‌های حقوقی نباید در چت‌بات‌ها بارگذاری شوند.

قاضی «سر جفری چارلز ووس» (Sir Geoffrey Charles Vos) گفت: هوش مصنوعی فرصت‌های قابل توجهی را برای توسعه یک سیستم عدالت دیجیتال بهتر، سریع‌تر و مقرون‌به‌صرفه‌تر ارائه می‌دهد. فناوری فقط رو به جلو حرکت می‌کند و دستگاه قضا باید بفهمد چه اتفاقی در حال رخ دادن است.

این در حالی است که اعتراف شده این فناوری مستعد تشکیل دادن پرونده‌های جعلی است و امکان دارد به طور گسترده توسط عموم هنگام ارائه دادن پرونده‌های حقوقی مورد استفاده قرار بگیرد.ووس اضافه کرد: قضات مانند هر شخص دیگری باید کاملا آگاه باشند که هوش مصنوعی می‌تواند پاسخ‌های نادرست و همچنین پاسخ‌های دقیق بدهد.

همچنین، به قضات در مورد نشانه‌هایی هشدار داده شده است که ثابت می‌کنند شاید استدلال‌های قانونی توسط یک چت‌بات هوش مصنوعی تهیه شده باشند.ووس که رئیس دادگستری مدنی در انگلستان و ولز است، گفت که راهنمایی گرفتن از چت‌بات، نخستین نمونه در نوع خود در حوزه قضایی به شمار می‌رود.

او پیش از انتشار این دستورالعمل در یک جلسه توجیهی به خبرنگاران گفت: هوش مصنوعی فرصت‌های بزرگی را برای سیستم قضایی فراهم می‌کند، اما از آنجا که بسیار جدید است، ما باید مطمئن شویم که قضات در همه سطوح متوجه می‌شوند چه کاری انجام می‌دهد، چگونه آن را انجام می‌دهد و چه کاری را نمی‌تواند انجام دهد.
«سانتیاگو پاز» (Santiago Paz) یکی از اعضای شرکت حقوقی «دنتونز» (Dentons)، خواستار استفاده مسئولانه از ChatGPT توسط وکلا شده است. پاز گفت: اگرچه پاسخ‌های ChatGPT می‌توانند قانع‌کننده به نظر برسند، اما حقیقت این است که قابلیت‌های این پلتفرم هنوز بسیار محدود هستند. وکلا باید بدانند که ChatGPT کارشناس حقوقی نیست.

«ییگر گلوسینا» (Jaeger Glucina) رئیس کارکنان شرکت حقوقی «لومینانس» (Luminance) گفت: نمی‌توان به مدل‌های مولد هوش مصنوعی مانند ChatGPT به عنوان منبع واقعیت اعتماد کرد. باید آن‌ها را به عنوان یک دوست آگاه در نظر گرفت، نه یک متخصص در همه زمینه‌های خاص. اداره قضایی با توجه به کارآمدی ChatGPT برای کار‌های ساده و مبتنی بر متن مانند تولید خلاصه پرونده و در عین حال هشدار دادن در مورد استفاده از آن برای کار‌های تخصصی‌تر، به خوبی این موضوع را تشخیص داده است.

«نیک امرسون» (Nick Emmerson) رئیس انجمن حقوقی بریتانیا گفت: استفاده کردن از هوش مصنوعی برای خلاصه کردن قضاوت‌ها می‌تواند کارآیی دادگاه را بهبود ببخشد، اما در عین حال می‌تواند اشتباه کند. مدل‌های زبانی آموزش‌دیده می‌توانند سوگیری‌ها را در داده‌های زیربنایی منعکس کنند. مهم است که به یاد داشته باشیم قضات، نقش انسانی مهمی را در اختیار دارند و تصمیم‌گیری قضایی آن‌ها را نمی‌توان با ماشین جایگزین کرد.
قاضی بریتانیایی که پیشتر ChatGPT را خیلی سودمند توصیف کرده بود، اعتراف کرد که از آن هنگام نوشتن حکم دادگاه تجدید نظر استفاده کرده است. «کالین بیرس» (Colin Birss) قاضی دادگاه تجدیدنظر انگلستان و ولز گفت که او از چت‌بات در یک حوزه حقوقی استفاده کرده که با آن آشنا است.

یک قاضی کلمبیایی در استفاده کردن از ChatGPT فراتر رفت و از آن برای تصمیم‌گیری کمک گرفت.چت‌بات‌هایی مانند ChatGPT و «بارد» (Bard) گوگل که رقیب اصلی آن است، برای یادگیری چند واقعیت ساده مفید هستند، اما اتکای بیش از اندازه به این فناوری می‌تواند به طور قابل توجهی برای کاربران نتیجه معکوس داشته باشد.

در اوایل سال جاری، یک وکیل نیویورکی به دلیل ارسال یک گزارش حاوی خطا که با استفاده از ChatGPT تهیه کرده بود، به دردسر افتاد. «استیون شوارتز» (Steven Schwartz) یک گزارش ۱۰ صفحه‌ای حاوی حداقل شش پرونده کاملا ساختگی را به عنوان بخشی از شکایت علیه شرکت هواپیمایی «اویانکا» (Avianca) ارسال کرد.
شوارتز گفت که از اتکای خود به ربات، بسیار متأسف است و از احتمال نادرست بودن محتوای آن بی‌اطلاع بوده است.
پربيننده‎ترين مطالب و خبرها