به گزارش ایسنا و به نقل از دیلی میل، زمانی که یک جنایتکار متوجه میشود که باید زندگی خود را پشت میلههای زندان سپری کند، یکی از حیاتیترین لحظات هر پرونده قضایی است اما به رغم اهمیت حکم قاضی، این حکم -حداقل تا حدودی- در ChatGPT بارگذاری میشود.
قضات در انگلستان و ولز میتوانند از چتبات هوش مصنوعی برای کمک به نوشتن احکام حقوقی خود استفاده کنند. این در حالی است که ChatGPT مستعد ساخت موارد جعلی شناخته شده و حتی اعتراف کرده که میتواند در صفحه فرود خود اشتباه کند.
استفاده از چتبات ChatGPT که قبلا توسط یک قاضی بریتانیایی خیلی سودمند توصیف شده بود، به طور فزایندهای در حوزه حقوقی نفوذ کرده و باعث نگرانی برخی از کارشناسان شده است. دستورالعمل رسمی جدید «دفتر قضایی بریتانیا» که برای هزاران قاضی صادر شده است، خاطرنشان کرده که هوش مصنوعی را میتوان برای خلاصه کردن مقادیر زیادی متن یا در کارهای اداری مورد استفاده قرار داد. این دستورالعملها به عنوان وظایف کاری اساسی، واجد شرایط هستند اما بخشهای برجستهتر این فرآیند مانند انجام دادن بررسیها یا تحلیلهای حقوقی نباید در چتباتها بارگذاری شوند.
قاضی «سر جفری چارلز ووس»(Sir Geoffrey Charles Vos) گفت: هوش مصنوعی فرصتهای قابل توجهی را برای توسعه یک سیستم عدالت دیجیتال بهتر، سریعتر و مقرونبهصرفهتر ارائه میدهد. فناوری فقط رو به جلو حرکت میکند و دستگاه قضا باید بفهمد چه اتفاقی در حال رخ دادن است.
این در حالی است که اعتراف شده این فناوری مستعد تشکیل دادن پروندههای جعلی است و امکان دارد به طور گسترده توسط عموم هنگام ارائه دادن پروندههای حقوقی مورد استفاده قرار بگیرد. ووس اضافه کرد: قضات مانند هر شخص دیگری باید کاملا آگاه باشند که هوش مصنوعی میتواند پاسخهای نادرست و همچنین پاسخهای دقیق بدهد.
همچنین، به قضات در مورد نشانههایی هشدار داده شده است که ثابت میکنند شاید استدلالهای قانونی توسط یک چتبات هوش مصنوعی تهیه شده باشند.
ووس که رئیس دادگستری مدنی در انگلستان و ولز است، گفت که راهنمایی گرفتن از چتبات، نخستین نمونه در نوع خود در حوزه قضایی به شمار میرود. او پیش از انتشار این دستورالعمل در یک جلسه توجیهی به خبرنگاران گفت: هوش مصنوعی فرصتهای بزرگی را برای سیستم قضایی فراهم میکند اما از آنجا که بسیار جدید است، ما باید مطمئن شویم که قضات در همه سطوح متوجه میشوند چه کاری انجام میدهد، چگونه آن را انجام میدهد و چه کاری را نمیتواند انجام دهد.
«سانتیاگو پاز»(Santiago Paz) یکی از اعضای شرکت حقوقی «دنتونز»(Dentons)، خواستار استفاده مسئولانه از ChatGPT توسط وکلا شده است. پاز گفت: اگرچه پاسخهای ChatGPT میتوانند قانعکننده به نظر برسند اما حقیقت این است که قابلیتهای این پلتفرم هنوز بسیار محدود هستند. وکلا باید بدانند که ChatGPT کارشناس حقوقی نیست.
«ییگر گلوسینا»(Jaeger Glucina) رئیس کارکنان شرکت حقوقی «لومینانس»(Luminance) گفت: نمیتوان به مدلهای مولد هوش مصنوعی مانند ChatGPT به عنوان منبع واقعیت اعتماد کرد. باید آنها را به عنوان یک دوست آگاه در نظر گرفت، نه یک متخصص در همه زمینههای خاص. اداره قضایی با توجه به کارآمدی ChatGPT برای کارهای ساده و مبتنی بر متن مانند تولید خلاصه پرونده و در عین حال هشدار دادن در مورد استفاده از آن برای کارهای تخصصیتر، به خوبی این موضوع را تشخیص داده است.
«نیک امرسون»(Nick Emmerson) رئیس انجمن حقوقی بریتانیا گفت: استفاده کردن از هوش مصنوعی برای خلاصه کردن قضاوتها میتواند کارآیی دادگاه را بهبود ببخشد اما در عین حال میتواند اشتباه کند. مدلهای زبانی آموزشدیده میتوانند سوگیریها را در دادههای زیربنایی منعکس کنند. مهم است که به یاد داشته باشیم قضات، نقش انسانی مهمی را در اختیار دارند و تصمیمگیری قضایی آنها را نمیتوان با ماشین جایگزین کرد.
قاضی بریتانیایی که پیشتر ChatGPT را خیلی سودمند توصیف کرده بود، اعتراف کرد که از آن هنگام نوشتن حکم دادگاه تجدید نظر استفاده کرده است. «کالین بیرس»(Colin Birss) قاضی دادگاه تجدیدنظر انگلستان و ولز گفت که او از چتبات در یک حوزه حقوقی استفاده کرده که با آن آشناست.
یک قاضی کلمبیایی در استفاده کردن از ChatGPT فراتر رفت و از آن برای تصمیمگیری کمک گرفت.
بیشتر بخوانید:
ChatGPT به قاضی کلمبیایی برای صدور حکم کمک کرد
چتباتهایی مانند ChatGPT و «بارد»(Bard) گوگل که رقیب اصلی آن است، برای یادگیری چند واقعیت ساده مفید هستند اما اتکای بیش از اندازه به این فناوری میتواند به طور قابل توجهی برای کاربران نتیجه معکوس داشته باشد.
در اوایل سال جاری، یک وکیل نیویورکی به دلیل ارسال یک گزارش حاوی خطا که با استفاده از ChatGPT تهیه کرده بود، به دردسر افتاد. «استیون شوارتز»(Steven Schwartz) یک گزارش ۱۰ صفحهای حاوی حداقل شش پرونده کاملا ساختگی را به عنوان بخشی از شکایت علیه شرکت هواپیمایی «اویانکا»(Avianca) ارسال کرد.
شوارتز گفت که از اتکای خود به ربات، بسیار متأسف است و از احتمال نادرست بودن محتوای آن بیاطلاع بوده است.
انتهای پیام
نظرات