بدون ChatGPT در دادگاه من: قاضی دستور می دهد تمام محتوای تولید شده توسط هوش مصنوعی باید اعلام و بررسی شود

تعداد کمی از وکلا به اندازه کافی احمق خواهند بود که به هوش مصنوعی اجازه دهند استدلال های خود را بیان کند، اما یکی قبلاً این کار را انجام داده است و قاضی برانتلی استار اقداماتی را انجام می دهد تا اطمینان حاصل کند که خرابکاری در این کشور تکرار نمی شود. خود دادگاه

قاضی فدرال تگزاس این شرط را اضافه کرده است که هر وکیلی که در دادگاه او حاضر می شود باید تأیید کند که “هیچ بخشی از پرونده توسط هوش مصنوعی مولد تهیه شده است” یا اگر چنین بوده است، “توسط یک انسان” بررسی شده است.

هفته گذشته، وکیل استیون شوارتز به ChatGPT اجازه داد تا تحقیقات حقوقی خود را در یک پرونده فدرال اخیر «تکمیل» کند و شش پرونده و سابقه مرتبط را به او ارائه دهد – که همه آنها کاملاً با مدل زبانی توهم زده شده بودند. او اکنون از انجام این کار «بسیار پشیمان است»، و در حالی که پوشش ملی این گاف احتمالاً باعث شده است که هر وکیل دیگری که به فکر تلاش برای آن بود دوباره فکر کند، قاضی استار هیچ شانسی نمی‌کند.

در سایت فدرال ناحیه شمالی تگزاس، استار مانند سایر قضات این فرصت را دارد که قوانین خاصی را برای دادگاه خود تعیین کند. و اخیراً اضافه شده است (اگرچه مشخص نیست که آیا این در پاسخ به پرونده فوق الذکر بوده است) “گواهی اجباری در رابطه با هوش مصنوعی مولد” است. یوجین ولوخ ابتدا این خبر را گزارش کرد.

همه وکلایی که در دادگاه حاضر می‌شوند باید گواهی ارائه کنند که نشان می‌دهد هیچ بخشی از پرونده توسط هوش مصنوعی مولد (مانند ChatGPT، Harvey.AI یا Google Bard) تهیه نشده است یا هر زبانی که توسط هوش مصنوعی مولد پیش‌نویس شده است. برای صحت، با استفاده از گزارشگران چاپی یا پایگاه های داده قانونی سنتی، توسط یک انسان بررسی می شود.

فرمی برای امضای وکلا ضمیمه شده است، با ذکر این نکته که «نقل‌ها، نقل‌قول‌ها، اظهارات بازنویسی شده و تحلیل‌های حقوقی» همگی مشمول این ممنوعیت هستند. از آنجایی که خلاصه یکی از موارد قوی هوش مصنوعی است، و یافتن و خلاصه کردن موارد سابقه یا قبلی چیزی است که به‌عنوان بالقوه مفید در کارهای حقوقی تبلیغ می‌شود، این ممکن است بیشتر از حد انتظار وارد عمل شود.

هرکسی که در دفتر قاضی استار پیش نویس یادداشتی را در این مورد تهیه کرده است، انگشت خود را روی نبض خود گذاشته است. الزامات گواهینامه شامل توضیح کاملاً آگاهانه و قانع کننده در مورد ضرورت آن است (شکاف خط برای خوانایی اضافه شده است):

این پلتفرم‌ها فوق‌العاده قدرتمند هستند و کاربردهای بسیاری در قانون دارند: فرم طلاق، درخواست کشف، اشتباهات پیشنهادی در اسناد، سوالات پیش‌بینی‌شده در بحث شفاهی. اما توجیه حقوقی یکی از آنها نیست. در اینجا دلیل آن است.

این پلتفرم ها در حالت فعلی خود مستعد توهم و سوگیری هستند. در مورد توهم، آنها چیزهایی می سازند – حتی نقل قول ها و نقل قول ها. موضوع دیگر قابلیت اطمینان یا سوگیری است. در حالی که وکلای دادگستری سوگند یاد می‌کنند که تعصبات شخصی، تعصبات و اعتقادات خود را کنار بگذارند تا صادقانه از قانون حمایت کنند و از موکلان خود نمایندگی کنند، هوش مصنوعی مولد محصول برنامه‌نویسی است که توسط انسان‌هایی طراحی شده است که مجبور به ادای چنین سوگند نیستند.

به این ترتیب، این سیستم ها به هیچ مشتری، حاکمیت قانون، یا قوانین و قانون اساسی ایالات متحده (یا همانطور که در بالا اشاره شد، حقیقت) وفاداری ندارند. بدون هیچ گونه احساس وظیفه، شرافت یا عدالت، چنین برنامه‌هایی بر اساس کدهای رایانه‌ای عمل می‌کنند تا اعتقادات، بر اساس برنامه‌نویسی و نه اصول. هر طرفی که معتقد است یک پلت فرم دارای دقت و قابلیت اطمینان لازم برای توجیه قانونی است، ممکن است مرخصی بگیرد و دلیل آن را توضیح دهد.

به عبارت دیگر، برای توجیه خود آماده باشید.

در حالی که این فقط یک قاضی در یک دادگاه است، تعجب آور نخواهد بود که دیگران این قانون را به عنوان قانون خود در نظر بگیرند. در حالی که همانطور که دادگاه می گوید، این یک فناوری قدرتمند و بالقوه مفید است، استفاده از آن باید حداقل به وضوح اعلام شده و از نظر دقت بررسی شود.