آلتمن OpenAI و سایر غول های هوش مصنوعی از هشدار درباره هوش مصنوعی پیشرفته به عنوان خطر “انقراض” حمایت می کنند.

راه را برای مداخله‌ی سرفصل دیگری در سیاست هوش مصنوعی باز کنید: صدها دانشمند، دانشگاهی، مدیر عامل فناوری و شخصیت‌های عمومی هوش مصنوعی – از سام آلتمن، مدیر عامل OpenAI و دمیس حسابیس، مدیر عامل شرکت DeepMind گرفته تا جفری هینتون، دانشمند کهنه کار هوش مصنوعی، مکس تگمارک و اسکایپ از MIT. بنیانگذار Jaan Tallinn to Grimes، نوازنده و پادکست پوپولیست سام هریس، برای نام بردن چند نفر – نام خود را به بیانیه ای اضافه کرده اند که توجه جهانی را به خطر وجودی هوش مصنوعی جلب کرده است.

این بیانیه که در وب‌سایت یک موسسه غیرانتفاعی مستقر در سانفرانسیسکو با سرمایه‌گذاری خصوصی به نام «مرکز ایمنی هوش مصنوعی» (CAIS) میزبانی می‌شود، به دنبال آن است که خطر هوش مصنوعی را با آسیب‌های وجودی ناشی از آخرالزمان هسته‌ای و فراخوان‌ها برابری کند. تا سیاستگذاران توجه خود را بر کاهش خطر انقراض هوش مصنوعی در سطح «روز قیامت» متمرکز کنند.

در اینجا بیانیه (عمداً مختصر) آنها به طور کامل آمده است:

کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.

بر اساس توضیحی کوتاه در وب سایت CAIS، بیانیه “مختصر” نگه داشته شده است، زیرا کسانی که پشت آن هستند نگران هستند که پیام خود را در مورد “بعضی از شدیدترین خطرات هوش مصنوعی پیشرفته” با بحث در مورد دیگر “خطرات مهم و فوری ناشی از هوش مصنوعی از بین ببرند”. با این حال، آنها به این نتیجه می‌رسند که مانع بحث در مورد خطر هوش مصنوعی در سطح انقراض می‌شود.

با این حال، ما در ماه‌های اخیر بارها و بارها شنیده‌ایم که همین نگرانی‌ها با صدای بلند و بارها بیان شده است، زیرا تبلیغات هوش مصنوعی از پس دسترسی گسترده به ابزارهای هوش مصنوعی مانند ChatGPT و DALL-E باز شده است – که منجر به سرفصل‌های سرفصل‌ها شده است. بحث در مورد خطر هوش مصنوعی قاتل “فوق هوشمند”. (مانند این مورد، از اوایل ماه جاری، جایی که هینتون امضاکننده بیانیه درباره «تهدید وجودی» کنترل هوش مصنوعی هشدار داد. یا این مورد، از هفته گذشته، جایی که آلتمن خواستار تنظیم مقررات برای جلوگیری از تخریب بشریت توسط هوش مصنوعی شد.)

همچنین نامه سرگشاده‌ای در ماه مارس توسط ایلان ماسک (و تعداد زیادی نفر دیگر) امضا شد که در آن خواستار توقف شش ماهه توسعه مدل‌های هوش مصنوعی قدرتمندتر از GPT-4 OpenAI شد تا زمان لازم برای ابداع پروتکل‌های ایمنی مشترک فراهم شود. در مورد هوش مصنوعی پیشرفته – هشدار در مورد خطرات ناشی از “ذهن دیجیتال قدرتمندتر که هیچ کس – حتی سازندگان آنها – نمی توانند درک کنند، پیش بینی کنند یا به طور قابل اعتماد کنترل کنند” اعمال می شود.

بنابراین، در ماه‌های اخیر، در واقع رگباری از هشدارهای عمومی درباره خطرات هوش مصنوعی وجود داشته است که هنوز وجود ندارد.

این ضرب و شتم سرفصل‌های هیستریک احتمالاً توجه را از بررسی عمیق‌تر آسیب‌های موجود منحرف کرده است. مانند استفاده رایگان ابزارها از داده های دارای حق چاپ برای آموزش سیستم های هوش مصنوعی بدون اجازه یا رضایت (یا پرداخت). یا حذف سیستماتیک داده های شخصی آنلاین با نقض حریم خصوصی افراد؛ یا عدم شفافیت غول های هوش مصنوعی در مقابل داده های مورد استفاده برای آموزش این ابزارها. یا، در واقع، در نقص هایی مانند اطلاعات نادرست (“توهم”) و خطراتی مانند سوگیری (تبعیض خودکار). ناگفته نماند هرزنامه های مبتنی بر هوش مصنوعی!

مطمئناً قابل توجه است که پس از دیدار هفته گذشته بین نخست وزیر بریتانیا و تعدادی از مدیران ارشد هوش مصنوعی، از جمله آلتمن و حسابیس، به نظر می رسد که دولت در حال تغییر رویه خود در مورد مقررات هوش مصنوعی است – با توجه به گزارش گاردین، به طور ناگهانی مشتاق ریسک وجودی است. .

همانطور که Jenna Burrell، مدیر تحقیقات Data & Society، در این مقاله اخیر Columbia Journalism Review با بررسی پوشش رسانه ای ChatGPT اشاره کرد، بحث در مورد خطر وجودی هوش مصنوعی همچنین توجه را از مشکلات مربوط به ساختار بازار و تسلط منحرف می کند – جایی که او استدلال کرد که ما باید از تمرکز بر شاه ماهی قرمز مانند «احساس» بالقوه هوش مصنوعی به پوشش چگونگی تمرکز بیشتر ثروت و قدرت توسط هوش مصنوعی دور شوید.

بنابراین مطمئناً انگیزه‌های تجاری واضحی برای غول‌های هوش مصنوعی وجود دارد که بخواهند توجه نظارتی را به آینده نظری دوردست، با صحبت از روز رستاخیز مبتنی بر هوش مصنوعی – به عنوان تاکتیکی برای دور کردن ذهن قانون‌گذاران از رقابت اساسی‌تر و ملاحظات ضد انحصار، هدایت کنند. در اینجا و اکنون و بهره برداری از داده ها به عنوان ابزاری برای تمرکز قدرت بازار چیز جدیدی نیست.

مطمئناً در مورد ساختارهای قدرت هوش مصنوعی موجود صحبت می کند که مدیران فناوری در غول های هوش مصنوعی از جمله OpenAI، DeepMind، Stability AI و Anthropic بسیار خوشحال هستند که وقتی صحبت از تقویت عمومی صحبت در مورد خطر وجودی هوش مصنوعی می شود، با هم صحبت می کنند. و در حال حاضر می‌توان دید که در حال حاضر چقدر محتاط‌تر گرد هم می‌آیند تا در مورد آسیب‌هایی که ابزارشان ایجاد می‌کنند صحبت کنیم.

OpenAI نامه سرگشاده فوق الذکر را امضا نکرده بود (ماسک امضا کرده است) اما تعدادی از کارمندان آن از بیانیه میزبانی شده توسط CAIS حمایت می کنند (در حالی که ماسک ظاهراً چنین نیست). بنابراین به نظر می‌رسد که آخرین بیانیه پاسخی (غیررسمی) تجاری خودگردان توسط OpenAI (و همکاران) به تلاش قبلی ماسک برای ربودن روایت خطر وجودی هوش مصنوعی در جهت منافع خود (که دیگر به نفع OpenAI رهبری اتهامات هوش مصنوعی نیست) ارائه می‌دهد.

به‌جای بیانیه‌ای که خواستار توقف توسعه است، که می‌تواند پیشروی OpenAI را در زمینه هوش مصنوعی مولد منجمد کند، سیاست‌گذاران را لابی می‌کند تا بر کاهش ریسک تمرکز کنند – این کار را در حالی انجام می‌دهد که OpenAI به طور همزمان تلاش‌های سرمایه‌گذاری جمعی برای شکل‌دهی به «فرایندهای دموکراتیک برای هدایت هوش مصنوعی» را انجام می‌دهد. آلتمن آن را بیان کرد. بنابراین، شرکت به طور فعال خود را (و استفاده از ثروت سرمایه گذاران خود) برای تأثیرگذاری بر شکل هر گونه حفاظ کاهش آتی قرار می دهد.

در جای دیگر، برخی از امضاکنندگان نامه قبلی به سادگی خوشحال بودند که فرصت تبلیغاتی دیگری را دوچندان کردند – نام خود را برای هر دو ثبت کردند (سلام تریستان هریس!).

اما CAIS کیست؟ اطلاعات عمومی محدودی درباره سازمان میزبان این پیام وجود دارد. با این حال، به اعتراف خود قطعاً در لابی گری سیاستگذاران نقش دارد. وب‌سایت آن می‌گوید مأموریت آن «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» است و ادعا می‌کند که به تشویق تحقیقات و میدان‌سازی برای این منظور، از جمله تأمین مالی تحقیقات – و همچنین داشتن نقش حمایت از سیاست‌های اعلام شده اختصاص دارد.

پرسش‌های متداول در وب‌سایت، اطلاعات محدودی در مورد حمایت مالی از آن ارائه می‌دهد (که می‌گویند از طریق کمک‌های مالی خصوصی تأمین می‌شود). در حالی که، در پاسخ به یک سؤال متداول که می‌پرسد «آیا CAIS یک سازمان مستقل است»، ادعای مختصری مبنی بر «خدمت به منافع عمومی» ارائه می‌کند:

CAIS یک سازمان غیرانتفاعی است که به طور کامل توسط مشارکت های خصوصی پشتیبانی می شود. خط‌مشی‌ها و جهت‌گیری‌های تحقیقاتی ما توسط اهداکنندگان فردی تعیین نمی‌شوند، و اطمینان حاصل می‌شود که تمرکز ما در خدمت به منافع عمومی باقی می‌ماند.

ما با CAIS با سؤالات تماس گرفتیم.

دن هندریکس، مدیر CAIS، در یک تاپیک توییتری همراه با انتشار بیانیه، توضیح‌دهنده بیانیه فوق‌الذکر را گسترش می‌دهد – از «سوگیری سیستمی، اطلاعات غلط، استفاده مخرب، حملات سایبری و تسلیحات» به عنوان نمونه‌هایی از «خطرات مهم و فوری ناشی از هوش مصنوعی» نام می‌برد. نه فقط خطر انقراض.

او همچنین پیشنهاد می‌کند: «همه این‌ها خطرات مهمی هستند که باید مورد توجه قرار گیرند،» و نگرانی‌هایی را که سیاست‌گذاران پهنای باند محدودی برای پرداختن به آسیب‌های هوش مصنوعی دارند کم اهمیت جلوه می‌دهد. این “یا/یا” نیست بلکه “بله/و” است. از منظر مدیریت ریسک، همانطور که اولویت‌بندی انحصاری آسیب‌های فعلی بی‌احتیاطی است، نادیده گرفتن آن‌ها نیز بی‌احتیاطی است.»

این موضوع همچنین به دیوید کروگر، استادیار علوم کامپیوتر در دانشگاه کمبریج، با ارائه یک بیانیه تک جمله ای در مورد ریسک هوش مصنوعی و کمک مشترک به توسعه آن اعتبار می دهد.