راه را برای مداخلهی سرفصل دیگری در سیاست هوش مصنوعی باز کنید: صدها دانشمند، دانشگاهی، مدیر عامل فناوری و شخصیتهای عمومی هوش مصنوعی – از سام آلتمن، مدیر عامل OpenAI و دمیس حسابیس، مدیر عامل شرکت DeepMind گرفته تا جفری هینتون، دانشمند کهنه کار هوش مصنوعی، مکس تگمارک و اسکایپ از MIT. بنیانگذار Jaan Tallinn to Grimes، نوازنده و پادکست پوپولیست سام هریس، برای نام بردن چند نفر – نام خود را به بیانیه ای اضافه کرده اند که توجه جهانی را به خطر وجودی هوش مصنوعی جلب کرده است.
این بیانیه که در وبسایت یک موسسه غیرانتفاعی مستقر در سانفرانسیسکو با سرمایهگذاری خصوصی به نام «مرکز ایمنی هوش مصنوعی» (CAIS) میزبانی میشود، به دنبال آن است که خطر هوش مصنوعی را با آسیبهای وجودی ناشی از آخرالزمان هستهای و فراخوانها برابری کند. تا سیاستگذاران توجه خود را بر کاهش خطر انقراض هوش مصنوعی در سطح «روز قیامت» متمرکز کنند.
در اینجا بیانیه (عمداً مختصر) آنها به طور کامل آمده است:
کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
بر اساس توضیحی کوتاه در وب سایت CAIS، بیانیه “مختصر” نگه داشته شده است، زیرا کسانی که پشت آن هستند نگران هستند که پیام خود را در مورد “بعضی از شدیدترین خطرات هوش مصنوعی پیشرفته” با بحث در مورد دیگر “خطرات مهم و فوری ناشی از هوش مصنوعی از بین ببرند”. با این حال، آنها به این نتیجه میرسند که مانع بحث در مورد خطر هوش مصنوعی در سطح انقراض میشود.
با این حال، ما در ماههای اخیر بارها و بارها شنیدهایم که همین نگرانیها با صدای بلند و بارها بیان شده است، زیرا تبلیغات هوش مصنوعی از پس دسترسی گسترده به ابزارهای هوش مصنوعی مانند ChatGPT و DALL-E باز شده است – که منجر به سرفصلهای سرفصلها شده است. بحث در مورد خطر هوش مصنوعی قاتل “فوق هوشمند”. (مانند این مورد، از اوایل ماه جاری، جایی که هینتون امضاکننده بیانیه درباره «تهدید وجودی» کنترل هوش مصنوعی هشدار داد. یا این مورد، از هفته گذشته، جایی که آلتمن خواستار تنظیم مقررات برای جلوگیری از تخریب بشریت توسط هوش مصنوعی شد.)
همچنین نامه سرگشادهای در ماه مارس توسط ایلان ماسک (و تعداد زیادی نفر دیگر) امضا شد که در آن خواستار توقف شش ماهه توسعه مدلهای هوش مصنوعی قدرتمندتر از GPT-4 OpenAI شد تا زمان لازم برای ابداع پروتکلهای ایمنی مشترک فراهم شود. در مورد هوش مصنوعی پیشرفته – هشدار در مورد خطرات ناشی از “ذهن دیجیتال قدرتمندتر که هیچ کس – حتی سازندگان آنها – نمی توانند درک کنند، پیش بینی کنند یا به طور قابل اعتماد کنترل کنند” اعمال می شود.
بنابراین، در ماههای اخیر، در واقع رگباری از هشدارهای عمومی درباره خطرات هوش مصنوعی وجود داشته است که هنوز وجود ندارد.
این ضرب و شتم سرفصلهای هیستریک احتمالاً توجه را از بررسی عمیقتر آسیبهای موجود منحرف کرده است. مانند استفاده رایگان ابزارها از داده های دارای حق چاپ برای آموزش سیستم های هوش مصنوعی بدون اجازه یا رضایت (یا پرداخت). یا حذف سیستماتیک داده های شخصی آنلاین با نقض حریم خصوصی افراد؛ یا عدم شفافیت غول های هوش مصنوعی در مقابل داده های مورد استفاده برای آموزش این ابزارها. یا، در واقع، در نقص هایی مانند اطلاعات نادرست (“توهم”) و خطراتی مانند سوگیری (تبعیض خودکار). ناگفته نماند هرزنامه های مبتنی بر هوش مصنوعی!
مطمئناً قابل توجه است که پس از دیدار هفته گذشته بین نخست وزیر بریتانیا و تعدادی از مدیران ارشد هوش مصنوعی، از جمله آلتمن و حسابیس، به نظر می رسد که دولت در حال تغییر رویه خود در مورد مقررات هوش مصنوعی است – با توجه به گزارش گاردین، به طور ناگهانی مشتاق ریسک وجودی است. .
همانطور که Jenna Burrell، مدیر تحقیقات Data & Society، در این مقاله اخیر Columbia Journalism Review با بررسی پوشش رسانه ای ChatGPT اشاره کرد، بحث در مورد خطر وجودی هوش مصنوعی همچنین توجه را از مشکلات مربوط به ساختار بازار و تسلط منحرف می کند – جایی که او استدلال کرد که ما باید از تمرکز بر شاه ماهی قرمز مانند «احساس» بالقوه هوش مصنوعی به پوشش چگونگی تمرکز بیشتر ثروت و قدرت توسط هوش مصنوعی دور شوید.
بنابراین مطمئناً انگیزههای تجاری واضحی برای غولهای هوش مصنوعی وجود دارد که بخواهند توجه نظارتی را به آینده نظری دوردست، با صحبت از روز رستاخیز مبتنی بر هوش مصنوعی – به عنوان تاکتیکی برای دور کردن ذهن قانونگذاران از رقابت اساسیتر و ملاحظات ضد انحصار، هدایت کنند. در اینجا و اکنون و بهره برداری از داده ها به عنوان ابزاری برای تمرکز قدرت بازار چیز جدیدی نیست.
مطمئناً در مورد ساختارهای قدرت هوش مصنوعی موجود صحبت می کند که مدیران فناوری در غول های هوش مصنوعی از جمله OpenAI، DeepMind، Stability AI و Anthropic بسیار خوشحال هستند که وقتی صحبت از تقویت عمومی صحبت در مورد خطر وجودی هوش مصنوعی می شود، با هم صحبت می کنند. و در حال حاضر میتوان دید که در حال حاضر چقدر محتاطتر گرد هم میآیند تا در مورد آسیبهایی که ابزارشان ایجاد میکنند صحبت کنیم.
OpenAI نامه سرگشاده فوق الذکر را امضا نکرده بود (ماسک امضا کرده است) اما تعدادی از کارمندان آن از بیانیه میزبانی شده توسط CAIS حمایت می کنند (در حالی که ماسک ظاهراً چنین نیست). بنابراین به نظر میرسد که آخرین بیانیه پاسخی (غیررسمی) تجاری خودگردان توسط OpenAI (و همکاران) به تلاش قبلی ماسک برای ربودن روایت خطر وجودی هوش مصنوعی در جهت منافع خود (که دیگر به نفع OpenAI رهبری اتهامات هوش مصنوعی نیست) ارائه میدهد.
بهجای بیانیهای که خواستار توقف توسعه است، که میتواند پیشروی OpenAI را در زمینه هوش مصنوعی مولد منجمد کند، سیاستگذاران را لابی میکند تا بر کاهش ریسک تمرکز کنند – این کار را در حالی انجام میدهد که OpenAI به طور همزمان تلاشهای سرمایهگذاری جمعی برای شکلدهی به «فرایندهای دموکراتیک برای هدایت هوش مصنوعی» را انجام میدهد. آلتمن آن را بیان کرد. بنابراین، شرکت به طور فعال خود را (و استفاده از ثروت سرمایه گذاران خود) برای تأثیرگذاری بر شکل هر گونه حفاظ کاهش آتی قرار می دهد.
در جای دیگر، برخی از امضاکنندگان نامه قبلی به سادگی خوشحال بودند که فرصت تبلیغاتی دیگری را دوچندان کردند – نام خود را برای هر دو ثبت کردند (سلام تریستان هریس!).
اما CAIS کیست؟ اطلاعات عمومی محدودی درباره سازمان میزبان این پیام وجود دارد. با این حال، به اعتراف خود قطعاً در لابی گری سیاستگذاران نقش دارد. وبسایت آن میگوید مأموریت آن «کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی» است و ادعا میکند که به تشویق تحقیقات و میدانسازی برای این منظور، از جمله تأمین مالی تحقیقات – و همچنین داشتن نقش حمایت از سیاستهای اعلام شده اختصاص دارد.
پرسشهای متداول در وبسایت، اطلاعات محدودی در مورد حمایت مالی از آن ارائه میدهد (که میگویند از طریق کمکهای مالی خصوصی تأمین میشود). در حالی که، در پاسخ به یک سؤال متداول که میپرسد «آیا CAIS یک سازمان مستقل است»، ادعای مختصری مبنی بر «خدمت به منافع عمومی» ارائه میکند:
CAIS یک سازمان غیرانتفاعی است که به طور کامل توسط مشارکت های خصوصی پشتیبانی می شود. خطمشیها و جهتگیریهای تحقیقاتی ما توسط اهداکنندگان فردی تعیین نمیشوند، و اطمینان حاصل میشود که تمرکز ما در خدمت به منافع عمومی باقی میماند.
ما با CAIS با سؤالات تماس گرفتیم.
دن هندریکس، مدیر CAIS، در یک تاپیک توییتری همراه با انتشار بیانیه، توضیحدهنده بیانیه فوقالذکر را گسترش میدهد – از «سوگیری سیستمی، اطلاعات غلط، استفاده مخرب، حملات سایبری و تسلیحات» به عنوان نمونههایی از «خطرات مهم و فوری ناشی از هوش مصنوعی» نام میبرد. نه فقط خطر انقراض.
او همچنین پیشنهاد میکند: «همه اینها خطرات مهمی هستند که باید مورد توجه قرار گیرند،» و نگرانیهایی را که سیاستگذاران پهنای باند محدودی برای پرداختن به آسیبهای هوش مصنوعی دارند کم اهمیت جلوه میدهد. این “یا/یا” نیست بلکه “بله/و” است. از منظر مدیریت ریسک، همانطور که اولویتبندی انحصاری آسیبهای فعلی بیاحتیاطی است، نادیده گرفتن آنها نیز بیاحتیاطی است.»
این موضوع همچنین به دیوید کروگر، استادیار علوم کامپیوتر در دانشگاه کمبریج، با ارائه یک بیانیه تک جمله ای در مورد ریسک هوش مصنوعی و کمک مشترک به توسعه آن اعتبار می دهد.