ورود بسیار تبلیغ شده هوش مصنوعی مولد، بحث آشنا در مورد اعتماد و ایمنی را دوباره برانگیخته است: آیا می توان به مدیران فناوری اعتماد کرد تا بهترین منافع جامعه را در قلب خود حفظ کنند؟
از آنجایی که دادههای آموزشی آن توسط انسانها ایجاد میشود، هوش مصنوعی ذاتاً مستعد تعصب است و بنابراین تابع روشهای ناقص و عاطفی ما برای دیدن جهان است. ما به خوبی از خطرات، از تقویت تبعیض و نابرابری های نژادی گرفته تا ترویج قطبی شدن آگاهی داریم.
مدیر عامل OpenAI سام آلتمن “صبر و حسن نیت” ما را درخواست کرد همانطور که آنها برای “درست کردن” کار می کنند.
برای دههها، ما با صبر و حوصله ایمان خود را به مدیران فنی در خطر انداختهایم: آنها آن را ایجاد کردند، بنابراین وقتی گفتند میتوانند آن را برطرف کنند، به آنها باور کردیم. اعتماد به شرکتهای فناوری همچنان رو به کاهش است، و با توجه به فشارسنج اعتماد Edelman 2023، 65 درصد نگرانیها در سراسر جهان باعث میشود که تشخیص داده شود آنچه مردم میبینند یا میشنوند واقعی هستند یا خیر.
زمان آن فرا رسیده است که سیلیکون ولی رویکرد متفاوتی را برای جلب اعتماد ما در پیش بگیرد – رویکردی که در سیستم حقوقی کشور ثابت شده است.
رویکرد عدالت رویه ای به اعتماد و مشروعیت
بر اساس روانشناسی اجتماعی، عدالت رویه ای مبتنی بر تحقیقاتی است که نشان می دهد مردم معتقدند مؤسسات و بازیگران زمانی قابل اعتمادتر و مشروع هستند که به آنها گوش داده شود و تصمیم گیری بی طرفانه، بی طرفانه و شفاف را تجربه کنند.
چهار جزء کلیدی عدالت رویه ای عبارتند از:
- بی طرفی: تصمیمات بی طرفانه هستند و با استدلال شفاف هدایت می شوند.
- احترام: با همه با احترام و وقار رفتار می شود.
- صدا: هر کس این فرصت را دارد که طرف داستان خود را بگوید.
- قابل اعتماد بودن: تصمیم گیرندگان انگیزه های قابل اعتمادی را در مورد کسانی که تحت تأثیر تصمیماتشان قرار می گیرند، منتقل می کنند.
با استفاده از این چارچوب، پلیس اعتماد و همکاری را در جوامع خود بهبود بخشیده است و برخی از شرکت های رسانه های اجتماعی شروع به استفاده از این ایده ها برای شکل دادن به رویکردهای حاکمیتی و اعتدال کرده اند.
در اینجا چند ایده برای اینکه چگونه شرکت های هوش مصنوعی می توانند این چارچوب را برای ایجاد اعتماد و مشروعیت تطبیق دهند، آورده شده است.
تیم مناسبی برای پاسخگویی به سوالات درست بسازید
همانطور که پروفسور UCLA Safiya Noble استدلال می کند، سوالات مربوط به سوگیری الگوریتمی را نمی توان به تنهایی توسط مهندسان حل کرد، زیرا آنها مسائل اجتماعی سیستمی هستند که نیازمند دیدگاه های انسان گرایانه – خارج از هر شرکتی – برای اطمینان از گفتگوی اجتماعی، اجماع و در نهایت مقررات هستند – هر دو خودشان. و دولتی.
در «خطای سیستم: جایی که فناوری بزرگ اشتباه شد و چگونه میتوانیم راهاندازی مجدد کنیم»، سه استاد دانشگاه استنفورد به طور انتقادی درباره کاستیهای آموزش علوم کامپیوتر و فرهنگ مهندسی به دلیل وسواس آن با بهینهسازی بحث میکنند و اغلب ارزشهای اصلی یک جامعه دموکراتیک را کنار میزنند.
در یک پست وبلاگی، Open AI میگوید که برای ورودیهای اجتماعی ارزش قائل است: «از آنجایی که جنبه مثبت AGI بسیار عالی است، ما باور نداریم که ممکن است یا مطلوب جامعه باشد که توسعه خود را برای همیشه متوقف کند. درعوض، جامعه و توسعه دهندگان AGI باید چگونگی درست کردن آن را بیابند.”
با این حال، صفحه استخدام شرکت و موسس توییت های سام آلتمن نشان می دهد که این شرکت تعداد زیادی از مهندسان یادگیری ماشین و دانشمندان کامپیوتر را استخدام می کند زیرا “ChatGPT یک نقشه راه بلندپروازانه دارد و مهندسی در تنگنا قرار دارد.”
آیا این دانشمندان و مهندسان کامپیوتر مجهز به تصمیماتی هستند که همانطور که OpenAI گفته است «به احتیاط بسیار بیشتری نسبت به آنچه جامعه معمولاً در مورد فناوریهای جدید اعمال میکند نیاز دارد»؟
شرکتهای فناوری باید تیمهای چند رشتهای را استخدام کنند که شامل دانشمندان علوم اجتماعی است که تأثیرات انسانی و اجتماعی فناوری را درک میکنند. با دیدگاههای مختلف در مورد نحوه آموزش برنامههای هوش مصنوعی و پیادهسازی پارامترهای ایمنی، شرکتها میتوانند استدلال شفافی را برای تصمیمات خود بیان کنند. این به نوبه خود می تواند درک عمومی از این فناوری را به عنوان بی طرف و قابل اعتماد تقویت کند.
دیدگاههای خارجی را در بر بگیرد
یکی دیگر از عناصر عدالت رویه ای، دادن فرصت به مردم برای مشارکت در فرآیند تصمیم گیری است. در یک پست وبلاگ اخیر در مورد نحوه برخورد شرکت OpenAI با سوگیری، این شرکت گفت که به دنبال “ورودی خارجی در مورد فناوری ما” است که به تمرین اخیر تیم قرمز اشاره می کند، فرآیندی برای ارزیابی ریسک از طریق رویکرد خصمانه.
در حالی که تیم قرمز یک فرآیند مهم برای ارزیابی ریسک است، باید ورودی های خارجی را نیز شامل شود. در تمرین تیمی قرمز OpenAI، 82 نفر از 103 شرکت کننده کارمند بودند. از 23 شرکتکننده باقی مانده، اکثریت دانشمندان علوم کامپیوتر از دانشگاههای عمدتا غربی بودند. برای به دست آوردن دیدگاه های متنوع، شرکت ها باید فراتر از کارمندان، رشته ها و جغرافیای خود نگاه کنند.
آنها همچنین میتوانند با ارائه کنترلهای بیشتر بر نحوه عملکرد هوش مصنوعی، بازخورد مستقیم بیشتری را به محصولات هوش مصنوعی فعال کنند. آنها همچنین ممکن است فرصت هایی را برای اظهار نظر عمومی در مورد سیاست های جدید یا تغییرات محصول در نظر بگیرند.
شفافیت را تضمین کنید
شرکتها باید اطمینان حاصل کنند که همه قوانین و فرآیندهای ایمنی مرتبط شفاف هستند و انگیزههای قابل اعتمادی را در مورد نحوه تصمیمگیری منتقل میکنند. برای مثال، مهم است که اطلاعاتی در مورد نحوه آموزش برنامهها، از کجا دادهها، نقش انسان در فرآیند آموزش و چه لایههای ایمنی برای به حداقل رساندن سوء استفاده به مردم ارائه شود.
اجازه دادن به محققان برای ممیزی و درک مدل های هوش مصنوعی کلید ایجاد اعتماد است.
آلتمن در مصاحبه اخیر با ABC News به درستی متوجه شد: «به نظر من جامعه زمان محدودی دارد تا بفهمد که چگونه به آن واکنش نشان دهد، چگونه آن را تنظیم کند، چگونه آن را مدیریت کند.»
از طریق رویکرد عدالت رویهای، به جای عدم شفافیت و بیاعتمادی رویکرد پیشینیان فناوری، شرکتهایی که پلتفرمهای هوش مصنوعی میسازند میتوانند جامعه را در این فرآیند مشارکت دهند و اعتماد و مشروعیت را کسب کنند – نه مطالبه کنند.