وقتی عبارت “هوش مصنوعی” را می شنوید، ممکن است تصور انواع ماشین های هوشمندی که ستون اصلی داستان های علمی تخیلی هستند یا امتداد انواع فن هراسی آخرالزمانی که از زمان هیولای دکتر فرانکنشتاین، بشریت را مجذوب خود کرده اند، وسوسه انگیز باشد.
اما انواع هوش مصنوعی که به سرعت در کسب و کارها در سراسر جهان ادغام می شوند از این نوع نیستند – آنها فناوری های بسیار واقعی هستند که تأثیر واقعی بر افراد واقعی دارند.
در حالی که هوش مصنوعی سالهاست در محیطهای تجاری حضور داشته است، پیشرفت محصولات هوش مصنوعی مولد مانند ChatGPT، ChatSonic، Jasper AI و دیگران به طور چشمگیری سهولت استفاده را برای افراد عادی افزایش میدهد. در نتیجه، مردم آمریکا به شدت نگران احتمال سوء استفاده از این فناوریها هستند. یک نظرسنجی اخیر ADL نشان داد که 84 درصد از آمریکاییها نگران هستند که هوش مصنوعی مولد گسترش اطلاعات نادرست و نفرت را افزایش دهد.
رهبرانی که این فناوری را در نظر می گیرند باید از خود سؤالات سختی در مورد اینکه چگونه ممکن است آینده را شکل دهد – چه برای خوب و چه بد – از خود بپرسند که وارد این مرز جدید می شویم. در اینجا سه چیز وجود دارد که امیدوارم همه رهبران با ادغام ابزارهای هوش مصنوعی در سازمانها و محلهای کاری، در نظر بگیرند.
اعتماد و ایمنی را در اولویت قرار دهید
در حالی که رسانههای اجتماعی به دست و پنجه نرم کردن با تعدیل محتوا عادت دارند، هوش مصنوعی مولد در محیطهای کاری که تجربه قبلی در برخورد با این مسائل مانند مراقبتهای بهداشتی و مالی ندارند، وارد میشود. بسیاری از صنایع ممکن است به زودی با اتخاذ این فناوری ها ناگهان با چالش های جدید و دشواری مواجه شوند. اگر شما یک شرکت بهداشتی و درمانی هستید که چت ربات مجهز به هوش مصنوعی در خط مقدم شما به طور ناگهانی نسبت به یک بیمار بی ادب یا حتی نفرت انگیز است، چگونه با آن کنار می آیید؟
با تمام قدرت و پتانسیلی که دارد، هوش مصنوعی مولد تولید محتوای مضر را برای بازیگران بد آسان، سریع و قابل دسترس می کند.
طی دههها، پلتفرمهای رسانههای اجتماعی نظم جدیدی را ایجاد کردهاند – اعتماد و ایمنی – تا سعی کنند مشکلات خاردار مرتبط با محتوای تولید شده توسط کاربر را حل کنند. در مورد سایر صنایع اینطور نیست.
به همین دلیل، شرکت ها باید کارشناسانی را در زمینه اعتماد و ایمنی وارد کنند تا در مورد اجرای آنها صحبت کنند. آنها باید تخصص بسازند و درباره راه هایی که می توان از این ابزارها سوء استفاده کرد فکر کنند. و آنها باید روی کارکنانی سرمایهگذاری کنند که مسئول رسیدگی به تخلفات هستند تا زمانی که این ابزارها توسط بازیگران بد مورد سوء استفاده قرار میگیرند، با پای صاف گیر نیفتند.
نرده های محافظ بالا ایجاد کنید و بر شفافیت پافشاری کنید
به خصوص در محیط های کاری یا تحصیلی، بسیار مهم است که پلتفرم های هوش مصنوعی دارای نرده های محافظ کافی برای جلوگیری از تولید محتوای نفرت انگیز یا آزاردهنده باشند.
در حالی که ابزارهای فوق العاده مفیدی هستند، اما پلتفرم های هوش مصنوعی 100٪ ضد خطا نیستند. به عنوان مثال، در عرض چند دقیقه، آزمایشکنندگان ADL اخیراً از برنامه Expedia، با قابلیت ChatGPT جدید، برای ایجاد برنامهای از کشتارهای معروف ضد یهودی در اروپا و فهرستی از فروشگاههای لوازم هنری مجاور استفاده کردند که ظاهراً میتوان رنگ اسپری خریداری کرد. دست زدن به خرابکاری علیه آن سایت ها.
در حالی که شاهد بودیم که برخی از هوش مصنوعیهای مولد نحوه رسیدگی به سؤالات خود را بهبود میبخشند که میتواند منجر به پاسخهای یهودستیزانه و سایر پاسخهای نفرتآمیز شود، اما شاهد بودیم که برخی دیگر در هنگام اطمینان از اینکه در گسترش نفرت، آزار و اذیت، تئوریهای توطئه و انواع دیگر نقشی ندارند، کوتاهی میکنند. محتوای مضر
قبل از پذیرش گسترده هوش مصنوعی، رهبران باید سوالات مهمی بپرسند، مانند: چه نوع آزمایشی انجام می شود تا اطمینان حاصل شود که این محصولات در معرض سوء استفاده نیستند؟ کدام مجموعه داده برای ساخت این مدل ها استفاده می شود؟ و آیا تجربیات جوامعی که بیشتر مورد هدف نفرت آنلاین هستند در ایجاد این ابزارها ادغام شده است؟
بدون شفافیت پلتفرمها، هیچ تضمینی وجود ندارد که این مدلهای هوش مصنوعی گسترش تعصب یا تعصب را امکانپذیر نکنند.
حفاظت در برابر تسلیحات
حتی با وجود اعتماد و اقدامات ایمنی قوی، هوش مصنوعی همچنان می تواند توسط کاربران عادی مورد سوء استفاده قرار گیرد. به عنوان رهبران، ما باید طراحان سیستمهای هوش مصنوعی را تشویق کنیم تا در برابر تسلیحات انسانی، پادمانهایی ایجاد کنند.
متأسفانه، ابزارهای هوش مصنوعی با وجود تمام قدرت و پتانسیلی که دارند، تولید محتوا برای هر یک از این سناریوها را برای بازیگران بد، آسان، سریع و قابل دسترس می کنند. آنها می توانند اخبار جعلی قانع کننده تولید کنند، دیپ فیک های بصری قانع کننده ایجاد کنند و نفرت و آزار را در عرض چند ثانیه گسترش دهند. محتوای تولید شده توسط هوش مصنوعی همچنین می تواند به گسترش ایدئولوژی های افراطی کمک کند – یا برای افراطی کردن افراد مستعد استفاده شود.
در پاسخ به این تهدیدات، پلتفرمهای هوش مصنوعی باید از سیستمهای تعدیل قوی استفاده کنند که بتوانند در برابر سیل احتمالی محتوای مضری که ممکن است با استفاده از این ابزار تولید کنند، مقاومت کنند.
هوش مصنوعی مولد پتانسیل تقریباً نامحدودی برای بهبود زندگی و متحول کردن نحوه پردازش حجم بیپایان اطلاعات موجود آنلاین دارد. من در مورد چشم انداز آینده با هوش مصنوعی اما فقط با رهبری مسئول هیجان زده هستم.