نفرت ناشی از هوش مصنوعی در حال افزایش است: 3 نکته که رهبران باید قبل از استفاده از این فناوری جدید در نظر بگیرند

وقتی عبارت “هوش مصنوعی” را می شنوید، ممکن است تصور انواع ماشین های هوشمندی که ستون اصلی داستان های علمی تخیلی هستند یا امتداد انواع فن هراسی آخرالزمانی که از زمان هیولای دکتر فرانکنشتاین، بشریت را مجذوب خود کرده اند، وسوسه انگیز باشد.

اما انواع هوش مصنوعی که به سرعت در کسب و کارها در سراسر جهان ادغام می شوند از این نوع نیستند – آنها فناوری های بسیار واقعی هستند که تأثیر واقعی بر افراد واقعی دارند.

در حالی که هوش مصنوعی سال‌هاست در محیط‌های تجاری حضور داشته است، پیشرفت محصولات هوش مصنوعی مولد مانند ChatGPT، ChatSonic، Jasper AI و دیگران به طور چشمگیری سهولت استفاده را برای افراد عادی افزایش می‌دهد. در نتیجه، مردم آمریکا به شدت نگران احتمال سوء استفاده از این فناوری‌ها هستند. یک نظرسنجی اخیر ADL نشان داد که 84 درصد از آمریکایی‌ها نگران هستند که هوش مصنوعی مولد گسترش اطلاعات نادرست و نفرت را افزایش دهد.

رهبرانی که این فناوری را در نظر می گیرند باید از خود سؤالات سختی در مورد اینکه چگونه ممکن است آینده را شکل دهد – چه برای خوب و چه بد – از خود بپرسند که وارد این مرز جدید می شویم. در اینجا سه ​​چیز وجود دارد که امیدوارم همه رهبران با ادغام ابزارهای هوش مصنوعی در سازمان‌ها و محل‌های کاری، در نظر بگیرند.

اعتماد و ایمنی را در اولویت قرار دهید

در حالی که رسانه‌های اجتماعی به دست و پنجه نرم کردن با تعدیل محتوا عادت دارند، هوش مصنوعی مولد در محیط‌های کاری که تجربه قبلی در برخورد با این مسائل مانند مراقبت‌های بهداشتی و مالی ندارند، وارد می‌شود. بسیاری از صنایع ممکن است به زودی با اتخاذ این فناوری ها ناگهان با چالش های جدید و دشواری مواجه شوند. اگر شما یک شرکت بهداشتی و درمانی هستید که چت ربات مجهز به هوش مصنوعی در خط مقدم شما به طور ناگهانی نسبت به یک بیمار بی ادب یا حتی نفرت انگیز است، چگونه با آن کنار می آیید؟

با تمام قدرت و پتانسیلی که دارد، هوش مصنوعی مولد تولید محتوای مضر را برای بازیگران بد آسان، سریع و قابل دسترس می کند.

طی دهه‌ها، پلتفرم‌های رسانه‌های اجتماعی نظم جدیدی را ایجاد کرده‌اند – اعتماد و ایمنی – تا سعی کنند مشکلات خاردار مرتبط با محتوای تولید شده توسط کاربر را حل کنند. در مورد سایر صنایع اینطور نیست.

به همین دلیل، شرکت ها باید کارشناسانی را در زمینه اعتماد و ایمنی وارد کنند تا در مورد اجرای آنها صحبت کنند. آنها باید تخصص بسازند و درباره راه هایی که می توان از این ابزارها سوء استفاده کرد فکر کنند. و آن‌ها باید روی کارکنانی سرمایه‌گذاری کنند که مسئول رسیدگی به تخلفات هستند تا زمانی که این ابزارها توسط بازیگران بد مورد سوء استفاده قرار می‌گیرند، با پای صاف گیر نیفتند.

نرده های محافظ بالا ایجاد کنید و بر شفافیت پافشاری کنید

به خصوص در محیط های کاری یا تحصیلی، بسیار مهم است که پلتفرم های هوش مصنوعی دارای نرده های محافظ کافی برای جلوگیری از تولید محتوای نفرت انگیز یا آزاردهنده باشند.

در حالی که ابزارهای فوق العاده مفیدی هستند، اما پلتفرم های هوش مصنوعی 100٪ ضد خطا نیستند. به عنوان مثال، در عرض چند دقیقه، آزمایش‌کنندگان ADL اخیراً از برنامه Expedia، با قابلیت ChatGPT جدید، برای ایجاد برنامه‌ای از کشتارهای معروف ضد یهودی در اروپا و فهرستی از فروشگاه‌های لوازم هنری مجاور استفاده کردند که ظاهراً می‌توان رنگ اسپری خریداری کرد. دست زدن به خرابکاری علیه آن سایت ها.

در حالی که شاهد بودیم که برخی از هوش مصنوعی‌های مولد نحوه رسیدگی به سؤالات خود را بهبود می‌بخشند که می‌تواند منجر به پاسخ‌های یهودستیزانه و سایر پاسخ‌های نفرت‌آمیز شود، اما شاهد بودیم که برخی دیگر در هنگام اطمینان از اینکه در گسترش نفرت، آزار و اذیت، تئوری‌های توطئه و انواع دیگر نقشی ندارند، کوتاهی می‌کنند. محتوای مضر

قبل از پذیرش گسترده هوش مصنوعی، رهبران باید سوالات مهمی بپرسند، مانند: چه نوع آزمایشی انجام می شود تا اطمینان حاصل شود که این محصولات در معرض سوء استفاده نیستند؟ کدام مجموعه داده برای ساخت این مدل ها استفاده می شود؟ و آیا تجربیات جوامعی که بیشتر مورد هدف نفرت آنلاین هستند در ایجاد این ابزارها ادغام شده است؟

بدون شفافیت پلتفرم‌ها، هیچ تضمینی وجود ندارد که این مدل‌های هوش مصنوعی گسترش تعصب یا تعصب را امکان‌پذیر نکنند.

حفاظت در برابر تسلیحات

حتی با وجود اعتماد و اقدامات ایمنی قوی، هوش مصنوعی همچنان می تواند توسط کاربران عادی مورد سوء استفاده قرار گیرد. به عنوان رهبران، ما باید طراحان سیستم‌های هوش مصنوعی را تشویق کنیم تا در برابر تسلیحات انسانی، پادمان‌هایی ایجاد کنند.

متأسفانه، ابزارهای هوش مصنوعی با وجود تمام قدرت و پتانسیلی که دارند، تولید محتوا برای هر یک از این سناریوها را برای بازیگران بد، آسان، سریع و قابل دسترس می کنند. آنها می توانند اخبار جعلی قانع کننده تولید کنند، دیپ فیک های بصری قانع کننده ایجاد کنند و نفرت و آزار را در عرض چند ثانیه گسترش دهند. محتوای تولید شده توسط هوش مصنوعی همچنین می تواند به گسترش ایدئولوژی های افراطی کمک کند – یا برای افراطی کردن افراد مستعد استفاده شود.

در پاسخ به این تهدیدات، پلتفرم‌های هوش مصنوعی باید از سیستم‌های تعدیل قوی استفاده کنند که بتوانند در برابر سیل احتمالی محتوای مضری که ممکن است با استفاده از این ابزار تولید کنند، مقاومت کنند.

هوش مصنوعی مولد پتانسیل تقریباً نامحدودی برای بهبود زندگی و متحول کردن نحوه پردازش حجم بی‌پایان اطلاعات موجود آنلاین دارد. من در مورد چشم انداز آینده با هوش مصنوعی اما فقط با رهبری مسئول هیجان زده هستم.