فوتونیک ثابت کرده است که یک مهره سخت برای شکستن است

فوتونیک ثابت کرده است که یک مهره سخت برای شکستن است

محاسبه رو به رشد قدرت لازم برای آموزش مدل‌های پیشرفته هوش مصنوعی مانند ChatGPT OpenAI ممکن است در نهایت با فن‌آوری‌های تراشه‌های رایج به دیواری برسد.

در تحلیلی در سال 2019، OpenAI دریافت که از سال 1959 تا 2012، میزان انرژی مورد استفاده برای آموزش مدل‌های هوش مصنوعی هر دو سال دو برابر می‌شود و مصرف انرژی پس از سال 2012 هفت برابر سریع‌تر افزایش می‌یابد.

در حال حاضر باعث ایجاد فشار می شود. طبق گزارش‌ها، مایکروسافت با کمبود داخلی سخت‌افزار سرور مورد نیاز برای اجرای هوش مصنوعی خود مواجه است و این کمبود باعث افزایش قیمت‌ها می‌شود. CNBC، در صحبت با تحلیلگران و فناوران، هزینه فعلی آموزش یک مدل مشابه ChatGPT را از ابتدا بیش از 4 میلیون دلار تخمین زده است.

یک راه حل برای معضل آموزشی هوش مصنوعی که پیشنهاد شده است، تراشه های فوتونیکی است که از نور برای ارسال سیگنال ها به جای برقی که پردازنده های معمولی استفاده می کنند، استفاده می کنند. تراشه‌های فوتونیک در تئوری می‌توانند به عملکرد تمرینی بالاتری منجر شوند، زیرا نور گرمای کمتری نسبت به الکتریسیته تولید می‌کند، می‌تواند سریع‌تر حرکت کند و نسبت به تغییرات دما و میدان‌های الکترومغناطیسی بسیار کمتر حساس است.

Lightmatter، LightOn، Luminous Computing، Intel و NTT از جمله شرکت هایی هستند که فناوری های فوتونیکی را توسعه می دهند. اما در حالی که این فناوری چند سال پیش هیجان زیادی ایجاد کرد – و سرمایه‌گذاری زیادی را جذب کرد – از آن زمان این بخش به طرز محسوسی سرد شده است.

دلایل مختلفی وجود دارد، اما پیام کلی سرمایه‌گذاران و تحلیلگرانی که در زمینه فوتونیک مطالعه می‌کنند این است که تراشه‌های فوتونیکی برای هوش مصنوعی، اگرچه امیدوارکننده هستند، اما نوشدارویی نیستند که زمانی تصور می‌شدند.