آمازون کلاه خود را به حلقه هوش مصنوعی مولد می اندازد. اما به جای اینکه مدل های هوش مصنوعی را به تنهایی بسازد، اشخاص ثالث را برای میزبانی مدل ها در AWS استخدام می کند.
AWS امروز از Amazon Bedrock پرده برداری کرد که راهی برای ساخت اپلیکیشن های مولد مبتنی بر هوش مصنوعی از طریق مدل های از پیش آموزش دیده استارت آپ هایی از جمله AI21 Labs، Anthropic و Stability AI ارائه می دهد. Bedrock که در یک «پیشنمایش محدود» موجود است، دسترسی به Titan FM (مدلهای پایه) را نیز ارائه میکند، خانوادهای از مدلهایی که در داخل توسط AWS آموزش دیدهاند.
واسی فیلومین، معاون هوش مصنوعی مولد در AWS در یک مصاحبه تلفنی به TechCrunch گفت: «بهکارگیری یادگیری ماشینی در دنیای واقعی – حل مشکلات واقعی کسبوکار در مقیاس – بهترین کاری است که ما انجام میدهیم. ما فکر میکنیم که هر اپلیکیشنی که وجود دارد را میتوان با هوش مصنوعی مولد دوباره تصور کرد.
آغاز به کار Bedrock تا حدودی توسط AWS که اخیراً با استارتآپهای هوش مصنوعی مولد در چند ماه گذشته امضا شده است، علاوه بر سرمایهگذاری رو به رشد آن در فناوری مورد نیاز برای ساخت برنامههای هوش مصنوعی مولد، تلگراف شده است.
نوامبر گذشته، هوش مصنوعی پایداری AWS را به عنوان ارائهدهنده ابری ترجیحی خود انتخاب کرد و در ماه مارس، Hugging Face و AWS برای آوردن مدلهای تولید متن قبلی به پلتفرم AWS همکاری کردند. اخیراً، AWS یک شتاب دهنده هوش مصنوعی مولد برای استارت آپ ها راه اندازی کرد و گفت که با انویدیا برای ایجاد زیرساخت «نسل بعدی» برای آموزش مدل های هوش مصنوعی همکاری خواهد کرد.
بستر و مدل های سفارشی
بر اساس برآورد گراند ویو ریسرچ، Bedrock قدرتمندترین بازی آمازون تاکنون برای بازار مولد هوش مصنوعی است که می تواند تا سال 2030 نزدیک به 110 میلیارد دلار ارزش داشته باشد.
با Bedrock، مشتریان AWS میتوانند از طریق API از مدلهای AI از ارائهدهندگان مختلف، از جمله AWS استفاده کنند. جزئیات کمی مبهم هستند – آمازون قیمت رسمی را اعلام نکرده است. اما شرکت انجام داد تاکید میکند که Bedrock هدف مشتریان بزرگی است که برنامههای هوش مصنوعی در مقیاس سازمانی بسازند، و آن را از برخی از خدمات میزبانی مدل هوش مصنوعی مانند Replicate (به علاوه رقبای فعلی Google Cloud و Azure) متمایز میکند.
یکی فرض میکند که فروشندگان مدلهای هوش مصنوعی مولد با دسترسی AWS یا اشتراک درآمد بالقوه برای پیوستن به Bedrock تشویق شدهاند. با این حال، آمازون شرایط مدل مجوز یا قراردادهای میزبانی را فاش نکرد.
مدلهای شخص ثالث میزبانی شده در Bedrock شامل خانواده Jurassic-2 آزمایشگاه AI21 است که چند زبانه هستند و میتوانند متنی به زبانهای اسپانیایی، فرانسوی، آلمانی، پرتغالی، ایتالیایی و هلندی تولید کنند. کلود، مدل آنتروپیک در بستر، می تواند طیف وسیعی از وظایف مکالمه و پردازش متن را انجام دهد. در همین حال، مجموعه مدلهای Stability AI از متن به تصویر میزبان Bedrock، از جمله Stable Diffusion، میتواند تصاویر، هنر، آرمها و طرحهای گرافیکی تولید کند.

اعتبار تصویر: آمازون
در مورد پیشنهادات سفارشی آمازون، خانواده Titan FM در حال حاضر شامل دو مدل است که احتمالاً در آینده بیشتر خواهد شد: یک مدل تولید متن و یک مدل جاسازی. مدل تولید متن، شبیه به GPT-4 OpenAI (اما نه لزوماً از نظر عملکرد یکسان)، میتواند کارهایی مانند نوشتن پستها و ایمیلهای وبلاگ، خلاصه کردن اسناد و استخراج اطلاعات از پایگاههای داده را انجام دهد. مدل جاسازی، ورودیهای متنی مانند کلمات و عبارات را به نمایشهای عددی، معروف به embedding، ترجمه میکند که حاوی معنای معنایی متن است. فیلومین ادعا می کند که شبیه به یکی از مدل هایی است که جستجو در Amazon.com را تقویت می کند.
مشتریان AWS میتوانند هر مدل Bedrock را با اشاره به چند نمونه برچسبگذاری شده در Amazon S3، برنامه ذخیرهسازی ابری آمازون، هر مدل Bedrock را سفارشی کنند – به اندازه 20 عدد کافی است. آمازون میگوید هیچ اطلاعات مشتری برای آموزش مدلهای اساسی استفاده نمیشود.
فیلومین گفت: «در AWS… ما نقشی کلیدی در دموکراتیک کردن یادگیری ماشین و در دسترس قرار دادن آن برای هر کسی که میخواهد از آن استفاده کند، ایفا کردهایم. Amazon Bedrock سادهترین راه برای ساخت و مقیاسبندی برنامههای هوش مصنوعی مولد با مدلهای پایه است.
البته، با توجه به سؤالات حقوقی بی پاسخ پیرامون هوش مصنوعی مولد، می توان به این فکر کرد که دقیقاً چند مشتری گاز می گیرند.
مایکروسافت با مجموعه مدلهای هوش مصنوعی مولد خود، Azure OpenAI Service، که مدلهای OpenAI را با ویژگیهای اضافی برای مشتریان سازمانی بستهبندی میکند، شاهد موفقیت بوده است. مایکروسافت در یک پست وبلاگی اعلام کرد تا ماه مارس، بیش از 1000 مشتری از سرویس OpenAI Azure استفاده می کردند.
اما چندین پرونده قضایی در مورد فناوری هوش مصنوعی مولد از شرکتهایی از جمله OpenAI و Stability AI توسط شاکیانی که ادعا میکنند دادههای دارای حق چاپ، عمدتاً آثار هنری، بدون مجوز برای آموزش مدلهای مولد استفاده شدهاند، مطرح شده است. (مدلهای هوش مصنوعی مولد با «آموزش» روی نمونههای تصاویر و متن، که معمولاً بهطور بیتوجهی از وب خراشیده میشوند، خلق هنر، کد و موارد دیگر را «یاد میگیرند».) مورد دیگری که در دادگاه راهاندازی میکند، به دنبال این است که مشخص کند آیا مدلهای تولیدکننده کد که انجام میدهند یا خیر. در واقع میتوان آن را تجاریسازی کرد، و یک شهردار استرالیایی تهدید کرده است که علیه OpenAI به دلیل نادرستیهایی که مدل مولد آن ChatGPT منتشر کرده است، شکایتی را برای افترا مطرح میکند.
فیلومین رک و پوست کنده اعتماد به نفس زیادی ایجاد نکرد و از گفتن اینکه خانواده Titan FM آمازون دقیقاً بر روی کدام داده ها آموزش دیده اند خودداری کرد. در عوض، او تاکید کرد که مدلهای Titan برای شناسایی و حذف محتوای «مضر» در دادههایی که مشتریان AWS برای سفارشیسازی ارائه میکنند، رد ورودی محتوای «نامناسب» کاربران و فیلتر کردن خروجیهای حاوی سخنان مشوق نفرتانگیز، ناسزا و خشونت ساخته شدهاند.
البته، همانطور که توسط ChatGPT نشان داده شده است، حتی بهترین سیستم های فیلتر را نیز می توان دور زد. به اصطلاح حملات تزریق سریع علیه ChatGPT و مدلهای مشابه برای نوشتن بدافزار، شناسایی سوء استفادهها در کد منبع باز و تولید محتوای شنیع جنسی، نژادپرستانه و اطلاعات نادرست مورد استفاده قرار گرفتهاند. (مدلهای هوش مصنوعی مولد تمایل دارند سوگیریها را در دادههای آموزشی تقویت کنند، یا – اگر دادههای آموزشی مرتبط تمام شود – به سادگی موارد را درست میکنند.)
اما فیلومین این نگرانی ها را کنار گذاشت.
او گفت: «ما متعهد به استفاده مسئولانه از این فناوریها هستیم. “ما در حال نظارت بر چشم انداز نظارتی خارج از کشور هستیم… ما وکلا زیادی داریم که به ما کمک می کنند تا ببینیم از چه داده هایی می توانیم استفاده کنیم و از چه اطلاعاتی نمی توانیم استفاده کنیم.”
به کنار تلاش های فیلومین برای اطمینان، برندها ممکن است نخواهند در مقابل همه چیزهایی که ممکن است اشتباه پیش برود، دست و پا بزنند. (در صورت شکایت، کاملاً مشخص نیست که آیا مشتریان AWS، خود AWS یا خالق مدل متخلف مسئول خواهند بود یا خیر.) اما مشتریان فردی ممکن است – به خصوص اگر هزینه ای برای این امتیاز وجود نداشته باشد.
CodeWhisperer، Trainium و Inferentia2 در GA راه اندازی شدند
در مورد این موضوع و همزمان با فشارهای مولد بزرگ هوش مصنوعی امروز، آمازون CodeWhisperer، سرویس تولید کد مبتنی بر هوش مصنوعی خود را بدون هیچ گونه محدودیتی برای توسعهدهندگان رایگان ساخت.
این حرکت نشان میدهد که CodeWhisperer جذبی را که آمازون امیدوار بود ندیده است. رقیب اصلی آن، GitHub’s Copilot، تا ژانویه بیش از یک میلیون کاربر داشت که هزاران نفر از آنها مشتریان سازمانی هستند. CodeWhisperer مطمئناً زمینی برای جبران دارد – که با راه اندازی همزمان CodeWhisperer Professional Tier قصد دارد در سمت شرکت انجام دهد. CodeWhisperer Professional Tier یک ورود به سیستم را با ادغام AWS Identity و Access Management و همچنین محدودیت های بالاتر در اسکن برای آسیب پذیری های امنیتی اضافه می کند.
CodeWhisperer در اواخر ژوئن به عنوان بخشی از AWS IDE Toolkit و افزونه های AWS Toolkit IDE به عنوان پاسخی به Copilot فوق الذکر راه اندازی شد. CodeWhisperer که بر روی میلیاردها خط کد منبع باز در دسترس عموم و پایگاه کد خود آمازون و همچنین اسناد و کدهای موجود در انجمن های عمومی آموزش دیده است، می تواند تمام توابع را در زبان هایی مانند جاوا، جاوا اسکریپت و پایتون تنها بر اساس یک نظر یا چند ضربه کلید به صورت خودکار تکمیل کند.

اعتبار تصویر: آمازون
CodeWhisperer اکنون از چندین زبان برنامه نویسی اضافی پشتیبانی می کند – به ویژه Go، Rust، PHP، Ruby، Kotlin، C، C++، Shell scripting، SQL و Scala – و مانند قبل، مجوز مرتبط با توابعی را که نشان می دهد شباهت دارند برجسته می کند و به صورت اختیاری فیلتر می کند. به قطعه های موجود موجود در داده های آموزشی آن.
برجسته تلاشی برای جلوگیری از چالش های قانونی است که GitHub با Copilot با آن مواجه است. زمان نشان خواهد داد که آیا موفقیت آمیز است یا خیر.
فیلومین گفت: «توسعهدهندگان میتوانند با این ابزارها بسیار کارآمدتر شوند. بهروز بودن در مورد همه چیز برای توسعهدهندگان دشوار است… ابزارهایی مانند این به آنها کمک میکنند که نگران آن نباشند.»
در منطقه ای که کمتر بحث برانگیز است، آمازون امروز اعلام کرد که اینطور است راهاندازی نمونههای Elastic Cloud Compute (EC2) Inf2 در دسترس عموم، با تراشههای AWS Inferentia2 این شرکت، که سال گذشته در کنفرانس re:Invent آمازون پیشنمایش شدند. نمونههای Inf2 برای سرعت بخشیدن به زمانهای اجرای هوش مصنوعی طراحی شدهاند، و خروجی ظاهراً بهتر و تأخیر کمتری برای بهبود عملکرد کلی قیمت استنتاج ارائه میکنند.
علاوه بر این، نمونه های آمازون EC2 Trn1n توسط AWS آمازون اعلام کرد Trainium، تراشه طراحی شده سفارشی آمازون برای آموزش هوش مصنوعی نیز از امروز به طور کلی در دسترس مشتریان است. آمازون می گوید که آنها حداکثر 1600 گیگابیت بر ثانیه پهنای باند شبکه را ارائه می دهند و برای ارائه تا 20 درصد عملکرد بالاتر از Trn1 برای مدل های بزرگ و شبکه فشرده طراحی شده اند.
هر دو Inf2 و Trn1n با پیشنهادات رقیب گوگل و مایکروسافت مانند تراشه های TPU گوگل برای آموزش هوش مصنوعی رقابت می کنند.
فیلومین با اطمینان گفت: «AWS مؤثرترین زیرساخت ابری را برای هوش مصنوعی مولد ارائه میکند». یکی از نیازهای مشتریان، هزینههای مناسب برای برخورد با این مدلها است… این یکی از دلایلی است که بسیاری از مشتریان این مدلها را تولید نکردهاند.»
سخنان جنگجویانه آنها – طبق گزارش ها، رشد هوش مصنوعی مولد Azure را به زانو درآورد. آیا آمازون نیز به همین سرنوشت دچار خواهد شد؟ این باید مشخص شود.