متا می گوید که یک ابزار هوش مصنوعی مولد برای کدنویسی شبیه به Copilot GitHub ایجاد کرده است.
این شرکت در رویدادی با تمرکز بر تلاشهای زیرساختی هوش مصنوعی خود، از جمله ساخت تراشههای سفارشی متا برای تسریع آموزش مدلهای هوش مصنوعی مولد، اعلام کرد. ابزار کدنویسی به نام CodeCompose به صورت عمومی در دسترس نیست – حداقل هنوز. اما متا میگوید که تیمهایش از آن به صورت داخلی برای دریافت پیشنهاد کد برای پایتون و سایر زبانها هنگام تایپ IDE مانند VS Code استفاده میکنند.
“مدل اساسی بر اساس تحقیقات عمومی ساخته شده است [Meta] مایکل بولین، مهندس نرمافزار در متا، در ویدئویی از پیش ضبطشده گفت که ما برای موارد استفاده داخلی و پایگاههای کد خود تنظیم کردهایم. از طرف محصول، ما می توانیم CodeCompose را در هر سطحی که توسعه دهندگان یا دانشمندان داده ما با کد کار می کنند، ادغام کنیم.
بزرگترین مدل از چندین مدل CodeCompose که متا آموزش داده است دارای 6.7 میلیارد پارامتر است که کمی بیش از نیمی از تعداد پارامترهای مدلی است که Copilot بر اساس آن ساخته شده است. پارامترها بخشهایی از مدل هستند که از دادههای آموزشی تاریخی آموخته میشوند و اساساً مهارت مدل را در یک مسئله، مانند تولید متن، تعریف میکنند.
CodeCompose روی کدهای شخص اول متا، از جمله کتابخانههای داخلی و چارچوبهای نوشته شده در Hack، یک زبان برنامهنویسی متا تنظیم شده است، بنابراین میتواند آنها را در پیشنهادات برنامهنویسی خود بگنجاند. و مجموعه دادههای آموزشی پایه آن از شیوههای کدگذاری ضعیف و خطاها، مانند APIهای منسوخ، فیلتر شد تا احتمال اینکه مدل یک قطعه کد مشکلساز را توصیه کند، کاهش مییابد.

ابزار CodeCompose متا که توسط هوش مصنوعی طراحی شده است.
در عمل، CodeCompose پیشنهادهایی مانند حاشیه نویسی و عبارات وارد کردن را به عنوان یک کاربر ارائه می دهد. این سیستم میتواند یک خط کد یا چند خط را تکمیل کند و بهصورت اختیاری تکههای بزرگ کد را پر کند.
بولین ادامه داد: “CodeCompose می تواند از کدهای اطراف برای ارائه پیشنهادات بهتر استفاده کند.” “همچنین می تواند از نظرات کد به عنوان سیگنال در تولید کد استفاده کند.
متا ادعا می کند که هزاران کارمند هر هفته پیشنهادات CodeCompose را می پذیرند و نرخ پذیرش بیش از 20٪ است.
با این حال، این شرکت به مناقشات پیرامون هوش مصنوعی تولید کد توجهی نکرد.
مایکروسافت، GitHub و OpenAI در یک دادخواست دسته جمعی مورد شکایت قرار گرفته اند که آنها را متهم به نقض قانون کپی رایت با اجازه دادن به Copilot برای بازیابی بخش هایی از کد مجاز بدون ارائه اعتبار می کند. جدا از مسئولیت، برخی از کارشناسان حقوقی پیشنهاد کردهاند که هوش مصنوعی مانند Copilot میتواند شرکتها را در معرض خطر قرار دهد اگر بخواهند ناخواسته پیشنهادهای دارای حق چاپ از این ابزار را در نرمافزار تولید خود بگنجانند.
مشخص نیست که CodeCompose نیز بر اساس کد دارای مجوز یا دارای حق چاپ آموزش دیده است – حتی به صورت تصادفی. هنگامی که برای اظهار نظر تماس گرفتیم، سخنگوی متا این را گفت:
«CodeCompose بر روی InCoder آموزش داده شد که توسط بخش تحقیقات هوش مصنوعی متا منتشر شد. در مقالهای که به جزئیات InCoder میپردازیم، خاطرنشان میکنیم که برای آموزش InCoder، ما مجموعهای از (1) کد عمومی را با مجوزهای منبع باز مجاز، غیر کپیلفت از GitHub و GitLab و (2) سؤالات، پاسخها و نظرات StackOverflow جمعآوری میکنیم. ‘ تنها آموزش اضافی که برای CodeCompose انجام می دهیم، در مورد کد داخلی متا است.
ابزارهای کدنویسی مولد نیز می توانند کد ناامن را معرفی کنند. بر اساس یک مطالعه اخیر در استنفورد، مهندسان نرمافزاری که از سیستمهای هوش مصنوعی تولیدکننده کد استفاده میکنند، به احتمال زیاد آسیبپذیریهای امنیتی در برنامههایی که توسعه میدهند ایجاد میکنند. در حالی که این مطالعه به طور خاص به CodeCompose توجه نکرده است، به این دلیل است که توسعه دهندگانی که از آن استفاده می کنند قربانی همان خواهند شد.
بولین تاکید کرد که توسعه دهندگان نیازی به پیروی از پیشنهادات CodeCompose ندارند و امنیت یک “ملاحظه اصلی” در ایجاد این مدل است. او افزود: “ما از پیشرفت خود در CodeCompose تا به امروز بسیار هیجان زده هستیم و معتقدیم که توسعه دهندگان ما با ارائه این کار در خانه بهترین خدمات را خواهند داشت.”