دانشمندان کرهای از یک تراشه هوش مصنوعی به نام مکمل ترانسفورماتور (C-Transformer) رونمایی کرده و مدعی شدهاند که با 625 برابر مصرف انرژی کمتر، میتواند در حد و اندازه پردازنده غول پیکر A100 انویدیا ظاهر شود. علاوه بر این، گفته شده که تراشه مذکور تا 41 برابر فضای کمتری نیز اشغال خواهد کرد.
تیمی از دانشمندان مؤسسه علوم و فناوری پیشرفته کره (KAIST) در کنفرانس بینالمللی مدارهای حالت جامد (ISSCC) از یک تراشه هوش مصنوعی جدید رونمایی کرده و آن را تراشه مکمل ترانسفورماتور (C-Transformer) نامگذاری کردند.
به گفته پژوهشگران، این تراشه اولین شتابدهنده هوش مصنوعی فوقالعاده کممصرف در جهان محسوب میشود که توانایی پردازش مدلهای زبانی بزرگ (LLM) را دارد.
ادعایی بزرگ در برابر غول دنیای هوش مصنوعی
در یک مصاحبه مطبوعاتی، این دانشمندان ادعا کردند که تراشه مکمل ترانسفورماتور آنها 625 برابر انرژی کمتری نسبت به تراشه A100 Tensor انویدیا مصرف کرده و 41 برابر فضای کمتری را هم اشغال میکند. آنها همچنین اظهار دارند این تراشه که توسط سامسونگ ساخته شده، عمدتاً از فناوری پردازش نورومورفیک اصلاحشده ناشی میشود.
تصاویر منتشر شده در فضای مجازی در واقع تصویری از این تراشه و خلاصهای از مشخصات آن هستند. همانطور که میتوان مشاهده کرد، C-Transformer از فناوری ساخت 28 نانومتری سامسونگ بهرهمند شده و دارای مساحت قالب 20.25 میلیمتر مربع است. این تراشه هوش مصنوعی حداکثر فرکانس 200 مگاهرتز را ارائه کرده و میتواند کمتر از 500 میلی وات مصرف انرژی را به همراه داشته باشد. علاوه بر این، مشخص شده که در بهترین حالت میتواند به سرعت 3.41 TOPS برسد.
گرچه ادعا شده که این تراشه میتواند در حد و اندازه A100 انویدیا ظاهر شود، اما بر روی کاغذ 183 برابر ضعیفتر بوده و ارقام بسیار پایینتری را ارائه میکند. البته باید به این نکته نیز توجه داشت که ادعا شده تراشه مذکور 625 برابر مصرف انرژی کمتری نیز دارد.
با این حال، تا زمان انتشار اولین نتایج بنچمارک و عملکرد واقعی این تراشه در بار کاری هوش مصنوعی باید صبر کرد، چرا که علیرغم ادعاهای موجود، هیچ جدول یا نموداری برای مقایسه آن در برابر پردازنده گرافیکی A100 انویدیا در دسترس نیست.
معماری سه بخشی مکمل ترانسفورماتور (C-Transformer)
به گزارش Tomshardware، معماری تراشه C-Transformer نیز جالب بوده و از سه بلوک اصلی عملکردی تشکیل میشود. در وهله اول، یک هسته همگن DNN-Transformer/ هسته ترانسفورماتور اسپایکینگ (Spiking-transformer Core یا HDSC) با واحد ضرب انباشت ترکیبی (HMAU) قرار دارد که فرایند پردازش مؤثر انرژی توزیع شده به صورت پویا را برعهده خواهد داشت.
در مرحله بعد یک واحد OSSU (Output Spike Speculation Unit) وجود دارد که برای کاهش تأخیر و محاسبات پردازشی دامنه اسپایک مورد استفاده قرار میگیرد.
در نهایت به واحد تولید وزن ضمنی (IWGU) با فشردهسازی علائم گسترده (ESC) میرسیم که کاهش مصرف انرژی حافظه خارجی (EMA) را انجام میدهد.
طبق بیانیه مطبوعاتی KAIST، پیش از این فناوری محاسبات نورومورفیک برای استفاده در پردازشهای مرتبط با مدلهای زبانی بزرگ به اندازه کافی دقیق نبود. با این حال، دانشمندان کرهای مدعی هستند که در زمینه افزایش دقت فناوری برای مطابقت با DNN (شبکههای عصبی عمیق) به دستاوردهای چشمگیری رسیدهاند.
در همین رابطه بخوانید:
– شتاب دهنده هوش مصنوعی 80 گیگابایتی A100 انویدیا معرفی شد
– ادعای بزرگ چینیها: هواوی شتاب دهنده مشابه A100 انویدیا ساخته است
اگرچه به دلیل عدم ارائه نمودارها و جداول مقایسه این تراشه با شتابدهنده هوش مصنوعی استاندارد انویدیا ابهاماتی در مورد عملکرد آن وجود دارد، اما به سختی میتوان عدم جذابیت C-Transformer برای استفاده در گوشیهای هوشمند به عنوان یک واحد محاسباتی هوش مصنوعی را رد کرد.