• سیلور شاپ
  • /
  • فناوری
  • /
  • پایان فرمانروایی انویدیا بر صنعت هوش مصنوعی با این تراشه دانشمندان کره‌ای

پایان فرمانروایی انویدیا بر صنعت هوش مصنوعی با این تراشه دانشمندان کره‌ای

پایان فرمانروایی انویدیا بر صنعت هوش مصنوعی با این تراشه دانشمندان کره‌ای

دانشمندان کره‌ای از یک تراشه هوش مصنوعی به نام مکمل ترانسفورماتور (C-Transformer) رونمایی کرده و مدعی شده‌اند که با 625 برابر مصرف انرژی کم‌تر، می‌تواند در حد و اندازه پردازنده غول پیکر A100 انویدیا ظاهر شود. علاوه بر این، گفته شده که تراشه مذکور تا 41 برابر فضای کم‌تری نیز اشغال خواهد کرد.

تیمی از دانشمندان مؤسسه علوم و فناوری پیشرفته کره (KAIST) در کنفرانس بین‌المللی مدارهای حالت جامد (ISSCC) از یک تراشه هوش مصنوعی جدید رونمایی کرده و آن را تراشه مکمل ترانسفورماتور (C-Transformer) نام‌گذاری کردند.

به گفته پژوهشگران، این تراشه اولین شتاب‌دهنده هوش مصنوعی فوق‌العاده کم‌مصرف در جهان محسوب می‌شود که توانایی پردازش مدل‌های زبانی بزرگ (LLM) را دارد.

ادعایی بزرگ در برابر غول دنیای هوش مصنوعی

در یک مصاحبه مطبوعاتی، این دانشمندان ادعا کردند که تراشه مکمل ترانسفورماتور آن‌ها 625 برابر انرژی کم‌تری نسبت به تراشه A100 Tensor انویدیا مصرف کرده و 41 برابر فضای کم‌تری را هم اشغال می‌کند. آن‌ها همچنین اظهار دارند این تراشه که توسط سامسونگ ساخته شده، عمدتاً از فناوری پردازش نورومورفیک اصلاح‌شده ناشی می‌شود.

تصاویر منتشر شده در فضای مجازی در واقع تصویری از این تراشه و خلاصه‌ای از مشخصات آن هستند. همان‌طور که می‌توان مشاهده کرد، C-Transformer از فناوری ساخت 28 نانومتری سامسونگ بهره‌مند شده و دارای مساحت قالب 20.25 میلی‌متر مربع است. این تراشه هوش مصنوعی حداکثر فرکانس 200 مگاهرتز را ارائه کرده و می‌تواند کم‌تر از 500 میلی وات مصرف انرژی را به همراه داشته باشد. علاوه بر این، مشخص شده که در بهترین حالت می‌تواند به سرعت 3.41 TOPS برسد.

تراشه جدید مکمل ترانسفورماتور (C-Transformer) برای پردازش مدل‌های زبانی بزرگ

گرچه ادعا شده که این تراشه می‌تواند در حد و اندازه A100 انویدیا ظاهر شود، اما بر روی کاغذ 183 برابر ضعیف‌تر بوده و ارقام بسیار پایین‌تری را ارائه می‌کند. البته باید به این نکته نیز توجه داشت که ادعا شده تراشه مذکور 625 برابر مصرف انرژی کم‌تری نیز دارد.

با این حال، تا زمان انتشار اولین نتایج بنچمارک و عملکرد واقعی این تراشه در بار کاری هوش مصنوعی باید صبر کرد، چرا که علی‌رغم ادعاهای موجود، هیچ جدول یا نموداری برای مقایسه آن در برابر پردازنده گرافیکی A100 انویدیا در دسترس نیست.

تراشه جدید مکمل ترانسفورماتور (C-Transformer) برای پردازش مدل‌های زبانی بزرگ

معماری سه بخشی مکمل ترانسفورماتور (C-Transformer)

به گزارش Tomshardware، معماری تراشه C-Transformer نیز جالب بوده و از سه بلوک اصلی عملکردی تشکیل می‌شود. در وهله اول، یک هسته همگن DNN-Transformer/ هسته ترانسفورماتور اسپایکینگ (Spiking-transformer Core یا HDSC) با واحد ضرب انباشت ترکیبی (HMAU) قرار دارد که فرایند پردازش مؤثر انرژی توزیع شده به صورت پویا را برعهده خواهد داشت.

در مرحله بعد یک واحد OSSU (Output Spike Speculation Unit) وجود دارد که برای کاهش تأخیر و محاسبات پردازشی دامنه اسپایک مورد استفاده قرار می‌گیرد.

تراشه جدید مکمل ترانسفورماتور (C-Transformer) برای پردازش مدل‌های زبانی بزرگ

در نهایت به واحد تولید وزن ضمنی (IWGU) با فشرده‌سازی علائم گسترده (ESC) می‌رسیم که کاهش مصرف انرژی حافظه خارجی (EMA) را انجام می‌دهد.

طبق بیانیه مطبوعاتی KAIST، پیش از این فناوری محاسبات نورومورفیک برای استفاده در پردازش‌های مرتبط با مدل‌های زبانی بزرگ به اندازه کافی دقیق نبود. با این حال، دانشمندان کره‌ای مدعی هستند که در زمینه افزایش دقت فناوری برای مطابقت با DNN (شبکه‌های عصبی عمیق) به دستاوردهای چشمگیری رسیده‌اند.

در همین رابطه بخوانید:

– شتاب دهنده هوش مصنوعی 80 گیگابایتی A100 انویدیا معرفی شد

– ادعای بزرگ چینی‌ها: هواوی شتاب دهنده مشابه A100 انویدیا ساخته است

اگرچه به دلیل عدم ارائه نمودارها و جداول مقایسه این تراشه با شتاب‌دهنده هوش مصنوعی استاندارد انویدیا ابهاماتی در مورد عملکرد آن وجود دارد، اما به سختی می‌توان عدم جذابیت C-Transformer برای استفاده در گوشی‌های هوشمند به عنوان یک واحد محاسباتی هوش مصنوعی را رد کرد.

اتاق خبر سیلور شاپ

منبع: https://www.shahrsakhtafzar.com/fa/news/cpus/49965-korean-researchers-power-shame-nvidia-neural-ai-chip

.
محصول با موفقیت به سبد خرید اضافه شد.
Contact us spa bali | spa in seminyak | spa in bali.