مایکروسافت مدل هوش مصنوعی Orca-Math را معرفی کرد؛ این هوش مصنوعی یک مدل زبانی کوچک (SLM) است اما از مدلهای بسیار بزرگتری مانند جمینای پرو گوگل و GPT-3.5 در حل مسائل ریاضی بهتر عمل میکند. البته این مدل کاملاً توسط مایکروسافت ایجاد نشده، درواقع Orca-Math برپایه مدل 7 میلیارد پارامتری شرکت Mistral ساخته شده است. پیشازاین مایکروسافت از همکاری چندساله با این شرکت فرانسوی خبر داده بود.
براساس اعلام رسمی بلاگ مایکروسافت ریسرچ، Orca-Math در بنچمارک GSM8k pass@1 که مخصوص بررسی میزان توانایی در حل مسائل ریاضی است، امتیاز 86.81 درصد را کسب کرد. این رقم از امتیاز مدلهای بزرگی مانند جمینای پرو، LLAMA-2-70 متا، GPT-3.5 و حتی از مدلهای تخصصی ریاضی مانند MetaMath-70B و WizardMa8th-70B بیشتر است. قابلذکر است که مدل پایه Mistral-7B نیز در بنچمارک GSM8k امتیاز 37.83 درصد را بهدست آورد.
مدل Orca-Math با مجموعه دادهای متشکل از 200 هزار مسئله ریاضی آموزش دیده است؛ هرچند این میزان کوچکتر از سایر مجموعه دادههای ریاضی است، اما این میزان داده امکان آموزش سریعتر و مقرونبهصرفه را فراهم میکند. همچنین Orca-Math تحت یک فرایند یادگیری تکراری قرار داشته، بدین صورت که حل مسائل تکراری را تمرین میکرد و بهطور مداوم براساس بازخورد سیگنالهای ناظر، خود را بهبود میداد.
بهنظر میرسد استارتاپ انتروپیک نیز از همین مجموعه داده برای آموزش مدل هوش مصنوعی Claude 3 Opus استفاده کرده است. مدل هوش مصنوعی قدرتمند انتروپیک که بهتازگی معرفی شده، رقیبی جدی برای جمینای و ChatGPT محسوب میشود.
مایکروسافت مدل زبانی اصلی Orca با 13 میلیارد پارامتر را در ژوئن 2023 (خردادماه) معرفی کرد که از GPT-4 بهعنوان معلم هوش مصنوعی خود استفاده میکرد. Orca 2 نیز در نسخههای 13 و 7 میلیارد پارامتری در نوامبر 2023 (آبانماه) معرفی شد که هر دو برپایه مدل متنباز متا یعنی Llama 2 LLM بودند. حالا عضو جدید خانواده Orca، با 7 میلیارد پارامتر، مخصوص حل مسائل ریاضی است و میتواند در این زمینه کاربردهای مختلفی داشته باشد.
اتاق خبر سیلور شاپ
منبع: https://digiato.com/artificial-intelligence/microsoft-today-announced-orca-math-a-small-language-model