علیبابا مدل زبانی جدید QwQ-32B را معرفی کرد. این مدل که از ۳۲ میلیارد پارامتر بهره میبرد، با مجوز Apache 2.0 بهصورت اپنسورس منتشر شده است. QwQ-32B با استفاده از تکنیکهای پیشرفته و یادگیری تقویتی، عملکردی در سطح مدلهای بزرگتر مانند DeepSeek-R1 ارائه میدهد، اما در عین حال به منابع پردازشی کمتری نیاز دارد.
این مدل برای حل مسائل پیچیده، برنامهنویسی و تحلیل دادهها طراحی شده و در برخی آزمایشها توانسته از مدلهای OpenAI و DeepSeek عملکرد بهتری نشان دهد. انتشار QwQ-32B در پلتفرمهایی مانند Hugging Face، امکان دانلود، اجرا و شخصیسازی آفلاین آن را برای کسبوکارها فراهم میکند. این امر به شرکتها اجازه میدهد تا از این مدل در محیطهای مختلف و بدون نیاز به اتصال دائمی به اینترنت استفاده کنند.