Vào ngày 6 tháng 3, Alibaba đã phát hành và cung cấp nguồn mở cho mô hình lý luận mới của mình, QwQ-32B, với 32 tỷ tham số. Mặc dù nhỏ hơn đáng kể so với DeepSeek-R1, có 6.710 tỷ tham số (với 3,7 tỷ hoạt động), QwQ-32B phù hợp với hiệu suất của nó ở nhiều điểm chuẩn khác nhau.
QwQ-32B xuất sắc trong các bài kiểm tra toán và mã hóa, vượt trội so với các phiên bản o1-mini và chắt lọc của OpenAI của DeepSeek-R1. Nó cũng đạt điểm cao hơn DeepSeek-R1 trong một số đánh giá như LiveBench và IFEval. Mô hình này thúc đẩy việc học tăng cường và tích hợp các khả năng của tác nhân để tư duy phê phán và lập luận thích ứng. Đáng chú ý, QwQ-32B yêu cầu sức mạnh tính toán ít hơn nhiều, khiến nó có thể triển khai trên phần cứng cấp độ người tiêu dùng. Bản phát hành này phù hợp với chiến lược AI của Alibaba, bao gồm các khoản đầu tư đáng kể vào cơ sở hạ tầng đám mây và AI.
Sau khi công bố, cổ phiếu của Alibaba tại Mỹ đã tăng 8,61% lên 141,03 USD, trong đó cổ phiếu ở Hồng Kông tăng hơn 7%.
Nguồn TechNode