• The AI Growth
  • Posts
  • Xiaomi ra mắt mô hình AI mã nguồn mở đầu tiên MiMo-7B hiệu năng ngang ngửa o1-mini của OpenAI

Xiaomi ra mắt mô hình AI mã nguồn mở đầu tiên MiMo-7B hiệu năng ngang ngửa o1-mini của OpenAI

Ngoài ra, Bí mật đằng sau mô hình AI nguồn mở đa ngôn ngữ với 235 tỷ tham số của Qwen3 của Alibaba

Welcome, Growth Pioneers! 🚀

Xiaomi vừa âm thầm bước chân vào lĩnh vực mô hình ngôn ngữ lớn (LLM) với MiMo-7B – hệ thống AI mã nguồn mở đầu tiên của hãng. Được phát triển bởi nhóm mới thành lập mang tên Big Model Core Team, MiMo-7B tập trung đặc biệt vào các tác vụ yêu cầu khả năng suy luận và đã vượt qua các đối thủ đến từ OpenAI và Alibaba trong các bài kiểm tra suy luận toán học và sinh mã.

Có 8 phiên bản: từ 0,6B đến 32B tham số dày đặc và hai dạng MoE là Qwen3-235B (235 tỷ/22 tỷ tham số hoạt động cùng lúc), Qwen3-30B (30 tỷ/3 tỷ tham số hoạt động). Dung lượng tối đa bối cảnh lên tới 128.000 token. Kiến trúc Mixture-of-Experts (MoE) giúp hình hóa lớn nhưng tiết kiệm tài nguyên – ví dụ Qwen3-235B chỉ sử dụng 22B tham số khi xử lý, giảm chi phí GPU.

__________________________________

Trong bản tin hôm nay, bạn sẽ được khám phá:

• Xiaomi ra mắt mô hình AI mã nguồn mở đầu tiên MiMo-7B hiệu năng ngang ngửa o1-mini của OpenAI

Bí mật đằng sau mô hình AI nguồn mở đa ngôn ngữ với 235 tỷ tham số của Qwen3 của Alibaba

Freepik ra mắt F Lite – mô hình AI tạo ảnh mã nguồn mở, an toàn bản quyền

XIAOMI

Xiaomi ra mắt mô hình AI mã nguồn mở đầu tiên MiMo-7B hiệu năng ngang ngửa o1-mini của OpenAI

Xiaomi vừa âm thầm bước chân vào lĩnh vực mô hình ngôn ngữ lớn (LLM) với MiMo-7B – hệ thống AI mã nguồn mở đầu tiên của hãng. Được phát triển bởi nhóm mới thành lập mang tên Big Model Core Team, MiMo-7B tập trung đặc biệt vào các tác vụ yêu cầu khả năng suy luận và đã vượt qua các đối thủ đến từ OpenAI và Alibaba trong các bài kiểm tra suy luận toán học và sinh mã.

Như tên gọi, MiMo-7B là một mô hình có 7 tỷ tham số. Dù có quy mô nhỏ hơn đáng kể so với hầu hết các LLM hàng đầu, Xiaomi khẳng định MiMo-7B có hiệu năng ngang ngửa với các hệ thống lớn hơn như o1-mini của OpenAI và Qwen-32B-Preview của Alibaba – đều là những mô hình có khả năng suy luận.

Nguồn: Xiaomi

Cốt lõi của MiMo-7B nằm ở quy trình huấn luyện chặt chẽ. Xiaomi cho biết họ đã xây dựng một tập dữ liệu đậm đặc gồm 200 tỷ token thiên về suy luận và cung cấp tổng cộng 25 nghìn tỷ token qua ba giai đoạn huấn luyện.

Hãng cũng áp dụng mục tiêu dự đoán nhiều token cùng lúc thay vì chỉ dự đoán token kế tiếp như truyền thống, giúp rút ngắn thời gian suy diễn mà không làm giảm chất lượng đầu ra.

Giai đoạn hậu huấn luyện bao gồm các kỹ thuật học tăng cường (reinforcement learning) kết hợp với cải tiến về hạ tầng. Xiaomi sử dụng một thuật toán tùy chỉnh mang tên "Test Difficulty Driven Reward" để giải quyết vấn đề tín hiệu phần thưởng khan hiếm – vốn là rào cản trong các tác vụ RL phức tạp. Đồng thời, hãng triển khai phương pháp "Easy Data Re-Sampling" để ổn định quá trình huấn luyện.

Về hạ tầng, Xiaomi xây dựng hệ thống triển khai Seamless Rollout nhằm giảm thời gian chết của GPU trong lúc huấn luyện và đánh giá. Kết quả, theo nội bộ Xiaomi, là tốc độ huấn luyện tăng gấp 2,29 lần và hiệu suất đánh giá tăng gần gấp đôi.

Công cụ này cũng hỗ trợ các chiến lược suy diễn như dự đoán nhiều token trong môi trường vLLM.

Hiện tại, MiMo-7B được công bố với bốn phiên bản công khai. Phiên bản đầu tiên là Base, đây là mô hình gốc đã được huấn luyện sơ bộ. Tiếp theo là SFT, một phiên bản đã được tinh chỉnh bằng dữ liệu có giám sát. Phiên bản thứ ba mang tên RL-Zero, được phát triển dựa trên mô hình Base thông qua phương pháp học tăng cường. Cuối cùng là phiên bản RL, được tinh chỉnh sâu hơn từ SFT và được đánh giá là có độ chính xác cao nhất trong số bốn phiên bản.

Nguồn: Xiaomi

Xiaomi cũng công bố các kết quả benchmark để chứng minh năng lực: trong lĩnh vực toán học, phiên bản MiMo-7B-RL đạt 95,8% trên bộ dữ liệu MATH-500 và hơn 68% trên AIME 2024. Trong lập trình, mô hình đạt 57,8% trên LiveCodeBench v5 và gần 50% trên phiên bản 6. Với các tác vụ kiến thức tổng quát như DROP, MMLU-Pro và GPQA, điểm số đạt mức trung bình đến cao 50 – rất đáng kể với một mô hình 7B.

MiMo-7B hiện đã được phát hành trên nền tảng Hugging Face theo giấy phép mã nguồn mở. 

QWEN 3

Bí mật đằng sau mô hình AI nguồn mở đa ngôn ngữ với 235 tỷ tham số của Qwen3 của Alibaba

Qwen3 là thế hệ mới nhất của nguồn mô hình ngôn ngữ lớn (LLM) mở từ Alibaba Cloud, phát hành ngày 29.04.2025, cung cấp Apache 2.0, phù hợp với thương mại.

Nguồn: Qwen3

Có 8 phiên bản: từ 0,6B đến 32B tham số dày đặc và hai dạng MoE là Qwen3-235B (235 tỷ/22 tỷ tham số hoạt động cùng lúc), Qwen3-30B (30 tỷ/3 tỷ tham số hoạt động). Dung lượng tối đa bối cảnh lên tới 128.000 token. Kiến trúc Mixture-of-Experts (MoE) giúp hình hóa lớn nhưng tiết kiệm tài nguyên – ví dụ Qwen3-235B chỉ sử dụng 22B tham số khi xử lý, giảm chi phí GPU.

Được huấn luyện trên 36 token tỷ lệ, phủ 119 ngôn ngữ, bao gồm web dữ liệu, sách, PDF, mã và tổng hợp toán. Qwen3-235B dẫn đầu benchmark CodeForces Elo Rating, BFCL, LiveCodeBench v5; chỉ thua Gemini 2.5 Pro ở ArenaHard, AIME, MultilF, Aider Pass@2.

Qwen3-30B vượt trội về tốc độ và độ chính xác với các nguồn mở mô hình khác, chỉ QwQ-32B hoặc GPT-4o vượt qua một số chỉ chuyên biệt. Có hai chế độ “tư duy” (suy nghĩ sâu đa bước) và “không suy nghĩ” (phản hồi nhanh, gọn), tự động chuyển theo ngữ cảnh/tác vụ người dùng.

Được tối ưu cho trình lập, giải toán, tư duy logic, tạo tác nhân AI, sử dụng công cụ, duyệt web; Qwen3-4B thậm chí đã loại bỏ cả cũ mô hình 72B ở một số chương trình cài đặt nhiệm vụ. Có thể tải xuống từ Hugging Face, GitHub, Ollama cùng hướng dẫn chi tiết về tokenizer, tinh chỉnh, phát triển khai.

Qwen3 của Alibaba Cloud là AI tạo nguồn mở đa ngôn ngữ, có tới 235 tỷ tham số với GPU tiết kiệm cấu trúc MoE, dẫn đầu nhiều chỉ số điểm chuẩn về cài đặt, logic và tác nhân AI. Mô hình hợp lý dễ dàng, phù hợp ứng dụng thương mại, hỗ trợ tới 119 ngôn ngữ.

FREEPIK

Freepik ra mắt F Lite – mô hình AI tạo ảnh mã nguồn mở, an toàn bản quyền

Công ty thiết kế đồ họa nổi tiếng Freepik vừa tung ra F Lite – mô hình AI tạo ảnh mã nguồn mở, được huấn luyện hoàn toàn từ dữ liệu nội bộ an toàn bản quyền. Mô hình này hứa hẹn sẽ là lựa chọn uy tín cho người dùng cần hình ảnh an toàn, thương mại hóa được và dễ tích hợp với các công cụ phổ biến như ComfyUI.

Nguồn: Freepik

Trong bối cảnh các công cụ tạo ảnh bằng trí tuệ nhân tạo phát triển chóng mặt, Freepik vừa gia nhập cuộc đua bằng cách giới thiệu F Lite – mô hình AI tạo ảnh mã nguồn mở với tiêu chí “an toàn bản quyền, thân thiện nơi làm việc” (SFW – Safe for Work).

Điểm nổi bật của F Lite là mô hình được huấn luyện duy nhất từ kho ảnh nội bộ khoảng 80 triệu hình ảnh thương mại hợp pháp của Freepik, đảm bảo loại bỏ nguy cơ vi phạm bản quyền – một trong những lo ngại lớn nhất hiện nay khi sử dụng hình ảnh AI.

Hai phiên bản chuyên biệt, phục vụ nhiều mục đích

F Lite được phát triển với sự hợp tác của startup AI Fal.ai và có hai phiên bản riêng biệt:

  • Standard Model: Phiên bản tiêu chuẩn, phục vụ mục đích tạo ảnh chung, cho kết quả dễ dự đoán và phù hợp với hầu hết các nhu cầu phổ thông.

  • Texture Model: Phiên bản chuyên biệt, tập trung tạo ảnh có độ chi tiết cao và kết cấu phong phú hơn. Tuy nhiên, nó đòi hỏi prompt (câu lệnh mô tả) chi tiết hơn, dễ bị lỗi hình và không phù hợp để tạo ảnh theo phong cách vector.

Công nghệ đằng sau F Lite

Nguồn: Freepik

Theo tài liệu giới thiệu, F Lite là mô hình khuếch tán (diffusion) với quy mô 10 tỷ tham số, yêu cầu sử dụng card đồ họa có ít nhất 24GB VRAM nếu muốn chạy cục bộ. Mô hình đặc biệt phát huy hiệu quả với các prompt dài và chi tiết, hỗ trợ tốt cho người dùng ComfyUI – công cụ rất được ưa chuộng để xây dựng quy trình tạo ảnh AI.

Freepik còn tích hợp tính năng SuperPrompt – một công cụ nâng cao có thể mở rộng từ mô tả ngắn gọn thành chuỗi mô tả phong phú, giúp nâng cao chất lượng ảnh đầu ra.

Giấy phép mở, dễ tích hợp và tùy biến

F Lite được phát hành theo giấy phép CreativeML Open RAIL-M, cho phép lập trình viên tự do sử dụng và thậm chí tinh chỉnh mô hình theo dữ liệu riêng. Các thành phần nền tảng như T5 XXL text encoder và Flux Schnell VAE cũng được cung cấp dưới giấy phép Apache 2.0 – một dạng giấy phép mã nguồn mở phổ biến và linh hoạt.

Nguồn: Freepik

Cạnh tranh gay gắt với Adobe

Đáng chú ý, F Lite ra mắt chỉ vài ngày sau khi Adobe nâng cấp mạnh mẽ bộ công cụ Firefly, tích hợp mô hình AI mới tạo ảnh và video, đồng thời bổ sung mô hình từ bên thứ ba như Google Imagen 3. Cuộc cạnh tranh giữa các nền tảng thiết kế – sáng tạo giờ đây đang mở rộng sang lĩnh vực AI mã nguồn mở và an toàn bản quyền.

Cảm ơn bạn đã đồng hành cùng TAG! hy vọng tin tức hôm nay mang đến nhiều giá trị cho bạn!

📬 Nếu bạn thấy email này hữu ích, hãy chia sẻ cho cộng đồng sáng tạo của bạn!
Để TAG có thêm động lực tiếp tục cập nhật các tin tức mới nhất và hot nhất về chuyển động AI hiện tại!
Hẹn gặp lại bạn trong bản tin tuần sau – nơi chúng ta sẽ không chỉ dùng AI, mà còn làm chủ cuộc chơi.

Trân trọng,
The AI Growth Team