Ngày 6/2, Google chính thức giới thiệu Gemini 2.0 Flash Thinking, một phiên bản nâng cấp với khả năng lập luận tiên tiến, cho phép người dùng theo dõi cách AI suy nghĩ và phân tích khi giải quyết các câu hỏi phức tạp.
Gemini 2.0 Flash Thinking – Bước tiến mới trong AI lập luận
Gemini 2.0 Flash Thinking không chỉ đơn thuần đưa ra câu trả lời mà còn hiển thị quá trình suy luận của mô hình trước khi đưa ra kết quả. Điều này giúp người dùng hiểu rõ cách AI tư duy và lý giải vấn đề thay vì chỉ nhận được một đáp án cuối cùng.

Từ ngày 6/2, người dùng có thể trải nghiệm mô hình này trên ứng dụng, trình duyệt web và các nền tảng thuộc hệ sinh thái Google như YouTube, Search và Maps. Việc tích hợp này giúp Gemini 2.0 Flash Thinking dễ dàng tiếp cận với người dùng và nâng cao trải nghiệm khi tìm kiếm, nghiên cứu thông tin.
Cạnh tranh với OpenAI và DeepSeek
Phiên bản Gemini 2.0 Flash Thinking đã được thử nghiệm từ tháng 12/2024 và được thiết kế để cạnh tranh trực tiếp với các mô hình lập luận tiên tiến như OpenAI o1 và DeepSeek R1.
Khác với các mô hình AI thông thường, Gemini 2.0 Flash Thinking có thể chia nhỏ vấn đề thành từng bước cụ thể, giúp nó phân tích, tổng hợp thông tin từ nhiều nguồn trước khi đưa ra câu trả lời. Điều này giúp mô hình đạt độ chính xác cao hơn, nhưng cũng có thể mất nhiều thời gian hơn so với những AI phản hồi nhanh khác.
Trong bài đăng trên nền tảng X, Jeff Dean, nhà khoa học trưởng của Google DeepMind, chia sẻ rằng Gemini 2.0 Flash Thinking được huấn luyện để sử dụng tư duy như một cách củng cố khả năng lập luận. Ông cũng công bố một đoạn video cho thấy AI này giải một bài toán vật lý bằng cách trải qua nhiều bước lập luận trước khi đưa ra kết quả cuối cùng.
Google mở rộng dòng sản phẩm Gemini 2.0
Bên cạnh Gemini 2.0 Flash Thinking, Google cũng giới thiệu Gemini 2.0 Pro, phiên bản kế nhiệm của Gemini 1.5 Pro với khả năng mã hóa và toán học vượt trội. Google mô tả đây là mô hình AI mạnh nhất từ trước đến nay của hãng, dành cho người dùng Advanced Gemini, Vertex AI và AI Studio.
Song song đó, Google ra mắt Gemini 2.0 Flash-Lite, một phiên bản tối ưu hóa về chi phí nhưng vẫn duy trì hiệu suất cao. Flash-Lite có tốc độ xử lý ngang với Gemini 1.5 Flash nhưng được tinh chỉnh để đáp ứng tốt hơn các yêu cầu khắt khe về hiệu suất. Mô hình này sẽ sớm có mặt trên AI Studio và Vertex AI.
Cuộc đua AI ngày càng gay cấn
Google đang đầu tư mạnh mẽ vào AI để duy trì vị thế dẫn đầu trước sự cạnh tranh khốc liệt từ OpenAI, Microsoft, Meta và Anthropic. Hãng công nghệ này dự kiến sẽ chi 75 tỷ USD cho lĩnh vực AI trong năm nay, gấp hơn hai lần mức 32,3 tỷ USD của năm 2023.
Sự xuất hiện của Gemini 2.0 Flash Thinking đánh dấu một bước tiến mới trong AI lập luận, mở ra nhiều cơ hội cho các lĩnh vực nghiên cứu, giáo dục và ứng dụng thực tế. Với những cải tiến vượt bậc về tư duy và xử lý thông tin, Gemini 2.0 hứa hẹn sẽ trở thành một trong những mô hình AI tiên phong trong thời gian tới.