Meta Ra Mắt Các Mô Hình Llama 4 Thúc Đẩy Hiệu Suất AI Được Cải Thiện
Meta Ra Mắt Các Mô Hình Llama 4 Thúc Đẩy Hiệu Suất AI Được Cải Thiện
Tác giảViệt Hùng

Meta đã tiến thêm một bước nữa với các kế hoạch AI của mình khi ra mắt mô hình AI Llama 4, qua thử nghiệm đã chứng minh được rằng chúng cung cấp hiệu suất tốt hơn trên hầu hết mọi mặt so với các đối thủ cạnh tranh.

Vâng, ít nhất là dựa trên kết quả mà Meta chọn để công bố, nhưng chúng ta sẽ nói đến điều đó sau. Đầu tiên, Meta đã công bố 4 mô hình mới bao gồm quá trình đào tạo có hệ thống và suy luận tham số lớn hơn nhiều so với các mô hình Llama trước đây. Tìm hiểu về mô hình AI Llama 4 cùng 3 Độ Agency trong bài viết này nhé!

Bốn mô hình Llama mới của Meta

  • Llama 4 Scout ngay lập tức trở thành mô hình nhỏ nhanh nhất hiện có và được thiết kế để chạy trên một GPU duy nhất. Scout bao gồm 17 tỷ tham số và 16 chuyên gia, cho phép hệ thống tối ưu hóa phản hồi dựa trên bản chất của từng truy vấn.
  • Llama 4 Maverick cũng bao gồm 17 tỷ tài nguyên tham số, nhưng cũng kết hợp 128 chuyên gia. Việc sử dụng “chuyên gia” có nghĩa là chỉ một tập hợp con của tổng số tham số được kích hoạt cho mỗi truy vấn, cải thiện hiệu quả của mô hình bằng cách giảm chi phí phục vụ mô hình và độ trễ. Điều đó có nghĩa là các nhà phát triển sử dụng các mô hình này có thể nhận được kết quả tương tự với ít tính toán hơn.
  • Llama 4 Behemoth bao gồm hơn 2 nghìn tỷ tham số, khiến nó trở thành hệ thống lớn nhất hiện có. Ít nhất là về mặt lý thuyết, điều đó giúp nó có nhiều khả năng hơn để có thể hiểu và phản hồi các truy vấn với khả năng học tập và suy luận nâng cao.
  • Llama 4 Reasoning là mô hình cuối cùng mà Meta chưa chia sẻ nhiều thông tin.
Bốn mô hình Llama mới của Meta
Bốn mô hình Llama mới của Meta

Mỗi mô hình này phục vụ một mục đích khác nhau, với Meta phát hành các tùy chọn biến có thể chạy với các hệ thống ít hoặc mạnh hơn. Vì vậy, nếu Sếp muốn xây dựng hệ thống AI của riêng mình, Sếp có thể sử dụng Llama Scout, mô hình nhỏ nhất, có thể chạy trên một GPU duy nhất.

Vậy tất cả những điều này có nghĩa gì theo cách hiểu của người bình thường?

Để làm rõ, mỗi hệ thống này được xây dựng trên một loạt các “tham số” đã được nhóm phát triển của Meta thiết lập để cải thiện lý luận có hệ thống. Các tham số đó không phải là chính tập dữ liệu (là mô hình ngôn ngữ) mà là lượng điều khiển và lời nhắc được tích hợp vào hệ thống để hiểu dữ liệu mà nó đang xem xét. Vì vậy, một hệ thống có 17 tỷ tham số lý tưởng sẽ có quy trình logic tốt hơn so với hệ thống có ít tham số hơn, vì hệ thống sẽ đặt câu hỏi về nhiều khía cạnh hơn của mỗi truy vấn và phản hồi dựa trên bối cảnh đó.

Ví dụ, nếu Sếp có một mô hình bốn tham số, về cơ bản nó sẽ hỏi “ai, cái gì, ở đâu và khi nào”, với mỗi tham số bổ sung thêm ngày càng nhiều sắc thái. Google Tìm kiếm, như một phép so sánh, sử dụng hơn 200 “tín hiệu xếp hạng” cho mỗi truy vấn Sếp nhập, để cung cấp cho Sếp kết quả chính xác hơn.

Vì vậy, Sếp có thể tưởng tượng một quy trình có 17 tỷ tham số sẽ mở rộng điều này như thế nào. Và các thông số của Llama 4 lớn hơn gấp đôi phạm vi của các mô hình trước đó của Meta.

Để so sánh:

  • Mô hình Llama 3 nhỏ nhất của Meta có 8 tỷ tham số
  • Mô hình nhỏ của Llama 2 bao gồm 7 tỷ tham số
  • Mô hình Llama ban đầu của Meta cũng bao gồm 7 tỷ tham số

Vì vậy, như Sếp có thể thấy, theo thời gian, Meta sẽ xây dựng thêm nhiều logic hệ thống hơn để đặt thêm nhiều câu hỏi và đào sâu hơn vào bối cảnh của mỗi yêu cầu, từ đó cũng sẽ cung cấp các phản hồi chính xác và phù hợp hơn dựa trên quy trình này.

Trong khi đó, “chuyên gia” của Meta là một thành phần mới trong Llama 4 và là các điều khiển có hệ thống xác định tham số nào trong số đó sẽ được áp dụng hoặc không cho mỗi truy vấn. Điều đó làm giảm thời gian tính toán, trong khi vẫn duy trì độ chính xác, điều này sẽ đảm bảo rằng các dự án bên ngoài sử dụng mô hình Llama của Meta sẽ có thể chạy chúng trên các hệ thống có thông số kỹ thuật thấp hơn.

Bởi vì thực sự không ai có khả năng như Meta trong vấn đề này

Meta hiện có khoảng 350.000 chip NVIDIA H100 hỗ trợ các dự án AI của mình, và sẽ còn nhiều chip nữa được đưa vào sử dụng khi công ty này tiếp tục mở rộng năng lực trung tâm dữ liệu, đồng thời cũng đang phát triển chip AI riêng để có thể phát triển mạnh mẽ hơn nữa. Theo báo cáo, OpenAI hiện có khoảng 200.000 chip H100 đang hoạt động, trong khi siêu trung tâm “Colossus” của xAI hiện cũng đang chạy trên 200.000 chip H100.

Với mô hình Behemoth mới nhất được thiết lập để đánh bại mọi dự án AI khác về hiệu suất tổng thể
Với mô hình Behemoth mới nhất được thiết lập để đánh bại mọi dự án AI khác về hiệu suất tổng thể

Vì vậy, Meta hiện có khả năng chạy ở công suất gấp đôi so với các đối thủ cạnh tranh, mặc dù Google và Apple cũng đang phát triển các phương pháp riêng của họ. Nhưng xét về khả năng tính toán và tài nguyên hữu hình, Meta rõ ràng đang dẫn đầu, với mô hình Behemoth mới nhất được thiết lập để đánh bại mọi dự án AI khác về hiệu suất tổng thể.

Sếp có thể thấy sự so sánh về hiệu suất giữa các dự án AI lớn trong biểu đồ này, mặc dù một số câu hỏi cũng được nếu ra về tính chính xác và khả năng áp dụng của quy trình thử nghiệm của Meta, cũng như các điểm chuẩn mà công ty chọn để so sánh với các mô hình Llama của mình.

Dù bằng cách nào thì nó cũng sẽ được thử nghiệm và trải nghiệm của người dùng, nhưng cũng cần lưu ý rằng không phải tất cả các kết quả do Llama 4 tạo ra đều tuyệt vời như Meta gợi ý. Nhưng nhìn chung, nó dường như mang lại kết quả tốt hơn trên mọi phương diện, trong khi Meta cũng cho biết các mô hình cấp thấp hơn có giá thành rẻ hơn và tốt hơn so với đối thủ cạnh tranh.

Điều này rất quan trọng vì Meta cũng cung cấp mã nguồn mở cho tất cả các mô hình này để sử dụng trong các dự án AI bên ngoài, cho phép các nhà phát triển bên thứ ba xây dựng các mô hình AI mới, chuyên dụng cho nhiều mục đích khác nhau. Dù sao thì đây cũng là một bản nâng cấp đáng kể, đưa Meta lên vị trí hàng đầu trong lĩnh vực phát triển AI, đồng thời cho phép các nhà phát triển bên ngoài sử dụng các mô hình Llama cũng biến Meta thành nền tảng chịu lực chính cho nhiều dự án AI. LinkedIn và Pinterest nằm trong số nhiều hệ thống đang kết hợp các mô hình Llama của Meta và khi tiếp tục xây dựng các hệ thống tốt hơn, có vẻ như Meta đang chiến thắng trong cuộc đua AI. Bởi vì tất cả các hệ thống này đang trở nên phụ thuộc vào các mô hình này, và khi chúng làm như vậy, điều đó làm tăng sự phụ thuộc của chúng vào Meta và các bản cập nhật Llama đang diễn ra của nó, để thúc đẩy sự tiến hóa của chúng.

Nhưng một lần nữa, thật khó để đơn giản hóa sự liên quan của điều này, xét đến bản chất phức tạp của quá trình phát triển AI và các quy trình cần thiết để chạy AI.

Phần quan trọng nhất của bản cập nhật này sẽ là cải thiện hiệu suất của chatbot AI và các mô hình tạo ra của Meta

Meta cũng tích hợp các mô hình Llama 4 vào chatbot trong ứng dụng, mà Sếp có thể truy cập qua Facebook, WhatsApp, Instagram và Messenger. Quá trình xử lý hệ thống được cập nhật cũng sẽ trở thành một phần của các mô hình nhắm mục tiêu quảng cáo, hệ thống tạo quảng cáo, mô hình thuật toán, v.v. của Meta.

Về cơ bản, mọi khía cạnh của ứng dụng Meta sử dụng AI giờ đây sẽ trở nên thông minh hơn, bằng cách sử dụng nhiều tham số logic hơn trong quá trình đánh giá, điều này sẽ mang lại câu trả lời chính xác hơn, tạo hình ảnh tốt hơn và cải thiện hiệu suất quảng cáo.

Thật khó để định lượng đầy đủ ý nghĩa của điều này trong từng trường hợp cụ thể vì kết quả của từng trường hợp có thể khác nhau, nhưng chúng mình đề xuất Sếp nên xem xét các tùy chọn quảng cáo Advantage+ của META như một thử nghiệm để xem hiệu suất của nó tốt đến mức nào. Meta sẽ tích hợp các mẫu Llama 4 mới nhất của mình trong những tuần tới, với nhiều nâng cấp hơn nữa sẽ có trong bản phát hành này.

0 / 5 (0Bình chọn)
Bình luận
Gửi bình luận
    Bình luận

    Bài viết liên quan

    Meta Ra Mắt Chatbot AI cho người dùng EU

    Meta Ra Mắt Chatbot AI cho người dùng EU

    Sau nhiều tháng trì hoãn vì các quy định phức tạp về dữ liệu, Meta cuối cùng đã công bố ra mắt chatbot Meta AI cho người dùng Liên minh châu Âu (EU). Đây được xem là động thái quan trọng giúp Meta mở rộng thị phần AI toàn cầu, dù phiên bản EU bị giới hạn hơn so với khu vực khác. Sau đây là một số thông tin mà 3 Độ Agency tổng hợp dành cho các sếp trong bài viết dưới đây.

    Facebook Cho Phép Bật Chức Năng Kiếm Tiền Trên Stories

    Facebook Cho Phép Bật Chức Năng Kiếm Tiền Trên Stories

    Facebook vừa thông báo rằng họ sẽ thêm Facebook Stories vào chương trình kiếm tiền dành cho nhà sáng tạo nội dung, điều này sẽ mang đến cho người sáng tạo thêm một cách nữa để kiếm tiền trong ứng dụng. Facebook cho rằng điều này giúp nền tảng giữ chân được người dùng trong bối cảnh tỉ lệ người dùng Facebook ngày càng giảm và khuyến khích họ sáng tạo nội dung nhiều hơn. Cùng tìm hiểu về chủ đề này với 3 Độ Agency tại bài viết này nhé!