top of page

Google ra mắt Gemma và những cập nhật tính năng nền tảng mới nhằm giúp AI trở nên mở và dễ tiếp cận hơn cho các nhà phát triển trên Google Cloud

22/2/24

Việc Google ra mắt Gemma và những cập nhật tính năng nền tảng mới là bước tiếp theo trong cam kết của chúng tôi nhằm giúp AI trở nên mở và dễ tiếp cận hơn cho các nhà phát triển trên Google Cloud.

Bạn có thể bắt đầu làm việc với mô hình Gemma ngay hôm nay trên Google Cloud trong Vertex AI và GKE. Để biết thêm thông tin chi tiết về Gemma, vui lòng truy cập hướng dẫn bắt đầu nhanh trên ai.google.dev/gemma


Google đã công bố Gemma, một bộ các mô hình nguồn mở nhỏ gọn và tiên tiến được xây dựng dựa trên cùng những nghiên cứu và công nghệ mà chúng tôi đã sử dụng để tạo ra mô hình Gemini và khách hàng của Google Cloud đã có thể bắt đầu tùy chỉnh và xây dựng các mô hình Gemma với Vertex AI và vận hành chúng trên Google Kubernetes Engine (GKE) ngay từ bây giờ.


Gemma hiện đã có mặt trên Google Cloud


Mô hình Gemma chia sẻ các thành phần kỹ thuật và cơ sở hạ tầng với các mô hình Gemini mạnh mẽ của chúng tôi. Điều này cho phép mô hình Gemma đạt được hiệu suất tốt nhất trong phân khúc so với các mô hình nguồn mở khác. Chúng tôi đang cho ra mắt hai phiên bản với quy mô khác nhau: Gemma 2B và Gemma 7B. Mỗi phiên bản được phát hành với các biến thể được đào tạo sẵn và điều chỉnh theo hướng dẫn để hỗ trợ cả nghiên cứu và phát triển.


Gemma hỗ trợ các công cụ mà các nhà phát triển Google Cloud đang ưa chuộng và sử dụng, bao gồm Colab và Kaggle notebooks, cùng các framework như JAX, PyTorch, Keras 3.0 và Hugging Face Transformers. Bạn có thể chạy các mô hình Gemma trên laptop, máy trạm hoặc trên Google Cloud. Các nhà phát triển hiện có thể xây dựng và tùy chỉnh trong Vertex AI cũng như vận hành nó trên GKE với các mô hình nguồn mở mới này. Để tối đa hóa hiệu suất hàng đầu, chúng tôi đã hợp tác với NVIDIA để tối ưu hóa Gemma cho GPU NVIDIA.


Mở khóa sức mạnh của Gemma trong Vertex AI


Gemma là thành viên tiếp theo trong bộ sưu tập hơn 130 mô hình của Vertex AI Model Garden, bao gồm cả quyền truy cập mở rộng mới được chúng tôi công bố gần đây đối với các mô hình Gemini 1.0 Pro, 1.0 Ultra và 1.5 Pro.


Bằng cách sử dụng mô hình Gemma trên Vertex AI, các nhà phát triển có thể tận dụng lợi thế của một nền tảng máy học toàn diện, giúp cho việc tinh chỉnh, quản lý và giám sát mô hình trở nên đơn giản và trực quan. Với Vertex AI, các nhà phát triển có thể giảm chi phí vận hành và tập trung vào việc tạo ra các phiên bản Gemma tùy chỉnh (bespoke) được tối ưu hóa cho từng trường hợp sử dụng. Ví dụ, các nhà phát triển có thể sử dụng mô hình Gemma trên Vertex AI để:


  • Xây dựng các ứng dụng AI tạo sinh cho các tác vụ đơn giản như tạo văn bản, tóm tắt và hỏi đáp.

  • Sử dụng mô hình nhỏ gọn được tùy chỉnh để nghiên cứu và phát triển cho các khám phá và thử nghiệm.

  • Hỗ trợ các trường hợp sử dụng AI tạo sinh theo thời gian thực yêu cầu độ trễ thấp, chẳng hạn như truyền phát văn bản.


Vertex AI giúp các nhà phát triển dễ dàng chuyển đổi các mô hình được tinh chỉnh thành các điểm cuối để có thể mở rộng và đủ sức vận hành các ứng dụng AI thuộc mọi quy mô.


Mở rộng quy mô từ nguyên mẫu đến sản xuất với Gemma trên GKE


GKE cung cấp các công cụ để xây dựng ứng dụng tùy chỉnh, từ nguyên mẫu các dự án đơn giản đến triển khai ở quy mô doanh nghiệp. Hiện nay, các nhà phát triển có thể triển khai Gemma trực tiếp trên GKE để tạo ra ứng dụng AI tạo sinh của riêng họ để xây dựng nguyên mẫu hoặc thử nghiệm khả năng của mô hình:


  • Triển khai các mô hình tùy chỉnh, được tinh chỉnh trong các container di động cùng với các ứng dụng sử dụng chuỗi công cụ quen thuộc.

  • Tùy chỉnh các cấu hình phục vụ mô hình và cơ sở hạ tầng mà không cần cung cấp hoặc bảo trì node.

  • Tích hợp cơ sở hạ tầng AI nhanh chóng với khả năng mở rộng quy mô để đáp ứng các tình huống đào tạo và suy luận khắt khe nhất.


GKE cung cấp khả năng quản lý tài nguyên hiệu quả, môi trường vận hành nhất quán và khả năng tự mở rộng quy mô. Ngoài ra, GKE còn giúp nâng cao hiệu quả của các môi trường này bằng cách dễ dàng phối hợp các bộ tăng tốc AI của Google Cloud, bao gồm GPU và TPU, giúp tăng tốc độ huấn luyện và suy luận khi xây dựng các mô hình AI tạo sinh.

Xu hướng công nghệ

bottom of page