Google đã thiết kế chip tùy chỉnh của riêng mình được gọi là Bộ xử lý Tensor hay TPU. Nó sử dụng những con chip đó cho hơn 90% công việc của công ty về đào tạo trí tuệ nhân tạo AI, quy trình cung cấp dữ liệu thông qua các mô hình để làm cho chúng trở nên hữu ích trong các tác vụ như trả lời truy vấn bằng văn bản giống con người hoặc tạo hình ảnh.
Google TPU hiện đang ở thế hệ thứ tư.
Hôm thứ ba vừa qua, Google đã xuất bản một bài báo khoa học mô tả chi tiết cách họ kết nối hơn 4.000 con chip lại với nhau thành một siêu máy tính bằng cách sử dụng các công tắc quang học do chính họ phát triển để giúp kết nối các máy riêng lẻ.
Cải thiện các kết nối này đã trở thành điểm cạnh tranh chính giữa các công ty chế tạo siêu máy tính AI vì cái gọi là mô hình ngôn ngữ lớn hỗ trợ các công nghệ như Bard của Google hay ChatGPT của OpenAI đã bùng nổ về kích thước, nghĩa là chúng quá lớn để lưu trữ trên một con chip.
Thay vào đó, các mô hình phải được chia thành hàng nghìn chip, sau đó các chip này phải hoạt động cùng nhau trong nhiều tuần hoặc hơn để huấn luyện mô hình. Mô hình PaLM của Google - mô hình ngôn ngữ được tiết lộ công khai lớn nhất cho đến nay - đã được đào tạo bằng cách chia nó thành hai trong số 4.000 siêu máy tính chip trong 50 ngày.
Google cho biết các siêu máy tính của họ giúp dễ dàng cấu hình lại các kết nối giữa các chip một cách nhanh chóng, giúp tránh các sự cố và điều chỉnh để tăng hiệu suất.
"Chuyển mạch giúp dễ dàng định tuyến xung quanh các thành phần bị lỗi", Google Fellow Norm Jouppi và Kỹ sư xuất sắc của Google David Patterson đã viết trong một bài đăng trên blog về hệ thống. "Tính linh hoạt này thậm chí còn cho phép chúng tôi thay đổi cấu trúc liên kết của kết nối siêu máy tính để tăng tốc hiệu suất của mô hình ML (máy học)."
Mặc dù Google hiện mới công bố thông tin chi tiết về siêu máy tính của mình, nhưng nó đã trực tuyến bên trong công ty từ năm 2020 tại một trung tâm dữ liệu ở Hạt Mayes, Oklahoma, Mỹ. Google cho biết công ty khởi nghiệp Midjourney đã sử dụng hệ thống này để đào tạo mô hình của mình, mô hình này tạo ra những hình ảnh mới sau khi được cung cấp một vài từ văn bản.
Trong bài báo, Google cho biết đối với các hệ thống có kích thước tương đương, chip của họ nhanh hơn tới 1,7 lần và tiết kiệm năng lượng hơn 1,9 lần so với hệ thống dựa trên chip A100 của Nvidia có mặt trên thị trường cùng lúc với TPU thế hệ thứ tư. .
Người phát ngôn của Nvidia từ chối bình luận về điều này với Reuters.
Google cho biết họ không so sánh thế hệ thứ tư của mình với chip H100 hàng đầu hiện tại của Nvidia vì H100 được tung ra thị trường sau chip của Google và được sản xuất bằng công nghệ mới hơn.
Google gợi ý rằng họ có thể đang làm việc trên một TPU mới sẽ cạnh tranh với Nvidia H100 nhưng không cung cấp thông tin chi tiết, Jouppi nói với Reuters rằng Google có "một hệ thống chip tương lai lành mạnh."
Anh Nguyễn (theo Reuters)