Trang Technology Review vừa cho biết, Facebook và Intel đang cùng nhau hợp tác để nghiên cứu chip AI (Artificial Intelligence) với chi phí rẻ hơn dành cho các công ty lớn sử dụng vào mục đích trí tuệ nhân tạo. Cụ thể, tại hội chợ hàng điện tử CES 2019 đang diễn ra tại Las Vegas (Mỹ), Intel đã chính thức giới thiệu chip AI mới này cũng như tuyên bố về sự hợp tác với Facebook để sản xuất ra "chip AI biết suy luận".
Thông báo của hãng cho thấy phần cứng và phần mềm AI trên chip mới "có sự hòa quyện vào nhau" và đây là một bước đột phá trong việc phát triển và triển khai AI. Điều này cũng hứa hẹn rằng, một thiết bị có thể chạy các thuật toán máy học (machine learning) trước khi huấn luyện (pre-trained) sẽ hiệu quả hơn, nghĩa là việc thực hiện các tác vụ AI sẽ sử dụng ít tài nguyên phần cứng và ít tiêu tốn năng lượng hơn.
Theo đó, "chip AI suy luận" mới này có thể giúp Facebook và các công ty khác triển khai máy học hiệu quả hơn với chi phí thấp hơn. Hiện mạng xã hội này đã sử dụng AI cho hàng loạt tác vụ khác nhau, bao gồm gán thẻ (tag) mọi người trên ảnh, dịch bài đăng từ ngôn ngữ này sang ngôn ngữ khác, và phát hiện nội dung bị cấm. Trong khi đó, nếu chạy trên hệ thống phần cứng phổ thông, những tác vụ này sẽ tiêu tốn rất nhiều thời gian và nhiều năng lượng.
Naveen Rao, Phó chủ tịch về sản phẩm AI của Intel cho biết, chip AI mới sẽ nhanh hơn 50% so với bất kỳ đối thủ nào khác, nhưng ông lại không cung cấp các con số hiệu năng cụ thể. Intel cho biết, chip AI này sẽ bắt đầu được đưa tới các công ty vào cuối năm 2019. Có điều là đối với phần cứng cho AI, hiện Intel vẫn đang gặp phải không ít sự cạnh tranh từ một số các nhà sản xuất chip mới nổi.
Trong khi đó, Facebook cho dù xác nhận việc hợp tác với Intel, nhưng từ chối cung cấp thêm chi tiết về thỏa thuận này, cũng như vai trò của họ trong mối quan hệ đối tác với Intel. Ngoài ra, cũng có tin đồn cho rằng Facebook đang thử nghiệm các thiết kế chip AI của riêng mình. Ông Rao cũng cho biết thêm, chip mới này sẽ tương thích với tất cả phần mềm AI quan trọng, nhưng sự tham gia của Facebook còn cho thấy tầm quan trọng hơn qua việc hợp tác giữa các kỹ sư phần mềm AI của Facebook với những người chuyên thiết kế chip silicon của Intel trong dự án này, bởi các nhà nghiên cứu AI của Facebook đã phát triển hoàn thiện một số gói phần mềm AI và đã được sử dụng rộng rãi. Ngoài ra, công ty này còn có một lượng dữ liệu khổng lồ dành cho huấn luyện và thử nghiệm các đoạn mã máy học trên con chip mới vừa được chế tạo, giúp nó làm việc tốt hơn.
Liên quan đến vụ việc này, Mike Demler - nhà phân tích cấp cao tại The Linley Group, đồng thời cũng là người theo dõi ngành bán dẫn đã chỉ ra rằng, các đối thủ cạnh tranh trong ngành có thể có các thiết kế mới để đối đầu với Intel vào thời điểm con chip này bắt đầu được sản xuất đại trà vào cuối năm nay. Ông bổ sung thêm rằng, hiện Intel đang đi sau các đối thủ nhiều năm và hãng cũng cần cho thế giới thấy được "một bước nhảy vọt" đối với chip mới này.
Trong vài năm nay, Intel gần như "đã đứng chôn chân" khi nhu cầu về chip AI đang bùng nổ với việc sử dụng nó cho học sâu (chuyên sâu vào từng ngành, từng lĩnh vực), cũng như kỹ thuật máy học đang phát triển mạnh mẽ, giúp huấn luyện máy tính thực hiện các tác vụ hữu ích bằng cách nạp vào chúng lượng dữ liệu khổng lồ.
Với học sâu, dữ liệu sẽ được đưa vào các "mạng lưới thần kinh" rất rộng lớn và các thông số của mạng lưới được tinh chỉnh cho đến khi nó đem lại kết quả như mong muốn. Sau đó, một mạng lưới được huấn luyện như vậy có thể sử dụng cho tác vụ như nhận ra người nào đó trong một đoạn video.
Thế nên việc tính toán trong học sâu sẽ trở nên không mấy hiệu quả khi chạy trên chip máy tính phổ thông, đa dụng. Nhưng chúng sẽ hoạt động hiệu quả tốt hơn nhiều trên những con chip có thể phân chia tác vụ tính toán để thực hiện song song – tương tự như những loại bộ xử lý đồ họa từ lâu được Nvidia tạo ra. Đó là nguyên nhân tại sao Nvidia đạt được bước tiến dài đến vậy trong chip AI và hiện đa số phần cứng cao cấp của họ đang được dành cho AI.
Trong cuộc đua về chip AI này, Intel là "người đến muộn". Hãng bắt đầu phát triển chip AI bằng việc thâu tóm một công ty khởi nghiệp (startup) có tên Nervana Systems vào năm 2016 và một năm sau đó, hãng chính thức giới thiệu chip AI đầu tiên của mình với tên gọi Intel Nervana Neural Network Processor (NNP). Trong khi đó, chip mới nhất của Intel được tối ưu để chạy các thuật toán vốn đã trải qua huấn luyện để làm cho nó hiệu quả hơn có tên NNP-I (viết tắt của inference).
Nhìn ra thế giới xung quanh, trong vài năm vừa qua, chúng ta đã chứng kiến bước phát triển mạnh mẽ về phần cứng AI mới. Hàng loạt startup đang chạy đua để phát triển chip tối ưu cho AI, chẳng hạn như Graphcore (một công ty của Anh) mới huy động được khoản đầu tư 200 triệu USD, và một loạt công ty mới nổi của Trung Quốc như Cambricon, Horizon Robotics và Bitmain (vốn là người khổng lồ về máy đào tiền ảo).
Ngoài ra, Intel cũng gặp phải sự cạnh tranh mạnh mẽ từ các công ty công nghệ lớn như Google và Amazon, khi cả hai đều đang phát triển chip cho các dịch vụ AI đám mây của mình. Năm 2016, Google cho biết họ đang phát triển con chip dành cho phần mềm học sâu Tensorflow và đã đi đầu trong lĩnh vực này. Cuối tháng 12/2018 vừa qua, Amazon thông báo đã phát triển chip AI của riêng mình, bao gồm một chip dành riêng cho việc suy luận.
Bởi Intel là người đến sau nên họ đang cần sự trợ giúp từ Facebook. Nhưng nhìn chung thì Intel vẫn có chuyên môn và kinh nghiệm về sản xuất các mạch tích hợp, một yếu tố quan trọng trong các sáng tạo về thiết kế và tăng cường hiệu năng. Về điều này, Ông Rao cho biết: "Thế mạnh của Intel là tối ưu silicon và đây là điều chúng tôi làm tốt hơn ai hết".