Trí tuệ nhân tạo đã phát triển tới mức trở nên nguy hiểm?

Trí tuệ nhân tạo đã phát triển tới mức trở nên nguy hiểm?
Tạp chí Nhịp sống số - OpenAI đã từ chối cho ra mắt phiên bản đầy đủ của mô hình máy học có thể tạo văn bản GPT2 vì lo sợ rủi ro bị lợi dụng để tạo nên tin tức giả, thiên lệch và mang tính lạm dụng với quy mô lớn.

OpenAI, một công ty nghiên cứu phi lợi nhuận được tỉ phú Elon Musk hỗ trợ, đang thu hút sự chú ý nhờ mô hình máy học có khả năng tạo văn bản trên nền tảng trí thông minh nhân tạo (AI). Tuy nhiên các nhà khoa học lại lo ngại việc ứng dụng sản phẩm này vào thực tiễn có thể gây những tác hại khôn lường.

Kể từ khi những chatbot đầu tiên như SmarterChild ra đời, trong gần 20 năm ròng, các mô hình máy học đã vật lộn để có thể làm chủ được ngôn ngữ của con người. Dù có thể xử lý tốt những câu hỏi đơn giản nhưng mỗi khi người dùng đưa ra những câu cú phức tạp, chatbot vẫn trả lời bằng câu "Xin lỗi tôi không hiểu câu hỏi".

Với sự ra đời của các cách thức phân tích văn bản mới, AI giờ đây đã có thể trả lời những câu hỏi tự nhiên và trơn tru hệt như người thật.

Sản phẩm của OpenAI có tên gọi GPT2. Đây là một mô hình máy học có thể tạo văn bản dựa trên những từ hoặc những dòng chữ gốc. Mô hình này sử dụng dữ liệu quét từ 8 triệu trang web, sau đó dùng thuật toán để tạo ra các văn bản với mức độ hoàn chỉnh hơn hẳn so với các sản phẩm ứng dụng AI trước đây. Nói đơn giản, nếu bạn đưa ra một chương sách, mô hình này có thể viết tiếp những chương sau. Nếu bạn cung cấp một tiêu đề tin tức giả, nó có thể viết cả một bài báo hoàn toàn sai sự thật.

Chẳng hạn như khi người dùng nhập tiêu đề với nội dung là một tin tức giả: "Ca sĩ Miley Cyrus bị bắt gặp ăn cắp đồ tại cửa hàng quần áo Abercrombie and Fitch trên đại lộ Hollywood vào hôm nay."

GPT2 sẽ đáp trả bằng một đoạn văn hoàn chỉnh, chi tiết như sau: "Báo giới bắt gặp cô ca sĩ 19 tuổi bị hộ tống ra khỏi cửa hàng bởi nhân viên an ninh. Miley mặc một chiếc áo hoodie màu đen có dòng chữ "Blurred Lines" phía trước và "Fashion Police" đằng sau."   

OpenAI cũng chia sẻ trên blog của mình: "Bởi lo ngại mô hình của chúng tôi có thể bị lợi dụng để tạo ra tin tức giả, thiên lệch hay lạm dụng trên quy mô lớn, chúng tôi sẽ chỉ phát hành một phiên bản GPT2 nhỏ hơn."

Tuy vậy một số luồng ý kiến lại cho rằng việc lo sợ trước khả năng của GPT2 là không cần thiết. Trên thực tế, các nhà nghiên cứu cũng thừa nhận chương trình này chỉ hoạt động với tỉ lệ chính xác khoảng 50%. Các sản phẩm tạo ra vẫn có lỗi lặp từ và những sai lầm phi lý trong nghĩa của câu. Một vài người khác lại cho rằng OpenAI làm vậy để quảng bá sản phẩm. Dù sự thật là gì, viễn cảnh công nghệ AI bị lợi dụng để tạo nên các tin tức giả và tiêu cực đang ngày một rõ nét và chân thật hơn bao giờ hết.

Có thể bạn quan tâm

Theo Bộ TT- TT, quảng cáo trên môi trường mạng ngày càng khẳng định vị thế quan trọng với hoạt động quảng cáo của doanh nghiệp. Do đó cần mở rộng hơn nữa danh sách trắng để doanh nghiệp quảng cáo trực tuyến.