Giải quyết "bài toán khó" về khủng hoảng dữ liệu AI

Tạp chí Nhịp sống số - Nguy cơ khủng hoảng dữ liệu AI đã sớm được dự báo, khi các nghiên cứu dự đoán rằng dữ liệu do con người tạo ra và được công khai để đào tạo các mô hình AI có thể cạn kiệt trong vòng từ hai đến tám năm tới, buộc chúng ta phải phụ thuộc vào "dữ liệu tổng hợp"

Đi tìm lời giải cho nguy cơ khủng hoảng dữ liệu AI, Tiến sĩ James Kang - giảng viên cấp cao về Khoa học máy tính tại Đại học RMIT Việt Nam - chia sẻ về tác động của tình trạng thiếu dữ liệu đối với AI, sự phát triển và thách thức của dữ liệu tổng hợp, cùng các giải pháp tiềm năng - những góc nhìn quan trọng dành cho bất kỳ ai quan tâm đến tương lai của AI.

Theo đó, Tiến sĩ Kang cho biết, các nghiên cứu dự đoán rằng dữ liệu do con người tạo ra và được công khai để đào tạo các mô hình AI có thể cạn kiệt trong vòng từ 2 đến 8 năm tới, buộc chúng ta phải phụ thuộc vào "dữ liệu tổng hợp" (thông tin được sản xuất nhân tạo bởi thuật toán) khiến cho tính chính xác và độ tin cậy của AI có thể bị ảnh hưởng.

Nhận diện khủng hoảng dữ liệu AI và các hệ lụy

Theo chuyên gia này, việc huấn luyện AI và khả năng suy luận của chúng đóng vai trò cốt yếu trong việc tạo ra dự đoán và kết quả đầu ra. Nếu dữ liệu đầu vào thiên lệch hoặc không đầy đủ sẽ ảnh hưởng đến đầu ra.

Giải quyết "bài toán khó" về khủng hoảng dữ liệu AI
Tiến sĩ James Kang - Giảng viên cấp cao về Khoa học máy tính, Khoa Khoa học, Kỹ thuật và Công nghệ, Đại học RMIT Việt Nam

Theo đó, dữ liệu không chính xác, không nhất quán hoặc lỗi thời còn có thể khiến AI nhầm lẫn và giảm hiệu suất xử lý. Việc gắn nhãn dữ liệu không đúng cách cũng ảnh hưởng đến chất lượng vì liên quan trực tiếp đến tính chính xác và nhất quán của quá trình huấn luyện AI.

Khảo sát từ Forbes Advisor cho thấy 64% doanh nghiệp tin rằng AI sẽ giúp tăng năng suất, nhưng điều đó còn phụ thuộc vào chất lượng dữ liệu được dùng để huấn luyện AI

Trong khi dữ liệu thực chủ yếu được thu thập từ các nguồn như phỏng vấn, khảo sát, thí nghiệm, quan sát và khai thác dữ liệu, thì dữ liệu tổng hợp được tạo ra nhân tạo bởi các thuật toán. Bằng cách sử dụng mô phỏng máy tính và dự đoán thay vì dữ liệu thực, dữ liệu tổng hợp được thiết kế để tái hiện các mô hình hoặc đặc tính thống kê của dữ liệu thực, nhằm tiết kiệm chi phí – ví dụ, giảm tới 60% chi phí kiểm tra và rút ngắn đến 30% chu kỳ phát triển.

Dữ liệu tổng hợp có thể được tạo ra nhanh chóng, trong khi dữ liệu thực thường tốn kém và mất nhiều thời gian để thu thập cũng như gắn nhãn khi sử dụng làm đầu vào cho những hệ thống AI. Các công ty công nghệ thường chọn dữ liệu tổng hợp trong trường hợp gặp rào cản về quyền riêng tư hoặc các vấn đề đạo đức liên quan đến việc thu thập dữ liệu, chẳng hạn như thông tin cá nhân người dùng hoặc dữ liệu y tế nhạy cảm... Có rất nhiều tình huống mà các nhà nghiên cứu và công ty công nghệ sử dụng dữ liệu tổng hợp để vượt qua các hạn chế và thách thức của dữ liệu thực.

Trong lĩnh vực y tế, các nhà nghiên cứu thường đối mặt với thách thức về quyền truy cập vào dữ liệu bệnh nhân đa dạng và toàn diện do các quy định bảo mật. Ví dụ, Watson Health của IBM đã tận dụng dữ liệu tổng hợp để khắc phục những hạn chế này. Bằng cách tạo ra các tập dữ liệu tổng hợp mô phỏng hồ sơ bệnh nhân thực, họ đã xây dựng được một bộ dữ liệu đào tạo đa dạng và toàn diện cho các mô hình AI của mình. Điều này giúp giảm thiểu các thiên lệch, chẳng hạn như về giới tính, độ tuổi và sắc tộc, vốn thường thấy trong dữ liệu thực tế.

Thách thức và giải pháp với dữ liệu tổng hợp cho AI

Tiến sĩ Kang cho rằng, một vấn đề cốt lõi khi sử dụng dữ liệu tổng hợp trong các mô hình AI là mức độ không chắc chắn liên quan đến tính hợp lệ và chất lượng thông tin. Người dùng gặp khó khăn trong việc đánh giá mức độ tin cậy của dữ liệu do AI tạo ra, vì vẫn chưa có hệ thống đánh giá chất lượng hoặc "chấm điểm" nào được chấp nhận rộng rãi và chuẩn hóa. Do đó, việc triển khai một hệ thống xác thực dữ liệu chặt chẽ là điều cần thiết để đảm bảo độ chính xác và tin cậy của dữ liệu dùng trong huấn luyện.

Để phân biệt giữa dữ liệu thực và dữ liệu tổng hợp, AI có thể theo dõi siêu dữ liệu và nguồn gốc của dữ liệu được sử dụng để xác định nơi xuất phát và chất lượng hoặc mức độ đáng tin cậy của dữ liệu. Khi cần, có thể có sự can thiệp của con người vào quá trình chuẩn bị và huấn luyện AI để đảm bảo duy trì chất lượng dữ liệu được tạo ra. Sử dụng kết hợp dữ liệu thực và dữ liệu tổng hợp một cách cẩn trọng có thể tăng hiệu suất AI bằng cách duy trì quyền riêng tư và vừa giảm thiểu các thiên lệch.

"Khi AI tiếp tục chuyển đổi các ngành công nghiệp trên toàn cầu, việc giải quyết khủng hoảng chất lượng dữ liệu là điều tối quan trọng. Dữ liệu tổng hợp mang đến một giải pháp đầy triển vọng, nhưng cần được sử dụng cẩn thận để giảm thiểu rủi ro về tính chính xác độ tin cậy. Để đảm bảo sự phát triển bền vững của AI tại Việt Nam, việc hợp tác giữa chính phủ, doanh nghiệp, các ngành nghề và các trường đại học nhằm nâng cao chất lượng dữ liệu đào tạo, bao gồm cả dữ liệu huấn luyện, là điều thiết yếu..." - Tiến sĩ James Kang kết luận.

Có thể bạn quan tâm