Đã có quốc gia Châu Âu cấm ChatGPT vì lo ngại về quyền riêng tư

Tạp chí Nhịp sống số - Ý là quốc gia đầu tiên tiến hành điều tra OpenAI vì nghi ngờ ứng dụng trí tuệ nhân tạo (AI) ChatGPT vi phạm quyền riêng tư của người dùng.

Theo đó, cơ quan bảo vệ dữ liệu của chính phủ Ý (Garante) đã ban hành lệnh cấm tạm thời đối với ChatGPT của OpenAI vì lo ngại chatbot này đang thu thập dữ liệu người dùng.

ChatGPT OpenAI

Theo Reuters, ChatGPT đã bị vô hiệu hóa tại Ý sau khi Garante cáo buộc OpenAI không kiểm tra độ tuổi người dùng. Garante cho biết ChatGPT không có bất kỳ cơ sở pháp lý nào biện minh cho việc thu thập và lưu trữ dữ liệu cá nhân để huấn luyện chatbot. Công ty OpenAI có 20 ngày để phản hồi bằng các biện pháp khắc phục, nếu không công ty sẽ phải chịu án phạt 20 triệu euro (tương đương 21,68 triệu USD) hoặc 4% doanh thu hằng năm tại quốc gia này.

OpenAI cho biết công ty đang cố gắng giảm dữ liệu cá nhân trong quá trình đào tạo ChatGPT vì muốn AI tìm hiểu thế giới chứ không phải về các cá nhân.

Ý trở thành quốc gia phương Tây đầu tiên chống lại ChatGPT. Trước đó chatbot này đã bị cấm ở Trung Quốc, Iran, Nga và một số khu vực ở châu Phi.

Kể từ khi ra mắt vào năm ngoái, ChatGPT đã khởi đầu cuộc đua giữa các "ông lớn" công nghệ, khiến các đối thủ phải tung ra các sản phẩm tương tự để cạnh tranh. 

Sự phát triển bùng nổ của công nghệ AI đã thu hút sự chú ý của các nhà lập pháp ở một số quốc gia. Nhiều chuyên gia cho rằng cần có các quy định mới để quản lý AI vì rủi ro nó mang đến cho an ninh quốc gia, ngành giáo dục và thị trường việc làm.

Người phát ngôn của Ủy ban châu Âu (EC) cho biết các công ty hoạt động tại Liên minh châu Âu (EU) nên tôn trọng các quy tắc bảo vệ dữ liệu của EU, việc thực thi quy định chung là trách nhiệm của các cơ quan bảo vệ dữ liệu. Nhưng Phó chủ tịch điều hành EC là bà Margrethe Vestager khẳng định EU không có xu hướng cấm AI.

Vừa qua, tỉ phú Elon Musk và nhiều lãnh đạo, chuyên gia trong lĩnh vực AI đã ký vào một bức thư kêu gọi tạm ngừng phát triển AI trong 6 tháng để mọi người có thời gian nhìn nhận và phát triển khung pháp lý kiểm soát công nghệ này. 

Phó giáo sư Johanna Björklund tại Đại học Umea (Thụy Điển) cho biết sự thiếu minh bạch là một vấn đề nghiêm trọng của AI, nếu thực hiện nghiên cứu về AI thì chúng ta phải minh bạch về quá trình làm nghiên cứu. 

Có thể bạn quan tâm