Rủi ro bảo mật khi sử dụng ChatGPT

Tạp chí Nhịp sống số - Trong bối cảnh các "ông lớn" công nghệ chạy đua phát triển trí tuệ nhân tạo (AI), các chatbot như ChatGPT làm dấy lên mối lo ngại về quyền riêng tư dữ liệu giữa các công ty và cơ quan quản lý.
Rủi ro bảo mật ChatGPT

Ngân hàng lớn nhất nước Mỹ JPMorgan Chase, Amazon và công ty công nghệ Accenture đều hạn chế nhân viên sử dụng ChatGPT vì lo ngại về bảo mật dữ liệu.

Theo CNN, nỗi lo của những doanh nghiệp này hoàn toàn có cơ sở. Vào ngày 20/3, chatbot của OpenAI đã xảy ra lỗi và làm lộ dữ liệu người dùng. Dù lỗi nhanh chóng được khắc phục, công ty tiết lộ sự cố này đã ảnh hưởng đến 1,2% lượng người dùng ChatGPT Plus. Thông tin bị rò rỉ gồm họ tên, địa chỉ email, địa chỉ thanh toán, bốn chữ số cuối của số thẻ tín dụng và ngày hết hạn của thẻ.

Ngày 31.3, cơ quan bảo vệ dữ liệu của Ý (Garante) đã ban hành lệnh cấm tạm thời ChatGPT với lý do lo ngại về quyền riêng tư sau khi OpenAI tiết lộ lỗ hổng này.

Mark McCreary - Đồng chủ tịch về bảo mật dữ liệu và quyền riêng tư tại công ty luật Fox Rothschild LLP - chia sẻ với CNN rằng những lo ngại về bảo mật xoay quanh ChatGPT không hề bị phóng đại. Chatbot AI được ông ví von như "một chiếc hộp đen".

ChatGPT được OpenAI ra mắt vào tháng 11/2022 và nhanh chóng thu hút được sự chú ý nhờ khả năng viết bài tiểu luận, sáng tác truyện hay lời nhạc bằng cách đưa ra câu lệnh (prompt). Các "gã khổng lồ" công nghệ như Google và Microsoft cũng tung ra các công cụ AI hoạt động tương tự, được hỗ trợ bởi các mô hình ngôn ngữ lớn được đào tạo dựa trên kho dữ liệu trực tuyến khổng lồ.

Khi người dùng nhập thông tin vào các công cụ này, họ không biết sau đó nó sẽ được dùng như thế nào, ông McCreay nói thêm. Điều này rất đáng lo đối với các công ty khi ngày càng có nhiều nhân viên sử dụng các công cụ để trợ giúp viết email công việc hay ghi chú cho các cuộc họp, dẫn đến khả năng bị lộ bí mật thương mại ngày một lớn.

Steve Mills - Giám đốc đạo đức AI tại Boston Consulting Group (BCG) - nói các công ty lo ngại về việc nhân viên vô tình tiết lộ thông tin nhạy cảm. Nếu dữ liệu mà mọi người nhập vào đang được sử dụng để đào tạo công cụ AI này, thì họ đã mất quyền kiểm soát dữ liệu vào tay người khác.

Theo chính sách bảo mật của OpenAI, công ty có thể thu thập tất cả các thông tin cá nhân và dữ liệu của người sử dụng dịch vụ để cải thiện mô hình AI. Họ có thể sử dụng những thông tin này để cải thiện hoặc phân tích dịch vụ của mình, tiến hành nghiên cứu, giao tiếp với người dùng và phát triển chương trình, dịch vụ mới.

Chính sách bảo mật có nêu rõ OpenAI có thể cung cấp thông tin cá nhân cho bên thứ ba mà không cần thông báo đến người dùng, trừ khi pháp luật yêu cầu. OpenAI cũng có tài liệu Điều khoản dịch vụ riêng, tuy nhiên công ty đặt phần lớn trách nhiệm lên người dùng để thực hiện các biện pháp thích hợp khi tương tác với các công cụ AI.

Chủ sở hữu của ChatGPT đã đăng bài trên blog về cách tiếp cận AI an toàn. Công ty nhấn mạnh không sử dụng dữ liệu để bán dịch vụ, quảng cáo hoặc xây dựng hồ sơ của người dùng, OpenAI sử dụng dữ liệu để làm cho các mô hình hữu ích hơn. Ví dụ như cuộc hội thoại của người dùng sẽ được sử dụng để đào tạo ChatGPT.

Chính sách bảo mật của Google, công ty đang phát triển công cụ Bard AI, có những điều khoản bổ sung cho người dùng AI. Công ty sẽ chọn một phần nhỏ của cuộc hội thoại và sử dụng công cụ tự động để xóa đi những thông tin nhận dạng cá nhân. Cách này vừa giúp cải thiện Bard, đồng thời bảo vệ quyền riêng tư của người dùng.

Có thể bạn quan tâm