Sử dụng AI có trách nhiệm là một chủ đề đang được thảo luận sôi nổi ở các quốc gia trên thế giới, trong đó EU và một số quốc gia bước đầu đã dự thảo hoặc ban hành những quy định và công cụ để quản lý AI một cách có trách nhiệm.
Các nguyên tắc liên quan đến sử dụng AI có trách nhiệm
Đề cập đến chủ đề này, Kaspersky đã trình bày các nguyên tắc đạo đức khi ứng dụng trí tuệ nhân tạo (AI) hoặc học máy (ML) trong quá trình phát triển và sử dụng hệ thống nhằm củng cố cam kết phát triển công nghệ một cách có trách nhiệm và minh bạch. Cuộc thảo luận nằm trong khuôn khổ Diễn đàn Quản trị Internet của Liên hợp quốc (UNIGF), diễn ra từ ngày 8 - 12/10/2023 tại Kyoto, Nhật Bản. Sự kiện quy tụ các chuyên gia hàng đầu thế giới, chịu trách nhiệm về quản trị Internet.
Khi vai trò của thuật toán AI ngày càng nổi bật trong an ninh mạng, các nguyên tắc trong sách trắng (white paper) của Kaspersky đã giải thích làm thế nào để doanh nghiệp đảm bảo độ tin cậy của công nghệ AI và hướng dẫn các công ty trong ngành giảm thiểu rủi ro liên quan đến việc sử dụng thuật toán AI/ML.
Theo Kaspersky, để thuận lợi trong việc phát triển và sử dụng AI/ML cần cân nhắc 6 nguyên tắc sau:
- Sự minh bạch;
- Sự an toàn;
- Kiểm soát của con người;
- Sự riêng tư;
- Cam kết sử dụng cho mục đích an ninh mạng;
- Sự cởi mở đối thoại.
Kaspersky đã sử dụng thuật toán ML - một tập hợp con của AI trong các giải pháp của doanh nghiệp gần 20 năm qua. Việc kết hợp trí tuệ nhân tạo và kiến thức chuyên môn của con người đã giúp các giải pháp của Kaspersky phát hiện và chống lại nhiều mối đe dọa an ninh mạng một cách hiệu quả. Trong đó, ML đóng vai trò quan trọng trong việc tự động phát hiện mối đe dọa và nhận dạng bất thường, đồng thời nâng cao độ chính xác trong việc phát hiện phần mềm độc hại. Để thúc đẩy sự đổi mới, Kaspersky đã xây dựng các nguyên tắc đạo đức cho việc phát triển và sử dụng AI/ML. Các nguyên tắc này cũng được chia sẻ công khai với toàn ngành với mục đích ngoại giao đa phương nhằm đảm bảo AI được sử dụng đúng đắn.
Trong đó, với nguyên tắc minh bạch, Kaspersky cho rằng các công ty nên thông báo cho khách hàng của mình về việc công nghệ AI/ML được sử dụng trong các sản phẩm và dịch vụ. Kaspersky tuân thủ nguyên tắc này bằng cách phát triển các hệ thống AI/ML dễ sử dụng nhất có thể, chia sẻ thông tin với các bên liên quan về cách hoạt động của các giải pháp và cách Kaspersky tận dụng công nghệ AI/MI.
Tính an toàn được phản ánh rõ rệt trong các giải pháp của Kaspersky nhằm đảm bảo chất lượng của hệ thống AI/ML. Trong đó có bao gồm kiểm toán bảo mật dành riêng cho AI/ML, các bước để giảm thiểu sự phụ thuộc vào bộ dữ liệu của bên thứ ba trong quá trình đào tạo các giải pháp do AI thực hiện và ưu tiên các công nghệ ML điện toán đám mây (cloud-based) với các biện pháp bảo vệ cần thiết thay vì các mô hình được cài đặt sẵn trên thiết bị của khách hàng.
Nhu cầu hiệu chỉnh công việc của hệ thống AI/ML khi phân tích các mối đe dọa phức tạp, đặc biệt là các APT (Advanced Persistent Threat), đã giải thích cho tầm quan trọng của việc kiểm soát bởi con người. Để cung cấp sự bảo vệ hiệu quả trước các mối đe dọa ngày càng phát triển, Kaspersky cam kết duy trì sự kiểm soát của con người như một yếu tố thiết yếu trong tất cả các hệ thống AI/ML của mình.
Khai thác dữ liệu và quyền riêng tư
Đảm bảo quyền riêng tư trong việc sử dụng AI/ML cũng là một nguyên tắc đạo đức quan trọng. Dữ liệu lớn đóng vai trò then chốt trong quá trình đào tạo các hệ thống, nên các công ty làm việc với AI/ML phải cân nhắc đến quyền riêng tư của mỗi cá nhân một cách toàn diện. Kaspersky cam kết tôn trọng quyền riêng tư của mỗi cá nhân thông qua việc áp dụng một số biện pháp về mặt tổ chức và kỹ thuật để bảo vệ dữ liệu và hệ thống, đồng thời đảm bảo quyền riêng tư của người dùng được thực hiện hiệu quả.
Nhằm chia sẻ những phương pháp thực tiễn tốt nhất trong việc sử dụng AI một cách có đạo đức, nguyên tắc thứ 6 mà Kaspersky đưa ra cũng khẳng định sự sẵn sàng thảo luận với các bên quan tâm, vì công ty tin rằng cách duy nhất để vượt qua những thách thức, thúc đẩy đổi mới và mở ra những cơ hội mới là sự hợp tác chặt chẽ giữa tất cả các bên liên quan.
Anton Ivanov - chuyên gia phân tích bảo mật tại Kaspersky - chia sẻ: "AI có tiềm năng mang lại nhiều lợi ích cho ngành an ninh mạng, nâng cao hơn nữa khả năng phục hồi không gian mạng của xã hội chúng ta. Tuy nhiên, cũng như bất kỳ công nghệ nào khác ở giai đoạn đầu phát triển, AI cũng mang theo một số rủi ro. Để giải quyết những lo ngại xung quanh AI, Kaspersky đã đưa ra các nguyên tắc đạo đức của mình nhằm chia sẻ những phương pháp thực hành tốt nhất để ứng dụng AI. Ngoài ra, Kaspersky kêu gọi cởi mở đối thoại trong toàn ngành nhằm phát triển các hướng dẫn rõ ràng về những yếu tố đạo đức cần được cân nhắc khi phát triển các giải pháp dựa trên AI và ML".
Theo Kaspersky, việc đưa ra các nguyên tắc đạo đức là sự tiếp nối mục tiêu của Kaspersky Global Transparency Initiative, nhằm thúc đẩy các nhà cung cấp công nghệ tuân thủ các nguyên tắc minh bạch và trách nhiệm giải trình vì một môi trường trực tuyến an toàn và linh hoạt hơn.