Trí tuệ nhân tạo (AI) đang bị lạm dụng ngày càng nhiều trong các vụ lừa đảo và deepfake. Thậm chí các chuyên gia an ninh mạng đến từ Kaspersky còn gọi đây là "Làn sóng tấn công an ninh mạng mới".
AI “mở đường” cho các vụ lừa đảo và deepfake
Theo các chuyên gia an ninh mạng, mặc dù nâng cao trải nghiệm người dùng và cực kỳ linh hoạt trong nhiều ứng dụng, chatbot và các thuật toán cũng “mở đường” cho các cuộc tấn công phi kỹ thuật (social engineering attack) mới tinh vi và nguy hiểm hơn, trong cả đời sống cá nhân lẫn doanh nghiệp.
Theo Báo cáo Identity Fraud năm 2025, trung bình cứ 5 phút lại có một cuộc tấn công deepfake. Diễn đàn Kinh tế Thế giới cũng dự báo, đến 2026, có thể tới 90% nội dung trực tuyến được tạo ra bằng AI.
Ba phương thức phổ biến mà AI đang được sử dụng để đánh cắp dữ liệu của người dùng hiện nay là: Phishing được nâng cấp bởi AI; Deepfake âm thanh; Deepfake video.
Trước đây, các nội dung phishing thường sơ sài, đầy lỗi sai với nội dung thiếu thuyết phục. Giờ đây, các mô hình ngôn ngữ lớn (LLM) cho phép kẻ tấn công tạo ra các tin nhắn và trang web cá nhân hóa, đưa ra thông điệp thuyết phục, với ngữ pháp chính xác, cấu trúc logic, và các đoạn văn mượt mà. Cùng đó, những kẻ tấn công còn có thể nhắm đến các người dùng với ngôn ngữ mà chúng không thành thạo. Thậm chí, chúng có thể sao chép phong cách viết của cá nhân cụ thể – chẳng hạn như đối tác kinh doanh hay đồng nghiệp – bằng cách phân tích bài đăng mạng xã hội hoặc các nội dung khác từ cá nhân đó.
Hơn nữa, trong thời đại số hiện đại, công nghệ AI còn cho phép tạo ra các hình ảnh bắt mắt hoặc thậm chí dựng toàn bộ Landing Page một cách dễ dàng. Đáng nói, những công cụ này cũng bị tội phạm mạng lợi dụng để sản xuất các tài liệu đầy tính thuyết phục nhằm phục vụ cho việc lừa đảo theo hình thức phishing.
Bên cạnh đó, Deepfake âm thanh là công nghệ sử dụng trí tuệ nhân tạo để tạo ra những đoạn âm thanh giả mạo giọng nói của người khác một cách chân thực. Chỉ với vài giây ghi âm giọng nói, AI có thể tạo ra các bản audio y hệt giọng nói của ai đó thân quen, chẳng hạn như bạn bè hoặc người thân. Điều đáng sợ là, với công nghệ ngày càng phát triển, những cuộc tấn công này hoàn toàn có thể xảy ra. Kẻ tấn công có thể lợi dụng giọng nói của bạn để yêu cầu chuyển tiền khẩn cấp hoặc cung cấp thông tin nhạy cảm, dựa vào sự tin tưởng giữa các cá nhân để thực hiện hành vi lừa đảo ở cả cấp độ cá nhân lẫn doanh nghiệp.
Với Deepfake video, chỉ cần có 1 bức ảnh, tin tặc có thể sử dụng công cụ AI để tạo ra các đoạn video giả mạo.
Khi "đạo cao một thước, ma cao một trượng"
Kaspersky đã quan sát và phát hiện ra rằng: tội phạm mạng đang sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo nội dung cho các cuộc tấn công phishing và lừa đảo quy mô lớn. Việc ứng dụng LLM để tạo nội dung, khiến kẻ xấu dễ dàng tự động hóa tạo ra hàng chục, thậm chí hàng trăm trang web phishing và lừa đảo với nội dung thuyết phục, khiến các cuộc tấn công này càng trở nên khó phát hiện hơn.
Khi "Ma" ngày càng tinh quái và hoành hành, thì làm thế nào để "Đạo" có thể chống lại được? Theo các chuyên gia, các biện pháp đối phó có thể chia thành hai nhóm chính: kỹ thuật và phi kỹ thuật.
Về mặt kỹ thuật, các mô hình ngôn ngữ lớn (LLM) trong tương lai có thể sẽ tích hợp các ký hiệu chìm (watermark). Những ký hiệu này không thể nhận biết được bằng mắt thường nhưng có thể được phát hiện bằng thuật toán, giúp xác định và gắn nhãn nội dung do AI tạo ra trên môi trường trực tuyến. Điều quan trọng là phương pháp này chủ yếu hiệu quả với các mô hình lớn được phát triển bởi các tập đoàn công nghệ lớn. Nếu kẻ xấu không sử dụng các mô hình có sẵn mà tự phát triển mô hình riêng, chúng sẽ không bị ảnh hưởng bởi những dấu hiệu nhận diện này và có thể dễ dàng né tránh hoặc "lách luật”.
Ngoài ra, có thể kể đến các công cụ phát hiện deepfake, được thiết kế để nhận diện các đặc điểm bất thường trong hình ảnh chỉnh sửa, sự dao động bất thường trong giọng nói, cách dùng từ không tự nhiên trong văn bản và các dấu hiệu khác cho thấy có sự can thiệp của AI. Tuy nhiên, thách thức lớn nhất là các công cụ này phải liên tục được cải tiến để theo kịp tốc độ phát triển nhanh chóng của công nghệ AI tạo sinh (generative AI).
Chữ ký số (digital signatures) cũng có thể được áp dụng để xác thực độ tin cậy của video hoặc âm thanh. Đây được xem là một trong những giải pháp kỹ thuật đáng tin cậy nhất. Trong tương lai, chữ ký số cũng có thể được áp dụng cho video và tin nhắn âm thanh, với quá trình xác minh diễn ra âm thầm.
Để đối phó với những kẻ lừa đảo công nghệ, thay vì lo sợ, chúng ta nên tập trung vào việc nâng cao nhận thức và cải thiện hiểu biết về an ninh mạng. Mỗi cá nhân có thể tự bảo vệ mình bằng cách luôn cập nhật thông tin, cảnh giác và cẩn trọng trong các tương tác trực tuyến. Các tổ chức cũng có thể chủ động giảm thiểu rủi ro liên quan đến AI bằng cách triển khai các giải pháp bảo mật hiệu quả, cải thiện quy trình an ninh và thực hiện các sáng kiến phù hợp.