Trung Quốc siết chặt Chatbot AI để ngăn thao túng tâm lý

Tạp chí Nhịp sống số - Trung Quốc đang chuẩn bị ban hành những quy định nghiêm ngặt nhất từ trước đến nay nhằm kiểm soát cách thức Chatbot AI tương tác, thao túng tâm lý.

Theo dự thảo quy định mới được Cục Quản lý Không gian mạng Trung Quốc (CAC) công bố vào thứ Bảy vừa qua, nước này dự kiến sẽ cấm triệt để các chatbot AI tạo sinh có hành vi gây ảnh hưởng tiêu cực đến cảm xúc người dùng, đặc biệt là những tác động có thể dẫn đến tự tử hoặc tự làm hại bản thân. Đây được xem là nỗ lực đầu tiên trên thế giới nhằm quản lý các AI có đặc điểm "nhân cách hóa", đánh dấu một bước chuyển mình quan trọng từ việc kiểm duyệt nội dung đơn thuần sang bảo vệ "an toàn cảm xúc" cho công dân trong kỷ nguyên số.

Chatbot AI

Từ "an toàn nội dung" đến "an toàn cảm xúc": Cuộc cách mạng trong quản lý AI tương tác

Dự thảo quy định mới của Cục Quản lý Không gian mạng Trung Quốc nhắm mục tiêu cụ thể vào cái mà họ gọi là "các dịch vụ AI tương tác giống người". Theo tài liệu được công bố, các biện pháp này, một khi chính thức được thông qua sau giai đoạn lấy ý kiến công chúng kết thúc vào ngày 25.1 tới, sẽ áp dụng cho toàn bộ các sản phẩm hoặc dịch vụ AI cung cấp cho công chúng tại Trung Quốc có khả năng mô phỏng tính cách con người và thu hút người dùng về mặt cảm xúc thông qua văn bản, hình ảnh, âm thanh hoặc video.

Winston Ma, giáo sư thỉnh giảng tại Trường Luật NYU, nhận định rằng các quy tắc được lên kế hoạch của Bắc Kinh sẽ đánh dấu nỗ lực đầu tiên của thế giới trong việc điều chỉnh AI có các đặc điểm của con người hoặc được nhân cách hóa. Trong bối cảnh các công ty công nghệ Trung Quốc đang chạy đua phát triển các "bạn đồng hành AI" và những người nổi tiếng kỹ thuật số, quy định này đóng vai trò như một chiếc phanh khẩn cấp cần thiết. So sánh với các quy định về AI tạo sinh mà Trung Quốc đã ban hành vào năm 2023, ông Ma nhấn mạnh rằng phiên bản dự thảo lần này "làm nổi bật một bước nhảy vọt từ an toàn nội dung sang an toàn cảm xúc".

Nội dung cốt lõi của dự thảo đặt ra những giới hạn đạo đức đỏ cho các thuật toán. Cụ thể, các chatbot AI bị cấm tuyệt đối việc tạo ra nội dung khuyến khích tự tử, tự làm hại bản thân, hoặc tham gia vào các hành vi bạo lực ngôn từ và thao túng cảm xúc gây tổn hại đến sức khỏe tâm thần của người dùng. Không chỉ dừng lại ở việc ngăn chặn nội dung xấu như cờ bạc, khiêu dâm hay bạo lực, quy định mới đi sâu vào các tình huống khủng hoảng tâm lý cụ thể.

Một trong những điều khoản đáng chú ý nhất là yêu cầu về sự can thiệp của con người. Nếu một người dùng đề xuất cụ thể ý định tự tử, các nhà cung cấp công nghệ không được phép để AI tiếp tục xử lý một cách máy móc. Thay vào đó, họ bắt buộc phải để nhân viên con người tiếp quản cuộc trò chuyện ngay lập tức, đồng thời thực hiện các biện pháp khẩn cấp như liên hệ với người giám hộ của người dùng hoặc một cá nhân được chỉ định để ngăn chặn hậu quả đáng tiếc. Quy định này đặt ra một gánh nặng vận hành nhưng cũng là trách nhiệm xã hội to lớn lên vai các công ty công nghệ, buộc họ phải thiết lập các đội ngũ phản ứng nhanh thay vì phó mặc hoàn toàn cho máy móc.
Lá chắn bảo vệ trẻ vị thành niên và thách thức tuân thủ đối với các "gã khổng lồ" công nghệ

Bên cạnh việc bảo vệ sức khỏe tâm thần nói chung, dự thảo quy định dành một phần lớn dung lượng để thiết lập các rào cản bảo vệ trẻ vị thành niên, nhóm đối tượng dễ bị tổn thương nhất trước sự cám dỗ và ảnh hưởng của AI. Các nhà quản lý Trung Quốc đang yêu cầu một cơ chế kiểm soát chặt chẽ chưa từng thấy đối với quyền truy cập của người dưới 18 tuổi.

Theo đó, trẻ vị thành niên bắt buộc phải có sự đồng ý của người giám hộ mới được phép sử dụng các dịch vụ AI cho mục đích "bầu bạn cảm xúc". Chưa dừng lại ở đó, việc sử dụng này cũng sẽ bị áp đặt các giới hạn về thời gian nghiêm ngặt. Điều này nhằm ngăn chặn tình trạng nghiện tương tác ảo, một vấn đề đang ngày càng trở nên nhức nhối khi các chatbot AI ngày càng trở nên thông minh và thấu hiểu tâm lý người dùng hơn.

Thách thức kỹ thuật đối với các nền tảng là rất lớn khi quy định yêu cầu họ phải có khả năng xác định xem người dùng có phải là trẻ vị thành niên hay không, ngay cả khi người dùng không chủ động tiết lộ tuổi tác. Trong các trường hợp nghi ngờ, nền tảng phải áp dụng mặc định các cài đặt an toàn dành cho trẻ vị thành niên, đồng thời cho phép cơ chế khiếu nại. Đây là một yêu cầu buộc các công ty phải nâng cấp đáng kể công nghệ xác minh danh tính và phân tích hành vi người dùng.

Ngoài ra, dự thảo cũng đưa ra các quy định cụ thể về "sức khỏe kỹ thuật số". Các nhà cung cấp công nghệ sẽ bị yêu cầu phải nhắc nhở người dùng nghỉ ngơi sau hai giờ tương tác liên tục với AI, nhằm phá vỡ sự đắm chìm quá mức vào thế giới ảo. Đối với các chatbot AI có quy mô lớn (được định nghĩa là có hơn 1 triệu người dùng đăng ký hoặc hơn 100.000 người dùng hoạt động hằng tháng) quy định bắt buộc phải thực hiện các đánh giá bảo mật định kỳ. Điều này đồng nghĩa với việc các "ông lớn" công nghệ và cả những startup đang lên trong lĩnh vực AI tại Trung Quốc sẽ phải đối mặt với sự giám sát gắt gao hơn bao giờ hết.

Mặc dù đặt ra nhiều rào cản, tài liệu của Cục Quản lý Không gian mạng Trung Quốc không hoàn toàn phủ nhận vai trò của AI tương tác. Ngược lại, văn bản này khuyến khích việc sử dụng AI giống người trong các lĩnh vực mang lại giá trị xã hội tích cực như "truyền bá văn hóa và bầu bạn với người cao tuổi".

Có thể bạn quan tâm

Ngày 28/12, LG Display thông báo, tại CES 2026 – Triển lãm thiết bị gia dụng và công nghệ thông tin lớn nhất thế giới, hãng sẽ ra mắt loạt sản phẩm OLED mới với nhiều tính năng lần đầu tiên xuất hiện trên thế giới và lập kỷ lục tốt nhất.