“Công ty mẹ” của ứng dụng trò chuyện Snapchat - Snap Inc, đã mở quyền truy cập chatbot tùy biến mang tên “My AI” cho tất cả người dùng.
Tính năng này được xây dựng dựa trên trí tuệ nhân tạo (AI) và nền tảng ngôn ngữ ChatGPT, trước đây chỉ khả dụng cho những tài khoản đăng ký Snapchat+ có trả phí.
Theo Snap Inc, My AI sẽ đưa ra các đề xuất, trả lời các câu hỏi, giúp người dùng lập kế hoạch hay thậm chí có thể sáng tác một bài thơ haiku trong vòng vài giây.
Người dùng hoàn toàn có thể sử dụng công cụ này trong các cuộc trò chuyện với bạn bè bằng cách sử dụng cú pháp “@MyAI” tại khung chat, ngoài ra còn có thể đặt tên, thiết kế hình đại diện theo ý thích nhằm cá nhân hóa công cụ theo ý muốn.
Quyết định trên được đưa ra chỉ hơn một tháng sau khi OpenAI, công ty phát triển ChatGPT, cho phép các doanh nghiệp bên thứ 3 truy cập chatbot của mình. Snap, Instacart và Quizlet nằm trong số những đối tác đầu tiên thử nghiệm tích hợp ChatGPT.
Tuy mỗi nền tảng có những cách khác nhau để tích hợp công cụ nhưng nhìn chung, các công ty có thể đều muốn đánh giá mức độ hữu ích của các chatbot sử dụng AI trong cuộc sống hằng ngày, cũng như mức độ tương tác để phục vụ khách hàng và các mục đích sử dụng khác trên các ứng dụng.
Mặt khác, việc thêm tính năng ChatGPT cũng có thể đi kèm với một số rủi ro, chẳng hạn như việc lan truyền thông tin không chính xác, hoặc phản hồi người dùng theo cách không phù hợp.
Trong một bài đăng ngày 19/4, công ty Snap nêu rõ tính năng My AI chưa hoàn hảo nhưng đã tiến bộ rất nhiều. Khoảng 99,5% số ý kiến phản hồi AI tuân thủ các quy tắc cộng đồng và công ty đang nỗ lực thực hiện các thay đổi nhằm loại bỏ những phản hồi không phù hợp hoặc có hại.
Bên cạnh đó, công ty cũng đã phát triển thêm công nghệ kiểm duyệt và đưa tính năng mới này vào các công cụ dành cho phụ huynh.
Snap Inc khẳng định sẽ tiếp tục tận dụng những bài học ban đầu cũng như ý kiến của người dùng để xây dựng MyAI trở thành một công cụ an toàn, thú vị và hữu ích hơn.
Tuy nhiên, các chuyên gia an ninh mạng Nhật Bản ngày 21/4 cảnh báo ChatGPT có thể bị lợi dụng để viết mã độc cho các phần mềm độc hại (malware).
Phát hiện mới nhất này một lần nữa cho thấy các biện pháp an ninh mà nhà phát triển phần mềm áp dụng hoàn toàn có thể bị phá vỡ, khiến ChatGPT dễ dàng bị lợi dụng cho mục đích xấu và trở thành công cụ "tiếp tay" cho tin tặc.
Trong bối cảnh dấy lên nhiều lo ngại rằng những chatbot ứng dụng AI tiềm ẩn nguy cơ khiến tỷ lệ phạm tội gia tăng và xã hội bị phân mảnh, nhà chức trách các nước đang kêu gọi nỗ lực thảo luận để ban hành những biện pháp kiểm soát hiệu quả và chặt chẽ.
Các cuộc thảo luận xoay quanh chủ đề này sẽ được thúc đẩy trong khuôn khổ Hội nghị thượng đỉnh Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7), dự kiến diễn ra tại thành phố Hiroshima vào tháng Năm, cũng như tại các diễn đàn quốc tế khác.
Trong cuộc họp kéo dài hai ngày ở thành phố Takasaki, tỉnh Gunma, vào cuối tháng Tư, bộ trưởng công nghệ thông tin các nước G7 dự kiến thảo luận thêm nỗ lực đẩy nhanh nghiên cứu và tăng cường quản trị các hệ thống AI.
Tháng 12/2022, ChatGPT - do công ty OpenAI có trụ sở tại San Francisco (Mỹ) phát triển, đã cán mốc 100 triệu người dùng chỉ sau một tháng trình làng.
Chatbot ứng dụng AI thu hút sự chú ý nhờ khả năng viết luận, làm thơ hoặc viết code theo yêu cầu chỉ trong vài giây, song cũng làm dấy lên lo ngại về nguy cơ lừa đảo hoặc biến nhiều ngành nghề trở nên lỗi thời.
Tội phạm mạng đã nghiên cứu các lệnh có thể sử dụng để "đánh lừa" AI cho mục đích bất chính và chia sẻ nội dung này trên các trang web đen, khiến nhiều người càng lo ngại về nguy cơ gia tăng tội phạm trên không gian mạng.