Người dùng Internet đối mặt nguy cơ từ 'vũ khí' Dark AI

Người dùng Internet đối mặt nguy cơ từ 'vũ khí' Dark AI

Người dùng Internet đối mặt nguy cơ từ 'vũ khí' Dark AI

18-08-2025, 10:35 am

Trí tuệ nhân tạo đang thay đổi thế giới từng ngày — nhưng cùng với đó, một mặt tối mang tên Dark AI cũng đang âm thầm trỗi dậy. Khi AI bị lạm dụng để tạo mã độc, lừa đảo và tấn công mạng, cả cá nhân lẫn tổ chức đều đứng trước thách thức mới trong việc bảo vệ an toàn số.

Khi AI bị biến tướng thành công cụ tấn công

“Chúng ta đang bước vào một kỷ nguyên mới của an ninh mạng, nơi AI có thể trở thành cả tấm khiên và lưỡi gươm,” ông Sergey Lozhkin, Trưởng nhóm Nghiên cứu và Phân tích Toàn cầu (GReAT) của Kaspersky, nhấn mạnh tại Tuần lễ An ninh mạng quốc tế tổ chức đầu tháng 8 tại Đà Nẵng.

Trong khi AI chính thống được phát triển kèm các cơ chế kiểm soát nghiêm ngặt, thì Dark AI – những mô hình ngôn ngữ lớn (LLMs) không qua giám sát – đang bị tội phạm mạng lợi dụng để thực hiện các hoạt động phi pháp như:

  • Tạo mã độc
  • Viết email lừa đảo
  • Tạo giọng nói giả, deepfake video
  • Hỗ trợ tấn công có chủ đích

Chuyên gia an ninh mạng Sergey Lozhkin.

Chuyên gia an ninh mạng Sergey Lozhkin.

Từ WormGPT đến DarkBard – Khi AI phục vụ hacker

Sự trỗi dậy của Black Hat GPT từ giữa năm 2023 cho thấy AI không chỉ là công cụ hỗ trợ người dùng chính thống, mà còn trở thành vũ khí trong tay kẻ xấu. Các mô hình như WormGPT, FraudGPT, Xanthorox… được thiết kế chuyên biệt để hỗ trợ các nhóm tin tặc hoặc các tổ chức được nhà nước hậu thuẫn.

Trên thực tế, OpenAI cho biết họ đã chặn hơn 20 chiến dịch sử dụng AI để phát tán thông tin sai lệch và tiến hành các cuộc tấn công có tổ chức.

AI không có đạo đức – Chỉ có chỉ dẫn

“AI không tự phân biệt đúng sai. Nó chỉ làm theo lệnh,” ông Lozhkin cảnh báo. Khi công cụ mạnh mẽ như AI rơi vào tay kẻ xấu, nguy cơ lan truyền nội dung giả mạo đa ngôn ngữ, vượt tường lửa, đánh lừa người dùng... trở nên nghiêm trọng hơn bao giờ hết.

Một số ứng dụng AI tạo sinh hiển thị trên smartphone.

Một số ứng dụng AI tạo sinh hiển thị trên smartphone.

Shadow AI – Nguy cơ từ chính nội bộ doanh nghiệp

Một rủi ro khác đang hiện hữu là Shadow AI – khi nhân viên sử dụng công cụ AI mà không có sự giám sát của bộ phận IT. Tại Việt Nam, báo cáo của Cisco cho thấy:

  • 62% tổ chức không tự tin phát hiện được nhân viên sử dụng AI ngoài tầm kiểm soát
  • 40% bộ phận CNTT không nắm rõ cách nhân viên tương tác với AI
  • Chỉ 44% nhân viên đang dùng công cụ GenAI được phê duyệt

Làm gì để phòng tránh Dark AI?

Chuyên gia từ Kaspersky khuyến nghị doanh nghiệp nên:

  • Kiểm soát truy cập và giám sát chặt chẽ công cụ AI nội bộ
  • Đào tạo an ninh mạng định kỳ cho nhân sự
  • Xây dựng trung tâm điều hành an ninh mạng (SOC)
  • Triển khai hệ thống bảo mật thế hệ mới có khả năng phát hiện và xử lý mối đe dọa do AI tạo sinh

Kết luận: Cần hành động sớm trước khi quá muộn

Trí tuệ nhân tạo là một công cụ quyền năng – nhưng như bất kỳ công nghệ nào, nó có thể bị biến tướng nếu rơi vào tay sai mục đích. Dark AI chính là lời cảnh tỉnh cho toàn xã hội, đặc biệt là doanh nghiệp và tổ chức đang vận hành hệ thống số hóa, cần hành động ngay hôm nay để bảo vệ dữ liệu, con người và uy tín của mình trước những mối đe dọa thế hệ mới.

avatar
Nguyễn Hà My
Author Tại
Maytinhcdc
Là một nhân viên của maytinhcdc.vn, đồng thời cũng là một người yêu thích công nghệ, mình mong muốn có thể cung cấp tới mọi người những thông tin hữu ích nhất
Bài viết liên quan