Những thông tin không nên nói với chatbot AI
Khi các công cụ trí tuệ nhân tạo (AI) như ChatGPT ngày càng phổ biến, nhiều người có xu hướng sử dụng chúng như một "trợ lý sức khỏe" hoặc nơi để trút bầu tâm sự. Tuy nhiên, giới chuyên gia bảo mật đang gióng lên hồi chuông cảnh báo: Việc chia sẻ thông tin cá nhân, đặc biệt là dữ liệu y tế, với chatbot AI có thể gây ra hậu quả nghiêm trọng.
Người Dùng Ngày Càng Tin Tưởng AI Trong Vấn Đề Sức Khỏe
Một khảo sát của Cleveland Clinic, một trong những hệ thống y tế học thuật phi lợi nhuận hàng đầu thế giới, cho thấy 20% người Mỹ từng hỏi AI về tình trạng sức khỏe của mình.
Tương tự, theo dữ liệu do Tebra công bố năm ngoái, 25% người Mỹ có xu hướng sử dụng chatbot thay vì gặp bác sĩ tâm lý, do cảm thấy tiện lợi và không bị đánh giá.
Tuy nhiên, theo các chuyên gia, sự tiện lợi này tiềm ẩn rất nhiều rủi ro nếu người dùng không hiểu rõ giới hạn của công nghệ.
Theo dữ liệu do Tebra công bố năm ngoái, 25% người Mỹ có xu hướng sử dụng chatbot thay vì gặp bác sĩ tâm lý, do cảm thấy tiện lợi và không bị đánh giá.
Chatbot AI Không Tuân Thủ Luật Bảo Mật Y Tế
Một trong những lo ngại lớn nhất là việc các chatbot như ChatGPT không chịu sự quản lý của Đạo luật HIPAA (Health Insurance Portability and Accountability Act) – một đạo luật liên bang bảo vệ quyền riêng tư và bảo mật dữ liệu y tế cá nhân tại Mỹ.
Điều này đồng nghĩa với việc:
- Mọi thông tin bạn chia sẻ với AI có thể không được bảo vệ an toàn như khi bạn cung cấp cho cơ sở y tế chính thống.
- Không nên dùng chatbot để xin tư vấn y tế, chẩn đoán bệnh hay lưu trữ bệnh án cá nhân.
Những Thông Tin Tuyệt Đối Không Nên Chia Sẻ Với AI
Chuyên gia bảo mật Stan Kaminsky từ công ty Kaspersky nhấn mạnh: “Bất cứ điều gì bạn nói với AI đều có khả năng bị lưu lại, và tệ hơn, có thể bị lợi dụng chống lại bạn.”
Dưới đây là những loại thông tin tuyệt đối không nên chia sẻ với chatbot AI:
- Thông tin sức khỏe cá nhân (bệnh sử, toa thuốc, kết quả xét nghiệm)
- Thông tin tài khoản (tên đăng nhập, mật khẩu, câu hỏi bảo mật)
- Dữ liệu tài chính (số tài khoản, thẻ tín dụng, thu nhập cá nhân)
- Thông tin nhận dạng cá nhân (tên thật, số điện thoại, địa chỉ, số hộ chiếu)
- Thông tin nhạy cảm hoặc liên quan đến người thứ ba
- Thông tin nội bộ doanh nghiệp (bảng lương, kế hoạch sản phẩm, tài sản trí tuệ…)
Rò Rỉ Dữ Liệu Do Tải Tệp Lên AI: Nguy Cơ Thường Gặp
Nhiều người dùng thường sử dụng chatbot AI để xử lý file văn bản như tóm tắt báo cáo, phân tích dữ liệu nội bộ... mà không nhận ra rằng hành động đó có thể khiến dữ liệu quan trọng bị lưu trữ hoặc rò rỉ ngoài ý muốn.
Kaminsky cảnh báo: “Việc tải lên các tài liệu nội bộ như bảng lương, kế hoạch sản phẩm, hợp đồng kinh doanh… có thể gây mất mát dữ liệu hoặc vi phạm quyền riêng tư nghiêm trọng.”
Làm Sao Để Trò Chuyện Với AI Mà Vẫn An Toàn?
Nếu vẫn muốn sử dụng AI hỗ trợ công việc mà tránh lộ thông tin, chuyên gia Kaminsky đưa ra một số giải pháp:
- Ẩn danh thông tin nhạy cảm bằng cách thay thế bằng ký hiệu như [***] hoặc từ “đã xóa”.
- Không đăng nhập tài khoản cá nhân hoặc tải tệp nhạy cảm lên hệ thống AI không rõ nguồn gốc.
- Không để AI truy cập vào lịch sử trò chuyện chứa dữ liệu riêng tư.
- Sử dụng phiên bản chatbot được tích hợp trong hệ thống nội bộ doanh nghiệp nếu cần làm việc với thông tin mật.
Kết Luận: AI Là Công Cụ Hữu Ích – Nhưng Cẩn Thận Khi Dùng
AI đang làm thay đổi cách con người tương tác với thông tin và xử lý công việc. Tuy nhiên, sự tiện lợi đi kèm với rủi ro, đặc biệt khi người dùng quá tin tưởng và chia sẻ những thông tin đáng lẽ phải giữ bí mật.
Máy Tính CDC khuyên bạn: Hãy coi AI là công cụ hỗ trợ, nhưng không phải là nơi để tâm sự, xin tư vấn y tế hay lưu trữ thông tin nhạy cảm. Luôn cẩn trọng khi giao tiếp với chatbot – vì mọi câu chữ bạn gõ ra có thể không bao giờ bị “quên lãng”.