Danh mục sản
phẩm
Máy tính
Khi các công cụ trí tuệ nhân tạo (AI) như ChatGPT ngày càng phổ biến, nhiều người có xu hướng sử dụng chúng như một "trợ lý sức khỏe" hoặc nơi để trút bầu tâm sự. Tuy nhiên, giới chuyên gia bảo mật đang gióng lên hồi chuông cảnh báo: Việc chia sẻ thông tin cá nhân, đặc biệt là dữ liệu y tế, với chatbot AI có thể gây ra hậu quả nghiêm trọng.
Khi các công cụ trí tuệ nhân tạo (AI) như ChatGPT ngày càng phổ biến, nhiều người có xu hướng sử dụng chúng như một "trợ lý sức khỏe" hoặc nơi để trút bầu tâm sự. Tuy nhiên, giới chuyên gia bảo mật đang gióng lên hồi chuông cảnh báo: Việc chia sẻ thông tin cá nhân, đặc biệt là dữ liệu y tế, với chatbot AI có thể gây ra hậu quả nghiêm trọng.
Một khảo sát của Cleveland Clinic, một trong những hệ thống y tế học thuật phi lợi nhuận hàng đầu thế giới, cho thấy 20% người Mỹ từng hỏi AI về tình trạng sức khỏe của mình.
Tương tự, theo dữ liệu do Tebra công bố năm ngoái, 25% người Mỹ có xu hướng sử dụng chatbot thay vì gặp bác sĩ tâm lý, do cảm thấy tiện lợi và không bị đánh giá.
Tuy nhiên, theo các chuyên gia, sự tiện lợi này tiềm ẩn rất nhiều rủi ro nếu người dùng không hiểu rõ giới hạn của công nghệ.

Theo dữ liệu do Tebra công bố năm ngoái, 25% người Mỹ có xu hướng sử dụng chatbot thay vì gặp bác sĩ tâm lý, do cảm thấy tiện lợi và không bị đánh giá.
Một trong những lo ngại lớn nhất là việc các chatbot như ChatGPT không chịu sự quản lý của Đạo luật HIPAA (Health Insurance Portability and Accountability Act) – một đạo luật liên bang bảo vệ quyền riêng tư và bảo mật dữ liệu y tế cá nhân tại Mỹ.
Điều này đồng nghĩa với việc:
Chuyên gia bảo mật Stan Kaminsky từ công ty Kaspersky nhấn mạnh: “Bất cứ điều gì bạn nói với AI đều có khả năng bị lưu lại, và tệ hơn, có thể bị lợi dụng chống lại bạn.”
Dưới đây là những loại thông tin tuyệt đối không nên chia sẻ với chatbot AI:

Nhiều người dùng thường sử dụng chatbot AI để xử lý file văn bản như tóm tắt báo cáo, phân tích dữ liệu nội bộ... mà không nhận ra rằng hành động đó có thể khiến dữ liệu quan trọng bị lưu trữ hoặc rò rỉ ngoài ý muốn.
Kaminsky cảnh báo: “Việc tải lên các tài liệu nội bộ như bảng lương, kế hoạch sản phẩm, hợp đồng kinh doanh… có thể gây mất mát dữ liệu hoặc vi phạm quyền riêng tư nghiêm trọng.”
Nếu vẫn muốn sử dụng AI hỗ trợ công việc mà tránh lộ thông tin, chuyên gia Kaminsky đưa ra một số giải pháp:
AI đang làm thay đổi cách con người tương tác với thông tin và xử lý công việc. Tuy nhiên, sự tiện lợi đi kèm với rủi ro, đặc biệt khi người dùng quá tin tưởng và chia sẻ những thông tin đáng lẽ phải giữ bí mật.
Máy Tính CDC khuyên bạn: Hãy coi AI là công cụ hỗ trợ, nhưng không phải là nơi để tâm sự, xin tư vấn y tế hay lưu trữ thông tin nhạy cảm. Luôn cẩn trọng khi giao tiếp với chatbot – vì mọi câu chữ bạn gõ ra có thể không bao giờ bị “quên lãng”.