Rối trí, mất tiền vì AI giả giọng người thân

Rối trí, mất tiền vì AI giả giọng người thân

09-04-2025, 2:16 pm
8

Trong thời đại trí tuệ nhân tạo phát triển vượt bậc, những chiêu thức lừa đảo cũng trở nên tinh vi đến mức không thể ngờ tới. Trường hợp của bà Linda Roan, 62 tuổi, là minh chứng đau lòng cho nguy cơ bị đánh lừa bởi AI giả giọng người thân – một hình thức lừa đảo mới đang lan rộng khắp thế giới. 

Cuộc gọi trong nước mắt và lời cầu cứu từ "con gái"

Vào một ngày tháng 2, bà Roan bất ngờ nhận cuộc gọi từ số lạ. Ở đầu dây bên kia, bà nghe thấy tiếng nức nở quen thuộc: “Mẹ ơi con vẫn ổn, nhưng con cần mẹ giúp”.

Không chần chừ, bà lập tức nhận ra giọng nói của con gái út 26 tuổi – từ âm điệu cho đến cách khóc đặc trưng. Sự quen thuộc đó khiến bà hoàn toàn tin rằng con mình đang gặp nguy hiểm.

Ngay sau đó, một người đàn ông lạ tiếp lời, nói rằng con gái bà đã vô tình chứng kiến một vụ giao dịch ma túy và làm hỏng “phi vụ” này. Nếu bà không chuyển tiền đền bù, hắn dọa sẽ không thả cô ra.

Kịch bản được dựng sẵn: Lệnh giấu điện thoại và chuyển tiền ngay

Ban đầu, bà Roan vẫn nghi ngờ đây là trò lừa đảo, nhưng âm thanh quá giống con gái khiến bà dần dao động. Người đàn ông nhanh chóng hướng dẫn bà đến một siêu thị ở ngoại ô thành phố Denver, nơi có thể gửi tiền qua dịch vụ Western Union.

Hắn thậm chí soạn sẵn lời thoại nếu nhân viên nghi ngờ, rằng bà đang gửi tiền cho người thân ở Mexico bị bệnh nặng. Trong suốt quá trình, điện thoại luôn bật loa ngoài và bà bị yêu cầu giấu thiết bị, không để lộ bất kỳ dấu hiệu nào.

Do không thể thanh toán bằng thẻ tại quầy, bà Roan quay về và chuyển trực tuyến 1.000 USD đến Mexico.

Lời hứa trả tự do và màn tống tiền lần hai

Sau lần chuyển đầu tiên, kẻ lừa đảo hứa sẽ thả con gái bà. Tuy nhiên, chỉ vài phút sau, hắn quay lại với lý do: "Sếp tôi tức giận vì quá chậm trễ" và yêu cầu thêm 1.000 USD, thậm chí dọa bán con gái bà với giá 30.000 USD.

Trong lúc đó, bà tiếp tục nghe thấy tiếng hét thất thanh từ “con gái” – khiến bà gần như suy sụp. Bà van xin được nói chuyện trực tiếp nhưng bị từ chối.

“Giọng nói đó chính xác là con gái tôi”, bà Roan kể lại. Và rồi, trong tâm trạng hoảng loạn và tuyệt vọng, bà chuyển thêm 1.000 USD nữa.

Trong thời đại trí tuệ nhân tạo phát triển vượt bậc, những chiêu thức lừa đảo cũng trở nên tinh vi đến mức không thể ngờ tới.

Trong thời đại trí tuệ nhân tạo phát triển vượt bậc, những chiêu thức lừa đảo cũng trở nên tinh vi đến mức không thể ngờ tới.

Sự thật phơi bày: Tất cả chỉ là giả mạo bằng AI

Sau lần chuyển thứ hai, kẻ lạ mặt tuyên bố đã thả cô gái. Bà Roan ngay lập tức gọi cho con – và phát hiện cô vẫn an toàn trong căn hộ riêng, hoàn toàn không biết gì về sự việc.

Quá sốc, bà Roan đã liên hệ cảnh sát. Tuy nhiên, cuộc điều tra không đem lại kết quả. Số điện thoại không có trong bất kỳ cơ sở dữ liệu nào, còn thông tin người nhận tiền ở Mexico hoàn toàn không thể xác định.

Công ty thẻ tín dụng xác nhận bà không thể đòi lại tiền, vì đây là giao dịch tự nguyện.

Nạn nhân của công nghệ: AI giả giọng nói đang trở thành công cụ lừa đảo hàng đầu

Bà Linda Roan chỉ là một trong hàng nghìn nạn nhân đang chịu hậu quả từ công nghệ giả giọng nói bằng AI.

Theo báo cáo tháng trước của Ủy ban Thương mại Liên bang Mỹ (FTC), lừa đảo mạo danh người thân, bạn bè, đồng nghiệp hoặc quan chức chính phủ là hình thức lừa đảo phổ biến nhất năm 2024, gây thiệt hại gần 3 tỷ USD.

FBI cũng đưa ra cảnh báo về việc trí tuệ nhân tạo đang bị lợi dụng để tạo ra những giọng nói giống y như thật, khiến người nghe không phân biệt được thật – giả.

Chỉ cần 3 giây giọng nói – AI có thể sao chép 85% độ chính xác

Theo công ty bảo mật McAfee, chỉ cần 3 giây ghi âm giọng nói là AI có thể sao chép với độ chính xác lên đến 85%.

Một cuộc khảo sát cho thấy hơn 50% người tham gia thường xuyên chia sẻ nội dung có giọng nói cá nhân lên mạng, tạo điều kiện cho tội phạm thu thập và sử dụng vào mục đích xấu. Đáng lo hơn, 1 trong 10 người được hỏi thừa nhận đã từng nhận được các cuộc gọi tương tự, trong đó phần lớn đã mất tiền vì tin vào “giọng người thân”.

Cảnh báo từ chuyên gia: “Sợ hãi khiến lý trí tê liệt”

Theo Mary Poffenroth, giảng viên tại Đại học Bang San Jose:

“Nỗi sợ hãi có thể làm tê liệt khả năng phán đoán, khiến chúng ta tin rằng những gì mình nghe thấy là thật – dù nó không phải.”
Dù cảm thấy xấu hổ vì bị lừa, bà Roan vẫn nhận được sự đồng cảm từ người thân, bạn bè. “Hầu như mọi bà mẹ đều nói rằng họ cũng sẽ làm điều tương tự nếu ở hoàn cảnh của tôi”, bà chia sẻ.

Bài học cảnh giác: Khi công nghệ vượt qua lòng tin

Câu chuyện của bà Roan là lời cảnh báo rõ ràng rằng: trong thời đại AI, giọng nói không còn là bằng chứng đủ để xác nhận danh tính.

Người dùng cần hết sức cảnh giác, hạn chế chia sẻ giọng nói cá nhân lên mạng xã hội, và kiểm tra đa chiều trước khi đưa ra bất kỳ quyết định tài chính nào. Khi nhận được cuộc gọi lạ có yếu tố đe dọa hoặc cầu cứu, hãy tìm cách liên hệ trực tiếp với người thân qua kênh khác để xác minh thông tin.

Thẻ:
avatar
Nguyễn Hà My
Author
Tại
Maytinhcdc
Là một nhân viên của maytinhcdc.vn, đồng thời cũng là một người yêu thích công nghệ, mình mong muốn có thể cung cấp tới mọi người những thông tin hữu ích nhất
Bài viết liên quan