Nóng trên mạng

Rộ chiêu trò lừa đảo bằng AI?

  • Tác giả : Thục Anh (TH)
Mạng xã hội lan truyền chiêu trò gọi video giả và giả giọng người thân để lừa đảo - được gọi là Deepfake. Kẻ gian nhờ công nghệ AI giúp Deepfake có thể gán khuôn mặt của người này sang người khác trong video, với độ chân thực đến kinh ngạc.

Mạng xã hội lan truyền chiêu trò gọi video giả và giả giọng người thân để lừa đảo - được gọi là Deepfake. Kẻ gian nhờ công nghệ AI giúp Deepfake có thể gán khuôn mặt của người này sang người khác trong video, với độ chân thực đến kinh ngạc.

Trí tuệ nhân tạo (AI) là chủ đề công nghệ được quan tâm nhất hiện nay. Sau màn ra mắt đình đám của ChatGPT, Microsoft và Google là những ông lớn công nghệ theo sau, với phiên bản Bing tích hợp AI và chatbot Bard hoàn toàn mới.

Cảnh báo hình thức lừa đảo bằng Deepfake để giả giọng, mặt người thân. Cảnh báo hình thức lừa đảo bằng Deepfake để giả giọng, mặt người thân.

Deepfake là gì?

Thuật ngữ "Deepfake" là sự kết hợp giữa "deep learning" và "fake". Công nghệ này được xây dựng trên nền tảng machine learning mã nguồn mở của Google. Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật. Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể gán khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc.

Hiện nay Deepfake đang trở thành nỗi ám ảnh khi trở thành "bóng ma" trong thế giới Internet được dùng để lừa đảo, thao túng thị trường.

Tại sao Deepfake có thể giả giọng, mặt người thân để lừa đảo?

Nắm bắt được tâm lý người dùng mạng xã hội hiện đã cảnh giác với chiêu trò lừa đảo bằng tin nhắn nhờ chuyển tiền, các đối tượng đã sử dụng chiêu lừa đảo tinh vi hơn để vay tiền thông qua hình thức giả cuộc gọi video.

Những giọng nói tạo lập bởi AI càng tăng tính chuyên nghiệp và nguy hiểm của chiêu trò này. Đây chính là mặt tối của các AI tạo sinh khi chúng có thể tạo văn bản, hình ảnh hay âm thanh dựa trên bộ dữ liệu được cung cấp trước.

Các phần mềm tạo giọng nói hoạt động bằng cách phân tích những đặc trưng trong giọng nói của một người như độ tuổi, giới tính, ngữ điệu, sau đó tìm kiếm trong kho dữ liệu khổng lồ một giọng nói tương tự và dự đoán các mẫu hội thoại cần tạo ra.

Do đó, chúng có thể tái tạo cao độ, âm sắc của một người và tạo ra một giọng nói hoàn chỉnh y hệt bản gốc. Kho dữ liệu này thường là những đoạn âm thanh từ YouTube, TikTok, Instagram, Facebook hay các podcast, video quảng cáo…

Theo các chuyên gia về công nghệ, phương thức của các đối tượng này thường là tìm kiếm thu thập thông tin cá nhân được đăng tải công khai trên các tài khoản mạng xã hội… để tạo ra một kịch bản lừa đảo. Khi nạn nhân cẩn thận sẽ gọi điện thoại hoặc video để kiểm tra thì chúng sử dụng phần mềm cắt ghép hình ảnh để đánh lừa.

Theo các chuyên gia về công nghệ, phương thức của các đối tượng này thường là tìm kiếm thu thập thông tin cá nhân được đăng tải công khai trên các tài khoản mạng xã hội… để tạo ra một kịch bản lừa đảo. Khi nạn nhân cẩn thận sẽ gọi điện thoại hoặc video để kiểm tra thì chúng sử dụng phần mềm cắt ghép hình ảnh để đánh lừa.

Cơ quan chức năng nhiều lần đưa ra cảnh báo với người dân cần đặc biệt cảnh giác với thủ đoạn lừa đảo tinh vi này. Khi có ai đó đề nghị mượn tiền, người dân cần thận trọng xác minh xem đó có phải là bạn bè, người thân của mình hay không.

Công an các địa phương liên tục đưa ra những khuyến cáo với người dân, khi nhận bất kỳ tin nhắn vay mượn tiền thông qua mạng xã hội, người dân cần điện thoại trực tiếp cho người thân để xác minh. Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

Thục Anh (TH)