logo

Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀

Sử dụng công nghệ trí tuệ nhân tạo để tạo ra video và giọng nói giả mạo của con cái

Sau khi tạo ra, sử dụng nó để đe dọa cha mẹ và yêu cầu tiền bạc

Các vụ lừa đảo mới đang lan rộng trong và ngoài nước 😱😱

 

Gọi điện thoại cho người quen để ghi âm rồi ghép lại thành giả mạo

Tạo ra âm thanh

Hình ảnh khuôn mặt đăng trên Instagram bị lợi dụng cho mục đích phạm tội!!!

 

Thật sự rất tinh vi đến mức khó phân biệt luôn đóㅠ

 

Bạn nên tránh tiết lộ thông tin cá nhân trên mạng xã hội càng nhiều càng tốt.

Thói quen giữ tài khoản ở chế độ riêng tư để bảo vệ thông tin qua mạng xã hội

Nó có vẻ quan trọng

 

Tôi phải chắc chắn giáo dục các em thật tốt

Ồ~ㅠㅠ Thế giới thật đáng sợ quáㅠㅠ

 

 

Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀Video bắt cóc con gái và đe dọa bằng thủ đoạn lừa đảo mới gọi là 'deepfake'🙀🙀

5
0
bình luận 5
  • hình ảnh hồ sơ cá nhân
    딸기
    조심해야겟내여
    감사요
    • hình ảnh hồ sơ cá nhân
      땡땡이
      nhà văn
      맞아요 좋은 기술들을 이렇게 악용하니
      세상이 점점 험해져서 무섭네요ㅠㅠ
  • hình ảnh hồ sơ cá nhân
    블리비
    와 기술이 발달한 만큼 위험 수위도 높아지네요
    조심해야겠네요
    좋은 정보 감사해요
  • hình ảnh hồ sơ cá nhân
    깐데또까
     조심 해야 겠는데요
     왜 아이들을 미끼로 저렇게까지
     해야 하는건지..... 
  • 은하수
    AI기술이 저렇게 나쁘게 활용되면 안되는데 말이죠 
    큰일이에요