Cybersecurity Trends

ภัยจาก AI: Deepfake

5 กุมภาพันธ์ 2569
  ภัยจาก AI: Deepfake 

Deepfake ปลอมตัวตนเพื่อสร้างความน่าเชื่อถือ

มิจฉาชีพใช้เทคโนโลยี Deepfake “ปลอมตัวตนเพื่อสร้างความน่าเชื่อถือ”  โดยใช้ทั้งการปลอมเสียง และปลอมตัวตน ทำให้การหลอกลวงดูแนบเนียนมากขึ้น เจาะจงขึ้น และกดดันให้เหยื่อโอนเงิน หรือ เปิดเผยข้อมูลสำคัญได้รวดเร็วขึ้น

Voice Cloning

การปลอม “เสียง” ให้คล้ายบุคคลจริง เพื่อใช้โทรหรือส่งข้อความเสียงในการหลอกลวง

รูปแบบการหลอกลวง

A: แอบอ้างเป็นญาติหรือเพื่อน โทรมาขอเงินด่วน

  เร่งโอนเงิน 

ด้วยเสียงที่คล้ายบุคคลจริงมาก และเร่งให้โอนเงินทันที


วิธีปฏิบัติ
  • วางสายก่อน อย่าทำการโอนใด ๆ ไม่ว่าเสียงคู่สนทนาจะฟังดูเหมือนจริงแค่ไหน
  • โทรเช็ก ติดต่อบุคคลนั้นด้วยเบอร์ที่เคยบันทึกไว้
  • ตั้งคำถามยืนยันตัวตน หากไม่สามารถตอบคำถามได้ชัดเจน ควรวางสายทันที

B: แอบอ้างเป็นเจ้าหน้าที่ธนาคาร/ ผู้มีอำนาจตามกฎหมาย แจ้ง “บัญชีมีความเสี่ยง/ต้องยืนยันตัวตน” 

  ขอ OTP/ ลิงก์/ โอนเงิน

แล้วขอ OTP หรือ ให้ติดตั้งแอป/ กดลิงก์ หรือ ให้โอนเงินมาเพื่อตรวจสอบ


วิธีปฏิบัติ
  • วางสายทันที อย่าโต้เถียง อย่าอธิบาย และอย่าทำตามขั้นตอนใด ๆ
  • หากเข้าแอปแล้วใช้งานไม่ได้ หรือถูกแจ้งว่าต้อง “ยืนยันตัวตนเพิ่มเติม” ให้ติดต่อธนาคารโดยตรง เพื่อดำเนินการตามขั้นตอนที่ถูกต้องและปลอดภัย
  • หากสงสัยว่าบัญชีมีปัญหา หรือมีคนอ้างว่าเป็นเจ้าหน้าที่ ให้ติดต่อธนาคารด้วยตัวเองผ่านช่องทางทางการเท่านั้น สอบถามได้ที่ Call Center  02-777-7777 หรือส่งอีเมลมาที่ [email protected]

หมายเหตุ : ธนาคารไม่มีนโยบายติดต่อเพื่อให้ลูกค้าดาวน์โหลดแอปพลิเคชันเพิ่มเติม หรือขอรหัส OTP หรือให้โอนเงินเพื่อตรวจสอบ ไม่ว่ากรณีใดๆ


Photo / Video Altering

ปลอม “ภาพ/วิดีโอ” เพื่อสวมรอยเป็นบุคคลนั้นๆ เช่น วิดีโอคอลปลอมเป็นเจ้าหน้าที่

C: วิดีโอคอลปลอม สวมรอยเป็นเจ้าหน้าที่รัฐ 

  วิดีโอคอล 

เพื่อลวงให้โอนเงินหรือเปิดเผยข้อมูล


วิธีปฏิบัติ
  • หยุดการสนทนาเมื่อมีคำขอทางการเงิน หรือ ข้อมูลสำคัญ ไม่แชร์หน้าจอ  ไม่บอกข้อมูลส่วนบุคคล  ไม่โอนเงิน   ไม่บอก OTP  ระหว่างวิดีโอคอล
  • ตรวจจับความผิดปกติของวิดีโอคอล เช่น ท่าทาง ปาก หรือตา ไม่สัมพันธ์กับสิ่งที่พูด, แสงและเงาไม่สมจริง, ความคมชัดต่ำ หรือดูเป็นภาพซ้อนทับ
  • เจ้าหน้าที่ของรัฐจะไม่โทรติดต่อประชาชนโดยตรง เพื่อขอให้โอนเงินมาตรวจสอบ หรือเพื่อแสดงความบริสุทธิ์ใจ
  • อย่าหลงเชื่อทันที หากมีผู้ติดต่อมาอ้างว่าเป็นหน่วยงานรัฐให้ตรวจสอบด้วยตนเองผ่านช่องทางทางการของหน่วยงานเท่านั้น

กระบวนการหลอกลวงเหยื่อโดยใช้ AI (Anatomy of an AI‑powered Attack)

1
สร้างข้อความที่น่าเชื่อถือเพื่อหลอกล่อเหยื่อ
2
ส่งข้อความไปยังกลุ่มเป้าหมาย
3
โทรหาเหยื่อด้วย AI ปลอมเสียง/ตัวตน เพื่อกดดันเหยื่อ
4
ได้ OTP/สิทธิ์เข้าถึงบัญชีหรืออุปกรณ์
5
ยึดบัญชี / ควบคุมระบบ
6
ขโมยเงิน / กรรโชก

จำง่าย: ถ้ามีการ “เร่งให้โอน / ขอ OTP / ให้กดลิงก์ / ให้ติดตั้งแอป / ขอแชร์หน้าจอ” ให้ถือว่า เสี่ยงสูง และ วางสาย-ตรวจสอบ-ติดต่อช่องทางทางการ ทันที