เตือนภัย! มิจฉาชีพใช้ AI ปลอมเสียงคนใกล้ตัวหลอกโอนเงิน

เตือนภัย! มิจฉาชีพใช้ AI ปลอมเสียงคนใกล้ตัวหลอกโอนเงิน

14 มิถุนายน 2568 – ตำรวจไซเบอร์ออกเตือนประชาชนระวังกลโกงรูปแบบใหม่ หลังพบมิจฉาชีพใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) ปลอมเสียงของบุคคลใกล้ชิด เช่น ลูกหลาน ญาติ หรือหัวหน้างาน โทรศัพท์หาเหยื่อผ่านเบอร์แปลก พร้อมอ้างสถานการณ์ฉุกเฉินเพื่อหลอกให้โอนเงิน

จากข้อมูลเบื้องต้น กลุ่มมิจฉาชีพจะสร้างสถานการณ์ เช่น อุบัติเหตุ ติดคดี หรือการเจ็บป่วย โดยใช้เสียงเลียนแบบคนรู้จักมาขอความช่วยเหลืออย่างเร่งด่วน โดยมักพูดว่า “ไม่มีเวลาชี้แจง ขอให้รีบโอน” หรือ “อย่าบอกใคร เชื่อใจได้” เพื่อเร่งการตัดสินใจ

สรุปข่าว

ตำรวจไซเบอร์เตือนภัยมิจฉาชีพใช้ AI ปลอมเสียงคนใกล้ชิดโทรหลอกให้โอนเงินผ่านเบอร์แปลก อ้างเหตุฉุกเฉินเร่งด่วน แนะอย่ารีบโอน ให้โทรกลับหาคนจริงและตรวจสอบบัญชีโอนก่อนตกเป็นเหยื่อ

14 มิถุนายน 2568 – ตำรวจไซเบอร์ออกเตือนประชาชนระวังกลโกงรูปแบบใหม่ หลังพบมิจฉาชีพใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) ปลอมเสียงของบุคคลใกล้ชิด เช่น ลูกหลาน ญาติ หรือหัวหน้างาน โทรศัพท์หาเหยื่อผ่านเบอร์แปลก พร้อมอ้างสถานการณ์ฉุกเฉินเพื่อหลอกให้โอนเงิน

จากข้อมูลเบื้องต้น กลุ่มมิจฉาชีพจะสร้างสถานการณ์ เช่น อุบัติเหตุ ติดคดี หรือการเจ็บป่วย โดยใช้เสียงเลียนแบบคนรู้จักมาขอความช่วยเหลืออย่างเร่งด่วน โดยมักพูดว่า “ไม่มีเวลาชี้แจง ขอให้รีบโอน” หรือ “อย่าบอกใคร เชื่อใจได้” เพื่อเร่งการตัดสินใจ

ผู้เสียหายหลายรายให้ข้อมูลว่า เสียงที่ได้ยินคล้ายกับบุคคลใกล้ชิดมากจนไม่สามารถแยกแยะได้ทัน จึงหลงเชื่อและโอนเงินไปยังบัญชีที่คนร้ายให้ไว้ โดยเพิ่งรู้ตัวภายหลังว่าเป็นการหลอกลวง

รูปแบบการหลอกลวงที่พบบ่อย

 1. ใช้ AI ปลอมเสียง เลียนแบบคนรู้จัก

 2. โทรจาก เบอร์แปลก ไม่ใช่เบอร์ที่ผู้เสียหายเคยบันทึกไว้

 3. อ้างเหตุ ฉุกเฉิน เพื่อเร่งให้โอนเงินทันที

 4. ไม่ให้เวลาสอบถามหรือพิสูจน์ตัวตน

แนวทางป้องกัน

 • อย่าตัดสินใจโอนเงินโดยไม่ตรวจสอบ

 • โทรกลับหาบุคคลที่ถูกอ้างชื่อ โดยใช้เบอร์ที่เคยติดต่อ

 • สังเกตความผิดปกติ เช่น คำพูดเร่งรัด น้ำเสียงไม่เป็นธรรมชาติ

 • ตรวจสอบชื่อบัญชีผู้รับโอนว่าเป็นของคนรู้จักจริงหรือไม่

หากตกเป็นเหยื่อ

 • แจ้งความออนไลน์ผ่านเว็บไซต์ www.thaipoliceonline.go.th

 • ติดต่อสายด่วน 1441 ของตำรวจไซเบอร์ ตลอด 24 ชั่วโมง

สำนักงานตำรวจแห่งชาติระบุว่า กลโกงลักษณะนี้กำลังแพร่กระจายเพิ่มขึ้น โดยใช้เทคโนโลยี AI ที่เข้าถึงได้ง่ายขึ้นในการปลอมเสียงอย่างแนบเนียน และย้ำเตือนประชาชนให้ใช้วิจารณญาณ ตรวจสอบให้แน่ชัดก่อนโอนเงินในทุกกรณี แม้ปลายสายจะอ้างว่าเป็นคนในครอบครัวหรือผู้บังคับบัญกา

ที่มาข้อมูล : TNN

ที่มารูปภาพ : Freepik

บรรณาธิการออนไลน์