ข่าวโซเชียล

เตือนภัย! มิจฉาชีพขโมยข้อมูลอินฟลูฯดัง ใช้ AI สร้างวิดีโอเลียนแบบสาวสวย ทักคุยเสียว ถ่ายคลิปแบล็คเมล์

โดย petchpawee_k

3 ชั่วโมงที่แล้ว

77 views

เตือนภัย! มิจฉาชีพขโมยข้อมูลอินฟลูคนดัง ใช้ deepfake สร้างวีดีโอเลียนแบบสาวสวยทักคุยเสียวก่อนถ่ายคลิปแบล็คเมล์

วานนี้ ( 22 พ.ย.67) เพจ Drama-addict โพสต์เตือนภัยประชาชน ระวังมิจฉาชีพใช้ AI สร้างวีดีโอเลียนแบบคนจริง หรือ deepfake สร้างภาพสาวสวยขึ้นมาหลอกลวงประชาชน โดยทางเพจโพสต์คลิปผู้หญิงคนหนึ่ง กำลังวีดีโอคอลคุยกับเหยื่อ หญิงในคลิปมีใบหน้าเหมือนคนจริง ปากขยับตามเสียงที่พูดออกมา แต่หากสังเกตดี ๆ จะเห็นว่า มีบางช่วงที่ดูออกว่าไม่ใช่คนจริงๆ  

ทางเพจ ระบุว่า มีลูกเพจชายคนหนึ่งแจ้งเบาะแสมาว่า มีสาวสวยทักเฟซบุ๊กเข้ามาคุย แล้วโทรเข้ามาหา แต่ไม่ได้รับสาย พอโทรกลับไป กลายเป็นขึ้นวีดีโอคอล เป็นภาพผู้หญิงคนนี้  ซึ่งผู้แจ้งเบาะแสดูออกว่า ผู้หญิงคนนี้ไม่มีตัวตนจริง แต่เป็นคลิปที่สร้างขึ้นมาจากเทคโนโลยี deepfake เพื่อพยายามหลอกล่อเหยื่อว่า เป็นสาวสวย แล้วชวนคุยหลอกลวงด้วยวิธีต่างๆ


ผู้แจ้งเบาะแส ลองเข้าไปดูในเฟซบุ๊กของมิจฉาชีพรายนี้ พบว่า ไปเอาภาพของพยาบาลน้องเกด อินฟลูเอนเซอร์คนดัง แล้วเอาไปใช้ในโปรแกรม deepfake ทำคลิปวีดีโอเลียนแบบภาพของพยาบาลน้องเกด เพื่อใช้หลอกลวงเหยื่อ อย่างคลิปนี้ ตัวปลอมพยายามวีดีโอคอลคุยกับเหยื่อ ชวนคุยในเชิงลามกอนาจาร บอกว่าเพิ่งอาบน้ำเสร็จ จะเปิดร่างเปลือยให้ดู แต่ให้เหยื่อเปิดอวัยวะเพศให้ดูก่อน หากเหยื่อหลงเชื่อ จะถูกมิจฉาชีพอัดคลิปไว้แล้วเอามาแบล็คเมล์ทีหลัง  แต่ผู้แจ้งเบาะแสไม่หลงกล และนำมาเตือนภัย ซึ่งมิจฉาชีพรายนี้ปิดเฟซบุ๊กไปแล้ว แต่ไม่รู้ว่าจะไปเปิดเฟซใหม่ อวตารหลอกเหยื่อรายใหม่อีกหรือไม่  


ทางเพจ ระบุว่า ในอนาคต อาจะมีดารานักแสดงและอินฟลูเอนเซอร์ดังๆ  ที่ถูกมิจฉาชีพขโมยข้อมูลไปทำคลิป deepfake หลอกลวงเหยื่ออีกนับไม่ถ้วน จึงนำเรื่องมาเตือนภัยให้ประชาชนเพิ่มความระมัดระวัง อย่างตกเป็นเหยื่อ


ด้านพยาบาลเกด อินฟลูคนดังที่ถูกมิจฉาชีพนำข้อมูลไปใช้หลอกลวงเหยื่อ แชร์โพสต์ดังกล่าวของเพจ Drama-addict พร้อมระบุว่า มีผู้เสียหายทักมาหาตนเยอะมาก ตนพยายามหาหลักฐานแต่หาไม่ได้ ใครที่มีหลักฐานสามารถแจ้งความดำเนินคดีได้เลย  พร้อมเตือนว่า เดี๋ยวนี้มิจฉาชีพมีทุกรูปแบบ อย่าหลงเชื่อใครง่ายๆ

 ในขณะที่ชาวเน็ตช่วยกันให้ข้อมูลถึงวิธีจับผิด deepfake เช่น ให้สังเกตการเคลื่อนไหว หากเคลื่อนไหวเร็วเกินไป AI จะจับไม่ทัน อย่างคลิปนี้จังหวะอ้าปากจะดูแปลกๆ ไม่เป็นธรรมชาติ  หรือ ลองบอกให้ลุกขึ้นเดิน ชูสองนิ้ว หากพบว่าหน้าแข็งๆ ปากแปลก ๆ หรือท่าทางไม่เป็นธรรมชาติ ก็ไม่น่าจะใช้คนจริง , บางคนก็แนะว่า ให้ลองสังเกตที่ดวกตา เพราะส่วนใหญ่ deepfake จะมีจุดจับตำแหน่งใบหน้า ลองให้คู่สนทนาหันข้างหรือเอามือปิดตาดู หรือบางคนก็แนะนำแบบขำๆ ว่า ลองให้คู่สนทนาเดินไปร้านสะดวกซื้อจ่ายเงินซื้อขนมให้ได้ก่อน แล้วค่อยมาคุยกัน  ที่สำคัญ ให้มีสติในการใช้โซเชียล หรือการคุยกับคนแปลกหน้าให้มากๆ


นอกจากนี้ ยังมีหลายคนที่วิพากษ์วิจารณ์ถึงเรื่องนี้ว่า ทุกวันนี้มิจฉาชีพพัฒนาเท่าทันเทคโนโลยีใหม่ๆ แล้ว ไม่รู้ว่าหน่วยงานที่เกี่ยวข้องกับการป้องกันและปราบปรามเรื่องเหล่านี้ ก้าวทันเทคโนโลยีเหมือนมิจฉาชีพหรือไม่


https://youtu.be/w5y8srR43rE

แท็กที่เกี่ยวข้อง  มิจฉาชีพ ,Deepfake ,แบล็คเมล์

คุณอาจสนใจ

Related News