อันตราย! เตือน Deepfake ถูกนำมาใช้หลอกลวงบนโซเชียล ‘เร็วกว่าที่คาด’


 

  • ความซับซ้อนของเทคโนโลยีและเครื่องมือสนับสนุนเพิ่มขึ้น ทำให้การใช้ Deepfakes AI ของอาชญากรไซเบอร์และกลุ่มต่างๆง่ายขึ้น
  • นักการเมืองเป็นเป้าหมายหลักของ Deepfakes (40%) รองลงมาคือคนดัง (30%) และธุรกิจ (20%)
  • การหลอกลวงส่วนใหญ่มักถูกใช้เพื่อสร้างอิทธิพลทางการเมืองหรือหลอกลวงทางการเงิน

ตามรายงานล่าสุด Deepfakes กลายเป็นเครื่องมือที่อาชญากรไซเบอร์ นักแฮกข้อมูล สำนักข่าวปลอม และอื่นๆ ใช้งานเพื่อสร้างเนื้อหาปลอม รวมถึงเพื่อหลอกลวงบนโซเชียลมีเดียเร็วกว่าที่คาด

ในโลกที่เทคโนโลยีก้าวหน้าอย่างรวดเร็ว เราก็ต้องเผชิญกับภัยคุกคามใหม่ๆ ที่แนบเนียนและสมจริงขึ้นทุกวัน รายงานจาก Sensity บริษัทผู้เชี่ยวชาญด้านการตรวจจับ Deepfake จากยุโรป ที่ก่อตั้งขึ้นในปี 2018 มีความเชี่ยวชาญด้านการตรวจจับ Deepfakes ซึ่งเผยแพร่เมื่อสัปดาห์ที่ผ่านมา โดยพิจารณาถึงสถานะของภัยคุกคามต่างๆ ที่เกิดจากเทคโนโลยี ระบุว่า

พวกเขาใช้ข้อมูลที่ไม่ระบุตัวตนจากลูกค้าเพื่อรวบรวมข้อมูลเชิงลึกเกี่ยวกับความเสี่ยงที่เกิดจาก Deepfakes ในปี 2023 และช่วงครึ่งแรกของปี 2024 ประเด็นแรกที่รายงานเน้นย้ำคือความซับซ้อนที่เพิ่มขึ้นของเทคโนโลยีและเครื่องมือสนับสนุนจำนวนมากที่จะทำให้เทคโนโลยีเหล่านั้นพร้อมใช้งานหลอกลวงกลุ่มเป้าหมาย

โดยนักการเมืองเป็นเป้าหมายอันดับหนึ่งที่ถูกสร้างตัวตนปลอมและนำไปใช้ทำ Deepfake มากที่สุด คิดเป็นร้อยละ 40 ตามมาด้วยคนดังร้อยละ 30 และธุรกิจต่างๆร้อยละ 20

นักการเมืองส่วนใหญ่ตกเป็นเป้าหมายของการเลียนแบบตนเองโดยแถลงข้อความอันเป็นเท็จเพื่อสร้างอิทธิพลต่อการเลือกตั้งหรือบิดเบือนความคิดเห็นของประชาชน

ส่วนคนดังและธุรกิจต่างๆมักตกเป็นเหยื่อของ Deepfakes ที่ใช้ในการหลอกลวงผู้คนหรือข้อมูลข่าวสาร ในขณะที่ผู้มีชื่อเสียงหลายคน เช่น Tom Hanks, Elon Musk หรือ YouTuber MrBeast ถูกแอบอ้างเพื่อใช้ในการหลอกลวงผู้คนเช่นกัน

โดยปกติแล้ว การหลอกลวงจะถูกแชร์บนโซเชียลมีเดีย เนื่องจากมีศักยภาพในการแพร่กระจายแบบไวรัล รวดเร็วและกว้างขวาง และมีความเป็นไปได้ที่จะมีการโฆษณาแบบกำหนดเป้าหมาย ทำให้นักหลอกลวงสามารถเข้าถึงกลุ่มเฉพาะที่มีแนวโน้มที่จะสนใจในการซื้อขาย การพนัน หรือ ลงทุนใน crypto

รายงานยังเน้นย้ำถึงกลโกงเทคโนโลยีขั้นสูงที่เกี่ยวข้องกับการเลี่ยงการตรวจสอบไบโอเมตริกซ์ หรือการตรวจสอบลักษณะของมนุษย์ที่เป็นเอกลักษณ์ของแต่ละบุคคล เช่น ลักษณะบนใบหน้า ดวงตา ลายนิ้วมือ หรือ แม้กระทั่งการเต้นของหัวใจ เพื่อเข้าถึงบริการทางการเงินหรือธนาคารออนไลน์

ปรากฏการณ์การหลอกลวงด้วยเทคโนโลยีดังกล่าว ทำให้ Big Tech ต่างๆต้องเร่งพัฒนาเทคนิคใหม่ๆ ในการตรวจจับเนื้อหารูปภาพและวิดีโอที่สร้างโดย AI

Sensity มีเครื่องมือของตัวเองสำหรับการวิเคราะห์พิกเซลและโครงสร้างไฟล์เพื่อตรวจสอบว่าได้รับการแก้ไขหรือไม่ ส่วน Intel เปิดตัวเครื่องตรวจจับ Deepfake แบบเรียลไทม์ในปี 2022 ซึ่งจะตรวจสอบว่าแสงมีปฏิกิริยากับหลอดเลือดบนใบหน้าอย่างไร ในขณะที่ แพลตฟอร์มของ Meta จะติดป้ายกำกับเนื้อหาที่สร้างโดย AI สำหรับผู้ใช้ของพวกเขาในเร็วๆ นี้

แหล่งข้อมูล

https://www.springnews.co.th/digital-tech/technology/851133