อันตราย! เตือน Deepfake ถูกนำมาใช้หลอกลวงบนโซเชียล ‘เร็วกว่าที่คาด’
- ความซับซ้อนของเทคโนโลยีและเครื่องมือสนับสนุนเพิ่มขึ้น ทำให้การใช้ Deepfakes AI ของอาชญากรไซเบอร์และกลุ่มต่างๆง่ายขึ้น
- นักการเมืองเป็นเป้าหมายหลักของ Deepfakes (40%) รองลงมาคือคนดัง (30%) และธุรกิจ (20%)
- การหลอกลวงส่วนใหญ่มักถูกใช้เพื่อสร้างอิทธิพลทางการเมืองหรือหลอกลวงทางการเงิน
ตามรายงานล่าสุด Deepfakes กลายเป็นเครื่องมือที่อาชญากรไซเบอร์ นักแฮกข้อมูล สำนักข่าวปลอม และอื่นๆ ใช้งานเพื่อสร้างเนื้อหาปลอม รวมถึงเพื่อหลอกลวงบนโซเชียลมีเดียเร็วกว่าที่คาด
ในโลกที่เทคโนโลยีก้าวหน้าอย่างรวดเร็ว เราก็ต้องเผชิญกับภัยคุกคามใหม่ๆ ที่แนบเนียนและสมจริงขึ้นทุกวัน รายงานจาก Sensity บริษัทผู้เชี่ยวชาญด้านการตรวจจับ Deepfake จากยุโรป ที่ก่อตั้งขึ้นในปี 2018 มีความเชี่ยวชาญด้านการตรวจจับ Deepfakes ซึ่งเผยแพร่เมื่อสัปดาห์ที่ผ่านมา โดยพิจารณาถึงสถานะของภัยคุกคามต่างๆ ที่เกิดจากเทคโนโลยี ระบุว่า
พวกเขาใช้ข้อมูลที่ไม่ระบุตัวตนจากลูกค้าเพื่อรวบรวมข้อมูลเชิงลึกเกี่ยวกับความเสี่ยงที่เกิดจาก Deepfakes ในปี 2023 และช่วงครึ่งแรกของปี 2024 ประเด็นแรกที่รายงานเน้นย้ำคือความซับซ้อนที่เพิ่มขึ้นของเทคโนโลยีและเครื่องมือสนับสนุนจำนวนมากที่จะทำให้เทคโนโลยีเหล่านั้นพร้อมใช้งานหลอกลวงกลุ่มเป้าหมาย
โดยนักการเมืองเป็นเป้าหมายอันดับหนึ่งที่ถูกสร้างตัวตนปลอมและนำไปใช้ทำ Deepfake มากที่สุด คิดเป็นร้อยละ 40 ตามมาด้วยคนดังร้อยละ 30 และธุรกิจต่างๆร้อยละ 20
นักการเมืองส่วนใหญ่ตกเป็นเป้าหมายของการเลียนแบบตนเองโดยแถลงข้อความอันเป็นเท็จเพื่อสร้างอิทธิพลต่อการเลือกตั้งหรือบิดเบือนความคิดเห็นของประชาชน
ส่วนคนดังและธุรกิจต่างๆมักตกเป็นเหยื่อของ Deepfakes ที่ใช้ในการหลอกลวงผู้คนหรือข้อมูลข่าวสาร ในขณะที่ผู้มีชื่อเสียงหลายคน เช่น Tom Hanks, Elon Musk หรือ YouTuber MrBeast ถูกแอบอ้างเพื่อใช้ในการหลอกลวงผู้คนเช่นกัน
โดยปกติแล้ว การหลอกลวงจะถูกแชร์บนโซเชียลมีเดีย เนื่องจากมีศักยภาพในการแพร่กระจายแบบไวรัล รวดเร็วและกว้างขวาง และมีความเป็นไปได้ที่จะมีการโฆษณาแบบกำหนดเป้าหมาย ทำให้นักหลอกลวงสามารถเข้าถึงกลุ่มเฉพาะที่มีแนวโน้มที่จะสนใจในการซื้อขาย การพนัน หรือ ลงทุนใน crypto
รายงานยังเน้นย้ำถึงกลโกงเทคโนโลยีขั้นสูงที่เกี่ยวข้องกับการเลี่ยงการตรวจสอบไบโอเมตริกซ์ หรือการตรวจสอบลักษณะของมนุษย์ที่เป็นเอกลักษณ์ของแต่ละบุคคล เช่น ลักษณะบนใบหน้า ดวงตา ลายนิ้วมือ หรือ แม้กระทั่งการเต้นของหัวใจ เพื่อเข้าถึงบริการทางการเงินหรือธนาคารออนไลน์
ปรากฏการณ์การหลอกลวงด้วยเทคโนโลยีดังกล่าว ทำให้ Big Tech ต่างๆต้องเร่งพัฒนาเทคนิคใหม่ๆ ในการตรวจจับเนื้อหารูปภาพและวิดีโอที่สร้างโดย AI
Sensity มีเครื่องมือของตัวเองสำหรับการวิเคราะห์พิกเซลและโครงสร้างไฟล์เพื่อตรวจสอบว่าได้รับการแก้ไขหรือไม่ ส่วน Intel เปิดตัวเครื่องตรวจจับ Deepfake แบบเรียลไทม์ในปี 2022 ซึ่งจะตรวจสอบว่าแสงมีปฏิกิริยากับหลอดเลือดบนใบหน้าอย่างไร ในขณะที่ แพลตฟอร์มของ Meta จะติดป้ายกำกับเนื้อหาที่สร้างโดย AI สำหรับผู้ใช้ของพวกเขาในเร็วๆ นี้
แหล่งข้อมูล
https://www.springnews.co.th/digital-tech/technology/851133