"เมื่อ AI ถูกใช้ในทางที่ผิด: เจาะลึกรายงาน Maldita.es กับช่องโหว่การคัดกรองเนื้อหาเยาวชนบนแพลตฟอร์ม TikTok"
ความจริงที่น่าตกใจจากรายงาน
จากการตรวจสอบพบว่ามีบัญชีผู้ใช้มากกว่าสิบรายที่โพสต์เนื้อหา AI เหล่านี้ โดยใช้ภาพเด็กหญิงในชุดรัดรูป ชุดชั้นงาน หรือแม้แต่ชุดนักเรียนในท่าทางที่ไม่เหมาะสม บัญชีเหล่านี้มียอดผู้ติดตามรวมกันหลายแสนคน แถมในช่องคอมเมนต์ยังเต็มไปด้วยลิงก์ที่เชื่อมต่อไปยังแอป Telegram เพื่อเสนอขายสื่อลามกอนาจารเด็กจริงๆ อีกด้วย
จุดที่น่ากังวล
- ระบบตรวจสอบล้มเหลว: แม้ TikTok จะมีกฎเหล็กสั่งห้ามเนื้อหาลักษณะนี้ แต่เมื่อนักวิจัยแจ้งรายงาน (Report) บัญชีเหล่านั้นไป 15 บัญชี กลับมีถึง 13 บัญชีที่ยังลอยนวลอยู่ โดยระบบตอบกลับมากว่า "ไม่พบการละเมิดกฎ"
- AI ที่ใช้สร้าง: บางวิดีโอใช้ฟีเจอร์ :AI Alive" ของ TikTok เองในการทำภาพนิ่งให้เคลื่อนไหว และบางส่วนใช้เครื่องมือ AI จากภายนอก
- ธุรกิจมืด: นักวิจัยลองสอบถามไปทางข้อความส่วนตัว พบว่ามีการเสนอขายคลิป AI ลามกอนาจารเด็กในราคาตั้งแต่ 50 ถึง 150 ยูโร (ประมาณ 1,900 - 5,700 บาท)
ทาง TikTok ยืนยันว่าพวกเขามีนโยบาย "Zero Tolerance" หรือไม่ ยอมรับเนื้อหาที่แสวงหาผลประโยชน์ทางเพศจากเยาวชนทุกรูปแบบ ไม่ว่าจะเป็นคนจริงหรือ AI โดยในช่วงไตรมาสที่ 2 ของปี 2025 ที่ผ่านมา พวกเขาได้ลบวิดีโอไปแล้วกว่า 189 ล้านคลิป และแนบบัญชีกว่า 108 ล้านบัญชี ซึ่งส่วนใหญ่เป็นการตรวจพบโดยระบบอัตโนมัติก่อนที่จะมีการรายงานด้วยซ้ำ
แต่คำถามที่ตามมาคือ "ทำไมคลิปที่ชัดเจนขนาดนี้ถึงยังหลุดรอดสายตา AI ของระบบไปได้?" ซึ่งทางหัวหน้างานวิจัยกล่าวอย่างเผ็ดร้อนว่า "ไม่มีมนุษย์ปกติคนไหนที่เห็นภาพเหล่านี้แล้วจะไม่รู้สึกแย่และไม่อยากให้มันถูกลบออกไป"
บทสรุปและก้าวต่อไป
เรื่องนี้ถือเป็นบททดสอบสำคัญของแพลตฟอร์มโซเชียลมีเดียทั่วโลก ในขณะที่หลายประเทศเริ่มเข้มงวดกับกฎหมายความปลอดภัยออนไลน์มากขึ้น (อย่างเช่นออสเตรเลียที่เพิ่งแบนโซเชียลมีเดียสำหรับเด็กอายุต่ำกว่า 16 ปี) ปัญหาเรื่อง "AI-generated CSAM" (สื่อลามกอนาจารเด็กที่สร้างโดย AI) กำลังกลายเป็นโจทย์หินที่ผู้พัฒนาต้องเร่งแก้ไขให้ทันท่วงที
ในฐานะที่ผู้ใช้งานอย่างเรา การช่วยกันสอดส่องและกดรีพอร์ตเนื้อหาที่ไม่เหมาะสมก็เป็นจุดเริ่มต้นเล็กๆ ที่ช่วยให้สังคมออนไลน์น่าอยู่ขึ้นได้
#DRKRIT drkrit.com #กระแสไอที #ข่าวไอที #ไทยสมาร์ทซิตี้