จาก "ทดสอบการชน" สู่ "ทดสอบ AI" การกำเนิดสถาบันวิจัยเพื่อความปลอดภัยของเด็กในโลกปัญญาประดิษฐ์

ถ้าเราย้อนกลับไปในช่วงกลางทศวรรษ 90 การเริ่มนำเอาระบบ "ทดสอบการชนอิสระ" (Independent Crash Testing) มาใช้กับรถยนต์ ได้กลายเป็นแรงผลักดันมหาศาลที่ทำให้ผู้ผลิตรถยนต์ต้องหันมาให้ความสำคัญกับความปลอดดภัย จนสามารถรักษาชีวิตผู้คนได้นับพันคนในแต่ละปี

และตอนนี้ กำลังจะมีกลุ่มคนหัวก้าวหน้านำแนวคิดเดียวกันนี้มาปรับใช้กับ Artificial Intelligence (AI) ครับ

Youth AI Safety Institute ห้องแล็บตรวจสอบ AI เพื่อเยาวชน

Common Sense Media องค์กรไม่แสวงผลกำไรที่เฝ้าระวังด้านสื่อได้ประกาศเปิดตัว Youth AI Safety Institute ซึ่งจะเป็นห้องปฏิบัติการวิจัยและทดสอบอิสระที่ได้รับการสนับสนุนจากภาคอุตสาหกรรม โดยมีเป้าหมายหลักคือการศึกษาความเสี่ยงเครื่องมือ AI อาจมีต่อเด็กและวัยรุ่น

ทำไมเราถึงต้องการสิ่งนี้?

  • ความเร็วเหนือความปลอดภัย: ปัจจุบันบริษัท AI กำลังแข่งขันกันอย่างดุเดือดเพื่อสร้างโมเดลที่ทรงพลังที่สุด จนบางครั้งความเร็วในการเปิดตัวถูกให้ความสำคัญมากกว่าการทดสอบความปลอดภัย
  • ความซับซ้อนที่วัดยาก: AI ซับซ้อนกว่ารถยนตืมาก การจัดอันดับความปลอดภัยจึงยากกว่าการดูว่ารถยุบแค่ไหนเมื่อชนกำแพง
  • ความล้มเหลงชวของการกำกับดูแลตัวเอง: เราไม่สามารถฝากความหวังไว้ที่บริษัท AI ให้ตรวจสอบตัวเองเพียงอย่างเดียวได้อีกต่อไป

แรงผลักดันจากโศกนาฏกรรมในโลกจริง

การเปิดตัวสถาบันนี้เกิดขึ้นในช่วงเวลาที่บริษัท AI หลายแห่งกำลังถูกฟ้องร้อง โดยอ้างว่าแชทบอทมีส่วนกระตุ้นให้เยาวชนฆ่าตัวตาย นอกจากนี้ยังมีการตรวจสอบพบว่า AI บางตัวให้คำแนะนำเรื่องความรุนแรง หรือแม้แต่การสร้างภาพลามกอนาจารของเด็กและสตรีจากการป้อนคำสั่งที่บิดเบือน

กลยุทธ์ "Red Team" และการสร้างบรรทัดฐานใหม่

สถาบันนี้ได้รับงบประมาณเริ่มต้นปีละ 20 ล้านดอลลาร์ โดยได้รับการสนับสนุนจากยักษ์ใหญ่อย่าง OpenAI Foundation, Anthropic, Pinterest และกลุ่มทุนอื่นๆ (โดยที่ผู้ให้ทุนไม่มีสิทธิ์แทรกแซงงานวิจัย)

สิ่งที่พวกเขาจะทำคือ

  1. Red Teaming: การทดสอบแบบ "เจาะระบบ" หรือลองป้อนคำสั่งเพื่อหาจุดอ่อนและควาเสี่ยงในโมเดล AI ชื่อดังที่เด็กๆ นิยมใช้
  2. Safety Benchmarks: สร้างเกณฑ์มาตรฐานความปลอดภัยสำหรับเด็ก เพื่อให้บริษัทเทคนำไปปรับปรุงผลิตภัณฑ์
  3. Consumer Guides: ออกคู่มือที่เข้าใจง่ายสำหรับพ่อแม่และครู เพื่อดูว่า AI ตัวไหน "ปลอดภัย" หรือ "อันตราย" สำหรับช่วยอายุของเด็ก

บนเรียนจากโซเชียลมีเดีย

เราเคยมีบทเรียนราคาแพงจากยุคโซเชียลมีเดียมาแล้วครับ กว่าที่เราจะรู้ว่ามันส่งผลกระทบต่อจิตใจเด็กหรือทำให้เกิดการเสพติด ก็ใช้เวลานานหลายปีจนเกิดความเสียหายไปมาก

การเกิดขึ้นของ Youth AI Safety Institute จึงเป็นการขยับตัวที่รวดเร็ว เพื่อให้การออกแบบ AI ในอนาคตถูกสร้างขึ้นโดยมี "ความปลอดภัยของเด็ก" เป็นหัวใจสำคัญ ไม่ใช่แค่การมองหาผลกำไรหรือความล้ำหน้าทางเทคโนโลยีเพียงอย่างเดียว

นี่คือข่าวดีครับ เพราะในขณะที่เทคโนโลยีก้าวกระโดดแบบรายสัปดาห์ การมี "ตำรวจไอที" ที่เป็นกลางและเชี่ยวชาญคอยตรวจสอบ จะช่วยให้พ่อแม่เบาใจได้ว่าเครื่องมือที่ลูกใช้ในห้องเรียนหรือที่บ้านจะไม่ย้อนกลับมาทำร้ายตัวเด็กเองในภายหลัง

#DRKRIT drkrit.com #กระแสไอที #ข่าวไอที #ไทยสมาร์ทซิตี้