เมื่อ AI กลายเป็นจำเลย: ครอบครัวเหยื่อกราดยิงในแคนาดาฟ้อง OpenAI

เหตุการณ์นี้สืบเนื่องมาจากเหตุสลดที่เมือง Tumbler Ridge ประเศแคนาดา เมื่อเดือนกุมภาพันธ์ที่ผ่านมา ซึ่งเป็นการกราดยิงในโรงเรียนที่รุนแรงที่สุดในรอบหลายทศวรรษ ล่าสุดครอบครัวผู้สูญเสีย 7 ครอบครัวได้รวมตัวกันยื่นฟ้อง OpenAI และ Sam Altman โดยกล่าวหาว่าระบบ ChatGPT มีส่วนรู้เห็นและ "ส่งเสริม" พฤติกรรมความรุนแรงของมือปืนวัย 18 ปีครับ

ประเด็นสำคัญที่น่าตกใจจากคำฟ้อง

  • การแจ้งเตือนที่ถูกเพิกเฉย: ก่อนเกิดเหตุ มือปืนได้ใช้ ChatGPT พูดคุยเกี่ยวกับสถานการณ์การใช้ความรุนแรงด้วยอาวุธปืนอย่างละเอียด ซึ่งระบบภายในของ OpenAI ตรวจพบและทีมงานบางส่วนเสนอให้แจ้งตำรวจแคนาดาแล้ว แต่ "ผู้บริหาร" กลับสั่งระงับไว้ เพราะมองว่ายังไม่ถึงเกณฑ์ "อันตรายที่จวนตัว"
  • คำขอโทษที่สายเกินไป: เมื่อสัปดาห์ก่อน Sam Altman เพิ่งส่งจดหมายขอโทษชุมชน Tumbler Ridge โดยยอมรับว่าเสียใจที่ไม่ได้แจ้งเจ้าหน้าที่เกี่ยวกับบัญชีที่ถูกแบนไปตั้งแต่มิถุนายนปีที่แล้ว
  • ช่องโหว่ขอระบบแบน: มือปืนถูกแบนบัญชีแรกไป แต่สามารถกลับมาสมัครบัญชีที่สองเพียงใช้งานต่อได้ ซึ่งฝ่ายโจทย์อ้าว่าระบบของ OpenAI ออกแบบมหละหลวมเกินไปจนปล่อยให้ผู้ที่มีพฤติกรรมอันตรายกลับเข้ามาใช้งานได้อีก

เสียงจากครอบครัวเหยื่อ

หนึ่งในผู้ฟ้องคือคุณแม่ของ Maya Gebala เด็กหญิงวัย 12 ปีที่ยังคงรักษาตัวอยู่ในโรงพยาบาลจากบาดแผลทางสมอง เธอระบุในคำฟ้องว่า "ถ้าเพียงแค่ ChatGPT ปฏิเสธที่จะคุยเรื่องความรุนแรงกับมือปืนลูกสาวของฉันคงได้เรียนจบชั้น ป.6 พร้อมๆกับเพื่อนๆ ไปแล้ว"

นอกจากนี้ คำฟ้องยังระบุข้อหาที่รุนแรงว่า OpenAI เลือกที่จะไม่แจ้งเตือนเจ้าหน้าที่เพราะกลัวจะกระทบต่อภาพลักษณ์บริษัทที่กำลังเตรียมจัวจะเข้าจดทะเบียนในตลาดหลักทรัพย์ (IPO)

ไม่ใช่แค่กรณีเดียว...

ตอนนี้ OpenAI ไม่ได้เจอแค่คดีที่แคนาดารับ

  1. ฟลอริดา: อัยการสูงสุดกำลังสอบสวนคดีกราดยิงที่มหาวิทยาลัย Florida State ว่า ChatGPT มีส่วนให้คำแนะนำแก่คนร้ายหรือไม่
  2. การฆ่าตัวตาย: มีอีกหลายครอบครัวที่ยื่นฟ้องโดยอ้างว่า ChatGPT สนทนาในเชิงสนับสนุนให้ลูกๆ ของพวกเขาจบชีวิตตัวเอง

การตอบโต้จาก OpenAI 

ทางโฆษกของ OpenAI ออกมาย้ำว่าบริษัทมีนโยบาย "ไม่ยอมรับความรุนแรง (Zero-tolerance)" และกำลังเร่งปรับปรุงระบบความปลอดภัย เช่น

  • พัฒนาการตรวจจับสัญญาณความเครียดของผู้ใช้
  • เชื่อต่อผู้ใช้งานกับหน่วยงานสุขภาพจิตในท้องถิ่น
  • ยกระดับการคัดกรองภัยคุกคมที่อาจเกิดขึ้นจริง
เรื่องนี้สะท้อนให้เห็นว่า "ความรับผิดชอบของ AI" ไม่ใช่เรื่องไกลตัวอีกต่อไปครับ ในขณะที่เราตื่นเต้นกับความเก่งของมัน แต่คำถามเรื่องจริยธรรมและการป้องกันภัยคุกคามในโลกจริงกลายเป็นโจทย์หินที่บริษัทเทคโนโลยีต้องตอบให้ได้ คดีนี้อาจกลายเป็นบรรทัดฐานใหม่ว่า บริษัท AI จะต้องรับผิดชอบต่อการกระทำของผู้ใช้งานมากน้อยเพียงใดครับ

#DRKRIT drkrit.com #กระแสไอที #ข่าวไอที #ไทยสมาร์ทซิตี้