อดีตผู้พิพากษาผนึกกำลังหนุน Anthropic: เมื่อ 'จริยธรรม AI' ปะทะ 'อำนาจรัฐ'

เรื่องนี้ถือเป็นประเด็นร้อนแรงที่สุดในวงการ AI และความมั่นคงตอนนี้เลย เมื่อ Anthropic (ผู้สร้าง AI สุดฉลาดอย่าง Claude) กำลังงัดข้อกับรัฐบาลทรัมป์อย่างดุเดือด จนลามไปถึงขั้นที่อดีตผู้พิพากษาเกือบ 150 ท่านต้องออกมาเคลื่อนไหวครับ

ประเด็นสำคัญที่เกิดขึ้นในตอนนี้

  • เสียงสนับสนุนจากตุลาการ: อดีตผู้พิพากษาศาลรัฐบาลกลางและศาลรัฐบาลท้องถิ่นเกือบ 150 ท่าน (มีทั้งที่แต่งตั้งโดยเดโมแครตและรีพับลิกัน) ได้ยื่นเอกสารต่อศาลเพื่อสนับสนุน Anthropic ในการฟ้องร้องรัฐบาลทรัมป์ หลังจากที่บริษัทถูกตีตราว่าเป็น "ความเสี่ยงด้านซัพพลายเชน" (Supply Chain Risk)
  • ต้นเหตุของความขัดแย้ง: เรื่องเริ่มจากเพนตากอน (กระทรวงกลาโหมสหรัฐ) อยากนำ Claude ไปใช้ในระบบชั้นความลับแบบ "ครอบจักรวาล" แต่ Anthropic ปฏิเสธ เพราะมีเส้นตายด้านจริยธรรม 2 ข้อคือ ไม่ให้ใช้ในอาวุธอัตโนมัติ และ ไม่ให้ใช้สอดแนมพลเมืองอเมริกัน
  • บทลงโทษที่รุนแรงเกินไป?: เมื่อตกลงกันไม่ได้ รัฐบาลจึงติดป้าย "ความเสี่ยง" ให้ ซึ่งปกติป้ายนี้จะใช้กับบริษัทจากประเทศศัตรูเท่านั้น ไม่เคยใช้กับบริษัทอเมริกันมาก่อน แถมประธานาธิบดีทรัมป์ยังสั่งแบนการใช้ Claude ในหน่วยงานรัฐทั้งหมดอีกด้วย
กลุ่มอดีตผุ้พิพากษามองว่า เพนตากอนตีความกฎหมายผิดและข้ามขั้นตอนที่ควรจะเป็น สิ่งที่ Anthropic ขอไม่ใช่การบังคับให้รัฐมาจ้างงานต่อ แต่ขอแค่ "อย่าลงโทษกันในระหว่างที่กำลังเดินออกจากประตูไป" เท่านั้นเอง

ทำไมเรื่องนี้ถึงสำคัญ?

ถ้าสู้กันแล้ว Anthropic แพ้ จะกลายเป็นบรรทัดฐานใหม่ที่น่ากลัวมากครับ เพราะหมายความว่ารัฐบาลสามารถใช้อำนาจกดดันบริษัทเอกชนให้ทำตามความต้องการ (แม้จะผิดจริยธรรมของบริษัท) หากไม่ทำตามก็จะถูกสั่งแบนและทำลายชื่อเสียงจนธุรกิจเสียหาย ซึ่ง Anthropic คาดว่าอาจสูญรายได้มหาศาลถึงหลัก "หลายร้อยล้านดอลลาร์" ในปี 2026 นี้เลย

ทางฝั่งทำเนียบขาวโดยโฆษก Liz Huston ก็ออกมาตอบกลับแบบดุเดือดว่า ประธานาธิบดีจะไม่มีวันยอมให้บริษัทที่มีแนวคิด "ซ้ายจัด" หรือ "Woke" มากำหนดทิศทางการทำงานของกองทัพ

เรื่องนี้ไม่ใช่แค่เรื่องการจ้างงาน แต่มันคือการพิสูจน์ว่า "จริยธรรม AI" ของบริษัทเอกชน จะยืนหยัดได้แค่ไหนเมื่อต้องเจอกับอำนาจรัฐที่พยายามบีบให้ทำในสิ่งที่เป็นอันตรายต่อสิทธิมนุษยชนครับ

#DRKRIT drkrit.com #กระแสไอที #ข่าวไอที #ไทยสมาร์ทซิตี้