Character.AI ยุติการสนทนาโต้ตอบกับ AI สำหรับวัยรุ่น หลังเผชิญคดีฟ้องร้อง
Character.AI แพลตฟอร์มแชทบอทชื่อดัง ประกาศยกเลิกฟีเจอร์การสนทนาแบบโต้ตอบ (back-and-forth conversations) ระหว่างวัยรุ่นกับตัวละครที่สร้างโดย AI โดยบริษัทแม่ Character Technologies ได้แถลงเรื่องนี้เมื่อวันพุธ การตัดสินใจครั้งสำคัญนี้เกิดขึ้นหลังจากที่แพลตฟอร์มถูกฟ้องร้องหลายคดี ซึ่งกล่าวหาว่าแอปฯ มีส่วนเกี่ยวข้องกับการฆ่าตัวตายและปัญหาสุขภาพจิตของวัยรุ่น
บริษัทฯ จะเริ่มการเปลี่ยนแปลงนี้ภายในวันที่ 25 พฤศจิกายน และในระหว่างนี้ วัยรุ่นจะถูกจำกัดเวลาแชทไว้ที่ 2 ชั่วโมง ต่อวัน นอกจากนี้ แทนที่จะเป็นการสนทนาแบบปลายเปิด วัยรุ่นที่อายุต่ำกว่า 18 ปี จะสามารถสร้างวิดีโอ เรื่องราว และสตรีมร่วมกับตัวละครได้แทน
“เราไม่ได้ตัดสินใจยกเลิกการแชทกับ Character แบบปลายเปิดนี้อย่างง่ายดาย แต่เราคิดว่านี่คือสิ่งที่ถูกต้องแล้ว เมื่อพิจารณาจากคำถามที่เกิดขึ้นเกี่ยวกับวิธีที่วัยรุ่นกำลัง และควรจะโต้ตอบกับเทคโนโลยีใหม่นี้” บริษัทระบุในแถลงการณ์
Character.AI ตกเป็นประเด็นถกเถียงอย่างต่อเนื่องเกี่ยวกับวิธีการอนุญาตให้วัยรุ่นและเด็กโต้ตอบกับ AI ซึ่งกระตุ้นให้ผู้เชี่ยวชาญด้านความปลอดภัยออนไลน์และฝ่ายนิติบัญญัติเรียกร้องให้บริษัทเทคโนโลยีเสริมความแข็งแกร่งในการควบคุมโดยผู้ปกครอง
- ก่อนหน้านี้ เมื่อปีที่แล้ว มีคุณแม่ชาวฟลอริดายื่นฟ้องบริษัท โดยอ้างว่าแอปฯ มีส่วนรับผิดชอบต่อการฆ่าตัวตายของลูกชายวัย 14 ปี
- ต่อมาในเดือนกันยายน มีอีกสามครอบครัวยื่นฟ้องบริษัท โดยกล่าวหาว่าบุตรหลานของพวกเขาเสียชีวิตจากการฆ่าตัวตาย พยายามฆ่าตัวตาย หรือได้รับอันตรายในรูปแบบอื่นหลังจากมีปฏิสัมพันธ์กับแชทบอทของบริษัทฯ
ในการแถลงการณ์ก่อนหน้านี้เกี่ยวกับคดีฟ้องร้องในเดือนกันยายน บริษัทฯ เคยกล่าวว่าพวกเขา "ใส่ใจอย่างยิ่งต่อความปลอดภัยของผู้ใช้" และทุ่มเท "ทรัพยากรจำนวนมหาศาลให้กับโครงการความปลอดภัยของเรา" รวมถึงได้ "ปล่อยและจะพัฒนาฟีเจอร์ด้านความปลอดภัยต่อไป ซึ่งรวมถึงทรัพยากรสำหรับผู้ที่มีแนวโน้มทำร้ายตนเอง และฟีเจอร์ที่เน้นความปลอดภัยของผู้ใช้ที่เป็นเยาวชน"
Character Technologies กล่าวว่าพวกเขาตัดสินใจทำการเปลี่ยนแปลงครั้งนี้หลังจากได้รับคำถามจากหน่วยงานกำกับดูแล และได้อ่านรายงานข่าวล่าสุด
นอกจากนี้ บริษัทยังกำลังเปิดตัวเครื่องมือยืนยันอายุใหม่ และวางแผนที่จะจัดตั้ง ห้องปฏิบัติการความปลอดภัย AI (AI Safety Lab) ซึ่งจะดำเนินการโดยองค์กรไม่แสวงผลกำไรที่เป็นอิสระ โดยจะเน้นการวิจัยด้านความปลอดภัยที่เกี่ยวข้องกับความบันเทิงด้วย AI การเปลี่ยนแปลงเหล่านี้เป็นไปตามมาตรการด้านความปลอดภัยก่อนหน้านี้ของ Character AI เช่น การแจ้งเตือนที่นำผู้ใช้ไปยังสายด่วนป้องกันการฆ่าตัวตายแห่งชาติเมื่อมีการกล่าวถึงการฆ่าตัวตายหรือการทำร้ายตนเอง
Character Technologies นับเป็นบริษัท AI ล่าสุดที่ประกาศหรือเริ่มใช้มาตรการปกป้องใหม่สำหรับวัยรุ่น ท่ามกลางความกังวลเกี่ยวกับผลกระทบของเทคโนโลยีต่อสุขภาพจิต ก่อนหน้านี้มีรายงานหลายฉบับในปีนี้เกี่ยวกับผู้ใช้ที่ประสบความทุกข์ทางอารมณ์ หรือการแยกตัวออกจากคนที่รัก หลังจากการสนทนาที่ยาวนานกับ ChatGPT
- OpenAI ก็ได้เปิดตัวความสามารถให้ผู้ปกครองสามารถเชื่อมโยงบัญชีของตนกับบัญชีของวัยรุ่นในปลายเดือนกันยายน และจำกัดเนื้อหาบางประเภทสำหรับบัญชีวัยรุ่น เช่น "เนื้อหาที่ชัดเจน, ความท้าทายไวรัล, บทบาทสมมติทางเพศ, โรแมนติก หรือความรุนแรง และอุดมคติความงามสุดโต่ง"
- Meta ก็ระบุในเดือนนี้ว่าจะอนุญาตให้ผู้ปกครองสามารถป้องกันไม่ให้วัยรุ่นสนทนากับตัวละคร AI บน Instagram ได้ในเร็วๆ นี้
#DRKRIT drkrit.com #กระแสไอที #ข่าวไอที #ไทยสมาร์ทซิตี้