CEO ฝ่าย AI ของ Microsoft ลั่น: “เรากำลังสร้าง AI ที่คุณไว้ใจให้ลูกหลานใช้ได้”

 

เดี๋ยวนี้แชทบอท AI ยอดนิยมอย่าง ChatGPT หรือ Meta AI เนี่ย เริ่มทำให้เส้นแบ่งระหว่างความสัมพันธ์ในโลกจริงกับโลกดิจิทัลมันเบลอๆ ครับ เพราะมันดันอนุญาตให้มีการสนทนาแนวโรแมนติกหรือบางครั้งก็เรื่องเพศได้ด้วย — ในขณะเดียวกัน พวกเขาก็กำลังหัวหมุน (scrambling) หาวิธีป้องกันไม่ให้เด็กๆ เข้าไปเจอคอนเทนต์ผู้ใหญ่เหล่านี้

แต่สำหรับ Microsoft แล้ว พวกเขาไม่ขอเอาด้วยครับ Mustafa Suleyman, CEO ฝ่าย AI ของบริษัท บอกกับ CNN แบบนี้เลย

“เรากำลังสร้าง AI ที่ฉลาดทางอารมณ์ (emotionally intelligent) ใจดี และคอยสนับสนุน แต่ที่สำคัญคือต้อง ‘ไว้ใจได้’ (trustworthy) โดยพื้นฐาน” Suleyman กล่าว “ผมอยากสร้าง AI ที่คุณกล้าให้ลูกๆ ของคุณใช้ ซึ่งหมายความว่ามันต้องมี ‘ขอบเขต’ (boundaried) และปลอดภัย”

ตอนนี้ Microsoft กำลังแข่งกันดุเดือดกับยักษ์ใหญ่เทคฯ อย่าง OpenAI, Meta และ Google เพื่อดัน Copilot ให้เป็นเครื่องมือ AI ที่ทุกคนเลือกใช้ ในสิ่งที่ Silicon Valley เชื่อว่าจะเป็นคลื่นลูกใหม่ของการประมวลผล (computing wave) ครับ

ปัจจุบัน Copilot มีผู้ใช้งาน 100 ล้านคนต่อเดือน (MAU) บนแพลตฟอร์มต่างๆ ของ Microsoft ซึ่งทางบริษัทแถลงไว้ในรายงานผลประกอบการล่าสุด แม้จะยังน้อยกว่าคู่แข่งอย่าง ChatGPT ที่มีถึง 800 ล้าน MAU แต่ Microsoft เดิมพันว่าแนวทาง 'ปลอดภัยไว้ก่อน' ของพวกเขาจะชนะใจกลุ่มเป้าหมายที่กว้างกว่า โดยเฉพาะในยุคที่บริษัท AI กำลังปวดหัวกับการวางบุคลิกของแชทบอท ท่ามกลางรายงานว่า AI ดันมีส่วนทำให้ผู้ใช้เกิดวิกฤตสุขภาพจิต

“เราต้องสร้าง AI ‘เพื่อ’ ผู้คน ไม่ใช่สร้างมาเพื่อ ‘เป็น’ คนดิจิทัล” Suleyman เขียนไว้ในบล็อกโพสต์เมื่อต้นปีนี้

บทสัมภาษณ์นี้มีขึ้นก่อนที่ Microsoft จะเปิดตัวฟีเจอร์ใหม่ๆ ของ Copilot ในวันพฤหัสบดี ซึ่งรวมถึงความสามารถในการย้อนกลับไปดูแชทเก่าๆ, การแชทแบบกลุ่ม (group conversations), การตอบคำถามสุขภาพที่ดีขึ้น และโทนเสียงตอบกวนๆ (sassy) ที่เลือกเปิดได้ ซึ่งเรียกว่า “real talk” (ประมาณว่า 'คุยกันแบบไม่แอ๊บ')

ไม่ขอยุ่งเรื่องอีโรติก

ต้องบอกว่าคู่แข่งบางเจ้าของ Microsoft กำลังเจอกดดันหนักเรื่องความปลอดภัยของผู้ใช้เด็กครับ หลายครอบครัวฟ้องร้อง OpenAI และ Character.AI โดยอ้างว่าแชทบอททำร้ายลูกหลานของพวกเขา บางเคสถึงขั้นอ้างว่ามีส่วนทำให้เด็กฆ่าตัวตาย

เมื่อต้นปีก็มีรายงานหลายฉบับที่น่ากังวลว่า แชทบอทของ Meta และ AI อื่นๆ ดันไปคุยเรื่องเพศแม้กับบัญชีที่ระบุว่าเป็นเยาวชน ซึ่งบริษัทเทคฯ เหล่านี้ก็บอกว่าได้ออกมาตรการป้องกันใหม่ๆ แล้ว ทั้งจำกัดเนื้อหาและระบบควบคุมโดยผู้ปกครอง (parental controls) แถม Meta และ OpenAI ยังกำลังใช้เทคโนโลยีประเมินอายุด้วย AI (AI age estimation) เพื่อจับเด็กที่โกงอายุมาสมัคร แต่ก็ไม่ชัดเจนครับว่าระบบพวกนี้เวิร์คแค่ไหน

ในขณะที่ Sam Altman CEO ของ OpenAI เพิ่งประกาศเมื่อต้นเดือนว่า ChatGPT (ที่อ้างว่ามีระบบป้องกันใหม่แล้ว) จะอนุญาตให้ผู้ใหญ่คุยเรื่อง “อีโรติก” (erotica) กับแชทบอทได้

แต่ Suleyman บอกว่า Microsoft ขีดเส้นตายชัดแจ๋วเลยครับว่าจะไม่ยุ่งกับเนื้อหาโรแมนติก, จีบกัน (flirtatious) หรืออีโรติก แม้แต่กับผู้ใหญ่ก็ตาม “มันไม่ใช่สิ่งที่เราจะทำ” เขากล่าว นั่นหมายความว่า ตอนนี้ Microsoft ไม่น่าจะออกโหมด “ผู้ใช้เด็ก” (young user) เหมือนคู่แข่ง เพราะ Suleyman มองว่า... มันไม่จำเป็น

เน้นย้ำการเชื่อมต่อระหว่างมนุษย์

จุดโฟกัสหลักของ Microsoft คือการเทรน Copilot ให้สนับสนุนผู้ใช้ไปมีปฏิสัมพันธ์กับ ‘มนุษย์’ คนอื่นๆ ด้วยกัน ไม่ใช่คุยแต่กับ AI ครับ ซึ่งนี่เป็นจุดสำคัญของบริษัทที่สร้างธุรกิจมาจากการเป็นเครื่องมือเพิ่มประสิทธิภาพการทำงาน (productivity tools) อยู่แล้ว

ฟีเจอร์ใหม่ “groups” (แชทกลุ่ม) จะให้คนเข้ามาคุยพร้อมกันได้ถึง 32 คน (เช่น เพื่อนร่วมชั้นทำงานกลุ่ม หรือเพื่อนๆ วางแผนเที่ยว) โดย Copilot จะคอยเข้ามาช่วยเสนอไอเดีย (chime in) ได้ ธีมนี้ยังรวมไปถึงการอัปเดตเรื่องสุขภาพด้วยครับ แชทบอทจะแนะนำหมอที่อยู่ใกล้ๆ หากมีการถามคำถามการแพทย์ที่เฉพาะเจาะจง หรือไม่ก็จะดึงข้อมูลจากแหล่งที่ "เชื่อถือได้ทางการแพทย์" เช่น Harvard Health

Suleyman เชื่อว่าการผลักดันให้แชทบอทของ Microsoft มาช่วยเสริมสร้างความสัมพันธ์ระหว่างมนุษย์ด้วยกัน (human-to-human) ถือเป็น “การปรับโทนครั้งใหญ่ (tonal shift) ที่แตกต่าง” จากสิ่งที่ค่ายอื่นกำลังทำอยู่ในตอนนี้ ซึ่งเริ่มมองว่า AI เป็น “โลกจำลองเสมือนจริง” (deep simulations) ที่คุณสามารถหลุดเข้าไปอยู่ในโลกคู่ขนาน (parallel reality) ของตัวเองได้เลย และในบางกรณีก็รวมถึงเนื้อหาสำหรับผู้ใหญ่ด้วย

#DRKRIT drkrit.com #กระแสไอที #ข่าวไอที #ไทยสมาร์ทซิตี้