นักวิเคราะห์และผู้เชี่ยวชาญด้านเทคโนโลยี เปิดเผยว่า ในช่วงที่ระบบแชตบอตของเสิร์ชเอ็นจิน บิง (Bing) ของไมโครซอฟท์ เพิ่งอยู่ในระยะเริ่มต้น ระบบแชตบอตดังกล่าวมีการใช้วาทะแบบประชดประชันหรือแม้กระทั่งข่มขู่ ซึ่งมีแนวโน้มว่ามาจากการลอกเลียนสิ่งที่แชตบอตปัญญาประดิษฐ์ได้เรียนรู้มาจากบทสนทนาบนโลกออนไลน์ ตามรายงานของเอเอฟพี
ข่าวคราวเรื่องการโต้ตอบของแชตบอตปัญญาประดิษฐ์ รวมทั้งมีคำขู่และการพูดถึงความต้องการขโมยรหัสนิวเคลียร์ สร้างไวรัสอันตราย และอีกมากมาย ซึ่งกลายเป็นเรื่องราวที่ได้รับการเผยแพร่อย่างแพร่หลาย
แกรห์ม นูบิก อาจารย์จาก language technologies institute จาก Carnegie Mellon University ระบุว่า “ผมคิดว่ามันลอกเลียนบทสนทนาที่ได้เจอบนโลกออนไลน์”
แชตบอตปัญญาประดิษฐ์ ออกแบบมาเพื่อจัดเตรียมชุดข้อความที่คาดว่าจะเป็นการตอบโต้บทสนทนา โดยไม่ได้คำนึงถึงความหมายหรือบริบทของชุดข้อความเหล่านี้ อย่างไรก็ตาม มนุษย์ที่มีส่วนในการปรับปรุงโปรแกรมมีแนวโน้มที่จะศึกษาอารมณ์และจุดประสงค์ที่แชตบอตต้องการจะสื่อ
โปรแกรมเมอร์ ไซมอน วิลลิสัน โพสต์ในบล็อกของเขาว่า “รูปแบบภาษาไม่มีคอนเซปต์ของ “ความจริง” พวกมันรู้แค่ว่าจะเติมเต็มประโยคในรูปแบบของความน่าจะเป็นเชิงสถิติบนพื้นฐานของข้อมูลที่ได้กับชุดข้อความที่ได้รับการฝึกฝนมา” และว่า “ระบบแชตบอตเลยสร้างชุดข้อความต่าง ๆ ขึ้นมาเอง และใช้ข้อความนั้นตอบกลับด้วยความมั่นใจเต็มเปี่ยม”
ด้านลอเรน ดูว์เดต์ ผู้ร่วมก่อตั้งบริษัทด้านปัญญาประดิษฐ์ของฝรั่งเศส LightOn ระบุว่า แชตบอตดูเหมือนจะเกรี้ยวกราดนั้นได้รับการฝึกฝนมาให้แลกเปลี่ยนบทสนทนาที่แสดงอารมณ์ก้าวร้าวและไม่แน่ไม่นอน
ฝั่งไมโครซอฟท์ ระบุในบล็อกว่า “รูปแบบในช่วงเวลาต่าง ๆ นั้นเป็นการตอบสนองหรือการตอบโต้ในอารมณ์ที่ถูกอีกฝ่ายถามไป (และ) นั่นอาจนำไปสู่รูปแบบการตอบที่เราไม่ได้คาดหวังไว้” และว่ายังเป็นกระบวนการที่ต้องพัฒนาต่อไปอีก พร้อมกับระบุในวันศุกร์ว่าได้จำกัดจำนวนผู้คนที่สนทนากับแชตบอตนี้แล้ว เนื่องจาก “การสนทนาที่ยาวเกินไปอาจทำให้กระทบต่อรูปแบบการสนทนาของระบบได้”
แชตบอตของบิง ออกแบบโดยไมโครซอฟท์และบริษัทโอเพน เอไอ (OpenAI) ซึ่งเป็นประเด็นฮือฮาจากการเปิดตัวแชตบอตปัญญาประดิษฐ์ แชตจีพีที (ChatGPT) เมื่อเดือนพฤศจิกายนปีก่อน ที่สามารถสร้างงานเขียนในไม่กี่วินาทีด้วยคำสั่งง่าย ๆ ซึ่งสร้างทั้งความตื่นเต้นและน่ากังวลในศักยภาพของมัน
- ที่มา: เอเอฟพี