ลิ้งค์เชื่อมต่อ

นักวิเคราะห์ห่วง ‘ดีพเฟค’ สื่อลวงลึก อาวุธร้ายทำลายงานข่าวสาร


แฟ้มภาพ - ผู้สื่อข่าวเอเอฟพีดูวิดีโอปลอมที่สร้างจากปัญญาประดิษฐ์ หรือ ดีพเฟค (Deepfake) ที๋โต๊ะทำงานในกรุงวอชิงตัน 25 ม.ค. 2019 (Alexandra ROBINSON/AFP)
แฟ้มภาพ - ผู้สื่อข่าวเอเอฟพีดูวิดีโอปลอมที่สร้างจากปัญญาประดิษฐ์ หรือ ดีพเฟค (Deepfake) ที๋โต๊ะทำงานในกรุงวอชิงตัน 25 ม.ค. 2019 (Alexandra ROBINSON/AFP)

การคืบคลานเข้ามาของเทคโนโลยีดีพเฟค (Deepfake) หรือวิดีโอปลอมที่สร้างขึ้นโดยปัญญาประดิษฐ์ ได้กลายเป็นอาวุธใหม่ในการเผยแพร่ข่าวปลอมและข้อมูลบิดเบือน ในยุคแห่งข้อมูลข่าวสารที่แพร่หลายในทุกรูปแบบบนโลกออนไลน์

การเผยแพร่คลิปวิดีโอที่มีภาพของผู้ดำเนินรายการข่าวสหรัฐฯ ที่นำเสนอข่าว แสดงความเห็น หรือสนับสนุนสกุลเงินคริปโต รวมทั้งสินค้าอื่น ๆ อย่างผิด ๆ ได้สร้างความกังวลให้กับเหล่านักวิเคราะห์ในเรื่องนี้

การใช้ ดีพเฟค (deepfake) หรือสื่อลวงลึก เป็นวิดีโอที่ใช้ปัญญาประดิษฐ์ในการปลอมแปลงตัวตนซึ่งรวมถึงบรรดานักข่าวและผู้ดำเนินรายการข่าวต่าง ๆ ขึ้นมาได้เหมือนจริง ได้กลายเป็นสิ่งที่สร้างปัญหาใหญ่ ในปี 2024 ที่ประชาชนมากกว่า 40 ประเทศทั่วโลกจะออกไปใช้สิทธิ์ใช้เสียงเลือกตั้งครั้งสำคัญของพวกเขา

ในช่วงเวลาที่ข้อมูลบิดเบือนมีอย่างแพร่หลายและความเชื่อมั่นในข่าวสารบ้านเมืองปัจจุบันตกต่ำอย่างหนัก ประกอบกับการที่ธุรกิจสื่อรับเอาเทคโนโลยีปัญญาประดิษฐ์มาใช้ในงานข่าวจริง วิดีโอเหล่านี้เป็นสิ่งที่ยากสำหรับผู้รับชมในการแยกแยะว่าสิ่งที่เห็นและได้ยินเป็นจริงหรือไม่แค่ไหน

พอล แบร์เร็ตต์ รองผู้อำนวยการ Stern Center for Business and Human Rights แห่ง New York University ที่ศึกษาผลกระทบของเทคโนโลยีต่อประชาธิปไตย ให้ทัศนะกับวีโอเอว่า ดีพเฟค ที่ปลอมเป็นผู้สื่อข่าว ได้สร้างความคลุมเครือให้กับข่าวจริงกับข่าวปลอมมากขึ้นไปอีก และด้วยขุมพลังแห่งปัญญาประดิษฐ์ ผู้คนสามารถสร้างวิดีโอที่มีผู้ประกาศข่าวรายงานเรื่องราวข่าวปลอมได้ อีกทั้งยังยากต่อการค้นหาต้นตอและจัดการลบเนื้อหาของวิดีโอเหล่านี้

ผลที่ตามมาก็คือ ดีพเฟค “ได้ลบเส้นแบ่งแยกระหว่างความจริงและข้อมูลบิดเบือนออกไป ด้วยเป้าหมายสูงสุดในการทำลายความน่าเชื่อถือในสิ่งที่เกิดขึ้น ทั้งเรื่องการเมืองและเรื่องอื่น ๆ ทั่วโลก”

เทคโนโลยีดีพเฟค มุ่งเป้าผู้สื่อข่าวในสื่อกระแสหลักต่าง ๆ ทั้งซีเอ็นเอ็น ซีบีเอส บีบีซี และวีโอเอ ปลอมแปลงเป็นผู้ดำเนินรายการอย่างเช่น แอนเดอร์สัน คูเปอร์ เกล คิง รวมทั้งผู้สื่อข่าววีโอเอภาคภาษารัสเซียหลายราย ก็เคยถูกมุ่งเป้าโจมตีด้วยเทคโนโลยีดีพเฟค มาตั้งแต่เดือนตุลาคมที่ผ่านมา

เคซนียา เทอร์โควา ผู้สื่อข่าววีโอเอภาคภาษารัสเซีย เปิดเผยกับวีโอเอเมื่อเดือนตุลาคมปีก่อนว่า เธอช็อคเมื่อได้เห็นวิดีโอที่ระบุว่าเธอพูดในสิ่งที่ไม่เคยพูดถึงมาก่อน และรู้สึกว่าความน่าเชื่อถือในฐานะสื่อมวลชนกำลังตกอยู่ในอันตราย

ด้านวินเซนต์ เบอร์ทิเอร์ หัวหน้าฝ่ายเทคโนโลยีของ Reporters Without Borders มองว่า การเข้าควบคุมบงการความน่าเชื่อถือเป็นเหตุผลว่าทำไมบรรดานักข่าวถึงตกเป็นเป้าหมาย โดยการมุ่งเป้ามาที่นักข่าวด้วยการใช้เทคโนโลยีนี้ จะบั่นทอนความน่าเชื่อถือของสื่อ และผลักให้ผู้คนหันไปเชื่อถือข้อมูลบิดเบือนแทน เขาให้ทัศนะกับวีโอเอว่า “ดีพเฟคคืออาวุธต่อต้านสื่อสารมวลชนที่แท้จริง ... ไม่เพียงแต่เลวร้ายต่อเสรีภาพสื่อโดยทั่วไปเท่านั้น แต่ยังเป็นปัญหาในการเข้าถึงข้อมูล”

อีกส่วนหนึ่งของปัญหานี้ก็คือ การเข้าถึงเนื้อหาปลอมที่สร้างขึ้นมาได้ง่ายและดูน่าเชื่อถือเสียด้วย และว่า “มีนวัตกรรมที่ไม่ควรเปิดทางให้เกิดขึ้น เนื่องจากเป็นอันตรายต่อประชาธิปไตย และหากมันเป็นอันตรายต่อประชาธิปไตย ก็ถือว่าเป็นอันตรายต่อเราทุกคน”

ความกังวลเรื่องดีพเฟค ได้รับการพูดถึงเมื่อสัปดาห์ก่อน ในการรับฟังข้อมูลของวุฒิสภาสหรัฐฯ ว่าด้วยผลกระทบของปัญญาประดิษฐ์ต่อสื่อมวลชน

เคอร์ติส เลเจ็ต จาก National Association of Broadcasters ได้แจ้งต่อคณะอนุกรรมาธิการวุฒิสภาสหรัฐฯ ว่า generative AI อาจถูกนำไปใช้ในทางที่ผิดในการเผยแพร่ข้อมูลเท็จและข้อมูลบิดเบือน

แบร์เร็ตต์ จาก New York University ย้ำว่าการใช้ปัญญาประดิษฐ์ในทางที่ผิดอาจเป็นภัยต่อการเลือกตั้งต่าง ๆ เช่น การสร้างดีพเฟคคู่แข่งขึ้นมาเพื่อลดความน่าเชื่อถือ หรือสร้างวิดีโอที่มีนักข่าวเผยแพร่ข่าวปลอมเกี่ยวกับคู่แข่งทางการเมือง

แบร์เร็ตต์ มองว่า การพิจารณาภัยคุกคามจากดีพเฟค ควรลงลึกในถึงแพลตฟอร์มสื่อสังคมออนไลน์ที่เผยแพร่เนื้อหา มากกว่ามุ่งเป้ามาที่บริษัทปัญญาประดิษฐ์เพียงอย่างเดียว

อย่างไรก็ตาม Meta TikTok และสื่อสังคมออนไลน์ X ไม่ได้ให้ความเห็นเกี่ยวกับบทความนี้เมื่อวีโอเอต่อติดไปเพื่อขอความเห็นในช่วงเวลาที่รายงานข่าวนี้

ขณะที่โฆษกของ Google ให้ข้อมูลกับวีโอเอเมื่อเดือนพฤศจิกายนปีก่อนว่า ทาง YouTube จะให้ผู้สร้างเนื้อหาเปิดเผยข้อมูลว่าได้นำสร้างเนื้อหาจริงหรือเนื้อหาปลอมที่ดูเหมือนจริง ซึ่งรวมถึงการใช้เครื่องมือปัญญาประดิษฐ์ในการทำเนื้อหาบน YouTube และยังมีนโยบายแบนเนื้อหาที่มุ่งเป้าปลอมแปลงตัวตนบุคคลอื่น ๆ ด้วย

ระหว่างที่นักวิเคราะห์ด้านสื่อชี้ให้เห็นวิธีที่ปัญญาประดิษฐ์มอบประโยชน์ในแง่ต้นทุนให้กับการรายงานข่าวเชิงสืบสวนสอบสวน แต่มุมมองของเทคโนโลยีนี้ต่อสื่อยังแตกต่างกันไป

ยิ่งไปกว่านั้น ความไม่เชื่อมั่นในสื่ออยู่ในระดับสูงสุดเป็นประวัติการณ์ในสหรัฐฯ และการสำรวจโดย Reuters Institute for the Study of Journalism พบว่า ผู้ที่อยู่ในการสำรวจ 70% คิดว่าการเพิ่มขึ้นของ generative AI จะส่งผลเชิงลบต่อความน่าเชื่อถือในข่าวสาร

  • ที่มา: วีโอเอ

กระดานความเห็น

XS
SM
MD
LG