ความวิตกกังวลถึงผลกระทบของสื่อโซเชียลสุขภาพจิตของกลุ่มวัยรุ่นได้เพิ่มขึ้นอย่างต่อเรื่อง จนบริษัทใหญ่ ๆ อย่าง อินสตาแกรม (Instragram) สแนปแชท (Snapchat) และ ติ๊กตอก (TikTok) ดำเนินการเพิ่มมาตรการใหม่ ๆ เพื่อให้การบริการและเนื้อหามีความปลอดภัยและสอดคล้องกับอายุของผู้ใช้
บริษัทข้างต้นพูดเสมอว่าผู้ปกครองควรมีส่วนร่วมดูแลเนื้อหาที่เด็ก ๆ เข้าถึง แต่สำนักข่าวเอพีชี้ว่า มาตรการของบริษัทสื่อโซเชียลไม่พุ่งเป้าไปที่อัลกอริทึมที่มักป้อนเนื้อหาอย่างไม่มีที่สิ้นสุด จนทั้งกลุ่มวัยรุ่นและผู้ใหญ่ตกเป็นเหยื่อ
ไอรีน ลิน ทนายความเป็นส่วนตัวขององค์กรไม่แสวงผลกำไร Common Sense Media กล่าวว่า “บริษัทสื่อโซเชียลรู้ดีว่าอัลกอริทึมอาจทำให้เนื้อหาที่รุนแรงเผยแพร่ไปได้เร็วขึ้น แต่บริษัทเหล่านี้กลับเลือกที่จะไม่ทำอะไร เพราะยิ่งวัยรุ่นดูเนื้อหาเหล่านี้และมีปฏิกิริยาตอบโต้มากเท่าไหร่ บริษัทก็จะสามารถทำเงินได้มากเท่านั้นด้วย…ดู ๆ แล้วไม่มีอะไรเป็นสิ่งจูงใจให้แพลตฟอร์มออนไลน์เปลี่ยนกลไกและกลยุทธ์เลย”
ยกตัวอย่างจากกรณีของ Snapchat ที่เพิ่งเปิดตัวเครื่องมือใหม่ชื่อ Family Center เมื่อวันอังคารที่ผ่านมาเพื่อช่วยให้ผู้ปกครองสามารถตรวจดูได้ว่า ลูก ๆ ส่งข้อความไปหาเพื่อนคนไหนบ้าง แต่ผู้ปกครองจะไม่สามารถเห็นข้อความที่ส่งได้เพื่อรักษาความเป็นส่วนตัว และการเปิดใช้เครื่องมือนี้ ทั้งฝ่ายลูกและผู้ปกครองจะยินยอมด้วยกันทั้งคู่
โนนา ฟาแรนนิก ยาเดกา ผู้บริหารของ Snapchat ที่ดูแลนโยบายการใช้และผลกระทบต่อสังคม เปรียบเทียบว่า เครื่องมือข้างต้นทำหน้าที่คล้ายกับเวลาที่ผู้ปกครองสอบถามลูก ๆ ว่า ออกไปทานข้าวที่ไหน กับใคร รู้จักคนคนนี้ได้อย่างไร โดยอุปกรณ์ข้างต้นตอบโจทย์ผู้ปกครองที่ส่วนใหญ่อยากทราบว่า ลูกสุงสิงอยู่กับใคร โดยเด็ก ๆ ยังคงมีความเป็นส่วนตัวและสามารถร่วมตัดสินใจว่าจะให้ผู้ปกครองเข้ามาสอดส่องหรือไม่
แต่ปัจจุบัน เด็ก ๆ มักใช้ช่องทางออนไลน์ต่าง ๆ มากมายที่มีการวิวัฒนาการไปอย่างรวดเร็วจนทำให้ผู้ปกครองหลายคนตามไม่ทันจึงไม่สามารถควบคุมหรือดูแลการใช้ได้หมดอย่างเหมาะสม
จอช โกลิน ผู้บริหาร Fairplay ซึ่งเป็นกลุ่มการรณรงค์การใช้งานอุปกรณ์ดิจิทัลของเยาวชน ชี้ว่า “สิ่งที่ควรทำมากกว่าการพึ่งผู้ปกครองที่งานหนักอยู่แล้ว คือ การบังคับใช้ให้แพลตฟอร์มออนไลน์ออกแบบการใช้งานบริการให้มีความปลอดภัยขึ้น”
จอช โกลิน ตำหนิว่าเครื่องมือใหม่ของ Snapchat ไม่ได้ช่วยแก้ปัญหาเรื่องการใช้งานที่ไม่เหมาะสมในหมู่วัยรุ่นหลายๆ ข้อ เช่น ฟีเจอร์ Snapstreak ที่ชักชวนให้เด็กเสพติดแพลตฟอร์มอย่างงอมแงมด้วยการขึ้นจำนวนวันที่ผู้ใช้ถ่ายรูปหากันไปมา ซึ่งหลายคนมักจะใช้ทุกวันเพื่อให้ได้ยอดวันที่สูงขึ้นเรื่อย ๆ ซ้ำ Snapchat ยังส่งเสริมการกลั่นแกล้งทางออนไลน์ (cyberbullying) เพราะไม่ยอมจัดการฟีเจอร์ที่เป็นอัตลักษณ์แพลตฟอร์ม ซึ่งอนุญาตให้ข้อความหายไปทันทีเมื่อผู้ใช้อ่านเสร็จ
แต่ โนนา ฟาแรนนิก ยาเดกา ผู้บริหารของ Snapchat ที่ดูแลนโยบายการใช้และผลกระทบต่อสังคมย้ำว่า บริษัทของเธอมีมาตรการที่เข้มงวดหลายอย่างในการยับยั้งไม่ให้เด็กที่อายุต่ำกว่า 13 ปี หลอกว่า ตนเองอายุมากกว่านั้น เพราะหากผู้ใช้มีการละเมิดกฎเพราะอายุต่ำกว่ากำหนดจริง ทาง Snapchat จะโอกาสแก้ตัวหนึ่งครั้งในแก้อายุให้ถูกต้อง และหายังไม่ทำตามหรือทำผิดกฎต่อไป ก็จะลบบัญชีนั้น ๆ ทันที
แพลตฟอร์มสื่อโซเชียลต่าง ๆ ยังใช้ปัญญาประดิษฐ์ (Artificial Intelligence – AI) เพื่อตรวจดูว่า ผู้ใช้งานโกงอายุหรือไม่ โดยดูจากเนื้อหาที่ผู้ใช้เข้าดูและกลุ่มเพื่อนที่ผู้ใช้ส่งข้อความถึง เพราะส่วนใหญ่แล้ว ผู้ใช้ที่มีอายุรุ่นเดียวกันมักจะส่งข้อความถึงกัน และหากผู้ปกครองท่านใดไม่สามารถเปิดระบบควบคุมโดยผู้ปกครอง (parental controls) ในบัญชีของลูก ๆ ได้ นั่นก็เป็นแปลว่า เด็กคนนั้นไม่ได้ระบุอายุที่แท้จริงของตนเอง
ทั้งนี้ ความปลอดภัยของเด็กและสุขภาพจิตของวัยรุ่นที่ใช้สื่อโซเชียลถือเป็นประเด็นสำคัญที่นักการเมืองทั้งจากพรรคเดโมแครตและรีพับลิกันให้ความสำคัญและพยายามวิจารณ์บริษัทเทคโนโลยีให้ทำการการควบคุมให้ดีกว่านี้มาตลอด โดยเมื่อเดือนมีนาคมที่ผ่านมา อัยการหลายรัฐได้เปิดการสอบสวน TikTok เกี่ยวกับกรณีผลกระทบร้ายแรงที่มีต่อสุขภาพจิตของเยาวชนผู้ใช้งานแอปนี้แล้ว
รายงานของ Pew Research Center ที่เพิ่งเผยแพร่ออกมาเมื่อสัปดาห์ที่แล้วชี้ว่า สื่อโซเชียลที่ได้รับความนิยมมากที่สุดถึง 67% ในหมู่วัยรุ่นอเมริกัน คือ TikTok ซึ่งเป็นบริษัทของประเทศจีน โดยลำดับต่อมา คือ Instagram ที่คนนิยมราว 62% และ Snapchat ที่ 59% ส่วนแอปที่รั้งท้ายและได้รับความนิยมจากวัยรุ่นน้อยลงมาตั้งแต่ปี 2014 จนตอนนี้ได้เพียง 32% คือ Facebook
TikTok ชี้ว่า บริษัทได้เน้นการให้บริการเนื้อหาที่สอดคล้องกับอายุผู้ใช้ และระงับการใช้การฟังก์ชันบางอย่าง เช่น การส่งข้อความถึงบัญชีผู้ใช้ที่เป็นเยาวชน ขณะที่ การดูเวลาการใช้งานของเด็ก ๆ ช่วยให้ผู้ปกครองเห็นว่า ลูก ๆ ดูอะไรบ้างไปและใช้เวลานานแค่ไหน
อย่างไรก็ดี นักวิเคราะห์หลายคนยังมองว่ามาตรการข้างต้นนั้นหละหลวมอยู่ดี
และเมื่อฤดูใบไม้ร่วงที่ผ่านมา ฟรานเชส ฮอแกน อดีตพนักงาน Facebook ออกมาเปิดเผยต่อสาธารณะว่า ผลวิจัยภายในองค์กรชี้ว่า แพลตฟอร์มใช้อัลกอริทึมที่ส่งผลกระทบต่อปัญหาสุขภาพจิตและอารมณ์ในหมู่วัยรุ่นที่ใช้ Instagram โดยเฉพาะวัยรุ่นหญิง และการเปิดโปงข้างต้นทำให้ Meta ซึ่งเป็นเจ้าของ Instragram ยกเลิกการแผนการเปิดตัว Instragram เวอร์ชั่นสำหรับเด็กที่อายุต่ำกว่า 13 ปี และเปิดตัวระบบควบคุมโดยผู้ปกครองใหม่ควบคู่กับการแจ้งเตือนวัยรุ่นหากใช้แพลตฟอร์มนานเกินไปด้วย
- ที่มา: เอพี