Facebook อ้าง AI ลดคำพูดแสดงความเกลียดชัง (Hate Speech) ลงได้ถึง 50
Facebook อ้าง AI ลดคำพูดแสดงความเกลียดชัง (Hate Speech) ลงได้ถึง 50%
แพลตฟอร์มโซเชียลมีเดียโต้กลับคำกล่าวหาว่าเทคโนโลยีของตนยังลดคำพูดแสดงความเกลียดชังบนเน็ตได้ไม่ดีพอ
Facebook โต้รายงานที่อ้างว่าเทคโนโลยี AI ของ Facebook ล้มเหลวในการตรวจจับคำพูดแสดงความเกลียดชัง โดยบอกว่าเทคโนโลยีของตนนั้นลดคำพูดแสดงความเกลียดชังลงได้ถึง 50% เลยทีเดียว
เมื่อวันอาทิตย์ Wall Street Journal (WSJ) ตีพิมพ์รายงานจากเอกสารภายในและคำให้การจากพนักงานของ Facebook ซึ่งแสดงให้เห็นว่าแพลตฟอร์มโซเชียลมีเดียสามารถลบโพสต์ที่ละเมิดข้อกำหนดได้เพียง “อัตราหลักหน่วยเท่านั้น”
รายงานระบุว่า AI ที่ใช้ในการระบุเนื้อหาที่เป็นอันตราย มีปัญหาในการตรวจจับเนื้อหาวิดีโอที่มีการยิงปืนซึ่งถ่ายด้วยมุมมองบุคคลที่หนึ่ง และคำพูดเหยียดเชื้อชาติ ได้พอๆ กับการบอกความแตกต่างระหว่างการชนไก่และอุบัติเหตุทางรถยนต์ อย่างไรก็ตาม การใช้คนตรวจสอบนั้นมีราคาถูกกว่า ซึ่งบริษัทจ่าไปมากกว่า “2 ล้านดอลลาร์ต่อสัปดาห์ หรือ 104 ล้านดอลลาร์ต่อปี” ในปี 2019 ยึดตามข้อมูลของ WSJ
Guy Rosen รองประธานด้านหลักการและความซื่อสัตย์ของ Facebook ตอบกลับบทความดังกล่าวหลังจากมันเผยแพร่ไปแล้วหลายชั่วโมง โดยระบุว่า ในช่วงสามไตรมาสที่ผ่านมา คำพูดแสดงความเกลียดชังลดลงเกือบ 50% Facebook ระบุว่า“ระดับความแพร่หลาย เป็นมาตรชี้วัดที่สำคัญที่สุด เพราะมันแสดงให้เห็นว่าคำพูดแสดงความเกลียดชังมีให้เห็นจริงบน Facebook มากเพียงใด”
"รายงานที่ออกมาล่าสุด ชี้ให้เห็นว่าแนวทางของเราในการจัดการกับคำพูดแสดงความเกลียดชังนั้นคับแคบกว่าสิ่งที่เกิดขึ้นจริงมาก โดยละเลยความจริงที่ว่า ระดับความแพร่หลายของคำพูดแสดงความเกลียดชังลดลงเหลือ 0.05% หรือเพียง 5 ครั้งต่อทุก ๆ 10,000 ครั้งบน Facebook" Rosen กล่าว
หากไม่แน่ใจว่าโพสต์หนึ่งละเมิดข้อกำหนดของ Facebook หรือไม่ การถูกมองเห็น (visibility) ของโพสต์ดังกล่าวจะลดลงโดยมีการจำกัดระดับความแพร่หลายและไม่ถูกแนะนำต่อให้ผู้ใช้คนอื่น การดำเนินการนี้มีขึ้นเพื่อปกป้องผู้ที่โพสต์ “เนื้อหาที่ดูเหมือนคำพูดแสดงความเกลียดชัง แต่จริง ๆ แล้วไม่ใช่” เช่น “การอธิบายประสบการณ์ที่เกี่ยวกับคำพูดแดงความเกลียดชังหรือประณามการกระทำดังกล่าว” บริษัทยังระบุด้วยว่า 97% ของเนื้อหาที่ถูกลบถูกระบุโดยอัลกอริทึม ซึ่งเพิ่มขึ้นจาก 23.6% ในปี 2016
Facebook ไม่ได้กล่าวถึงข้อกล่าวหาของ WSJ ที่พูดว่า การตัดสินใจใช้ AI เพื่อตรวจสอบคำพูดแสดงความเกลียดชังของ Facebook นั้นเป็นเพราะเรื่องต้นทุน
ข้อกล่าวหาล่าสุดเหล่านี้เกิดขึ้นในช่วงเดือนที่ยากลำบากสำหรับ Facebook ซึ่งเพิ่งถูกกล่าวหาโดยอดีตผู้จัดการด้านผลิตภัณฑ์ที่กลายเป็นผู้เปิดโปงเบาะแสอย่าง Frances Haugen ว่า Facebook ให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัยของผู้ใช้ซ้ำแล้วซ้ำเล่า และเมื่อวันที่ 4 ตุลาคม Facebook รวมถึง WhatsApp และ Instagram ซึ่งเป็นบริษัทในเครือ ก็เพิ่งเจอปัญหาไฟดับล่มติดต่อกันถึง 6 ชั่วโมงไปเช่นกัน
ที่มา: https://bit.ly/3KaJubY