Facebook อ้าง AI ลดคำพูดแสดงความเกลียดชัง (Hate Speech) ลงได้ถึง 50
Please wait...
1726202978.png
1731393918.jpg
1732076627.jpg
1730459076.jpg
1730782055.jpg
1730966771.jpg
1731999875.jpg
SOLUTIONS CORNER
Facebook อ้าง AI ลดคำพูดแสดงความเกลียดชัง (Hate Speech) ลงได้ถึง 50

Facebook อ้าง AI ลดคำพูดแสดงความเกลียดชัง (Hate Speech) ลงได้ถึง 50%

@iiinuthiii via Twenty20

แพลตฟอร์มโซเชียลมีเดียโต้กลับคำกล่าวหาว่าเทคโนโลยีของตนยังลดคำพูดแสดงความเกลียดชังบนเน็ตได้ไม่ดีพอ
 
Facebook โต้รายงานที่อ้างว่าเทคโนโลยี AI ของ Facebook ล้มเหลวในการตรวจจับคำพูดแสดงความเกลียดชัง โดยบอกว่าเทคโนโลยีของตนนั้นลดคำพูดแสดงความเกลียดชังลงได้ถึง 50% เลยทีเดียว

เมื่อวันอาทิตย์  Wall Street Journal (WSJ) ตีพิมพ์รายงานจากเอกสารภายในและคำให้การจากพนักงานของ Facebook ซึ่งแสดงให้เห็นว่าแพลตฟอร์มโซเชียลมีเดียสามารถลบโพสต์ที่ละเมิดข้อกำหนดได้เพียง “อัตราหลักหน่วยเท่านั้น”

รายงานระบุว่า AI ที่ใช้ในการระบุเนื้อหาที่เป็นอันตราย มีปัญหาในการตรวจจับเนื้อหาวิดีโอที่มีการยิงปืนซึ่งถ่ายด้วยมุมมองบุคคลที่หนึ่ง และคำพูดเหยียดเชื้อชาติ ได้พอๆ กับการบอกความแตกต่างระหว่างการชนไก่และอุบัติเหตุทางรถยนต์ อย่างไรก็ตาม การใช้คนตรวจสอบนั้นมีราคาถูกกว่า ซึ่งบริษัทจ่าไปมากกว่า “2 ล้านดอลลาร์ต่อสัปดาห์ หรือ 104 ล้านดอลลาร์ต่อปี” ในปี 2019 ยึดตามข้อมูลของ WSJ

Guy Rosen รองประธานด้านหลักการและความซื่อสัตย์ของ Facebook ตอบกลับบทความดังกล่าวหลังจากมันเผยแพร่ไปแล้วหลายชั่วโมง โดยระบุว่า ในช่วงสามไตรมาสที่ผ่านมา คำพูดแสดงความเกลียดชังลดลงเกือบ 50%  Facebook ระบุว่า“ระดับความแพร่หลาย เป็นมาตรชี้วัดที่สำคัญที่สุด เพราะมันแสดงให้เห็นว่าคำพูดแสดงความเกลียดชังมีให้เห็นจริงบน Facebook มากเพียงใด”

"รายงานที่ออกมาล่าสุด ชี้ให้เห็นว่าแนวทางของเราในการจัดการกับคำพูดแสดงความเกลียดชังนั้นคับแคบกว่าสิ่งที่เกิดขึ้นจริงมาก โดยละเลยความจริงที่ว่า ระดับความแพร่หลายของคำพูดแสดงความเกลียดชังลดลงเหลือ 0.05% หรือเพียง 5 ครั้งต่อทุก ๆ 10,000 ครั้งบน Facebook" Rosen กล่าว

หากไม่แน่ใจว่าโพสต์หนึ่งละเมิดข้อกำหนดของ Facebook หรือไม่ การถูกมองเห็น (visibility) ของโพสต์ดังกล่าวจะลดลงโดยมีการจำกัดระดับความแพร่หลายและไม่ถูกแนะนำต่อให้ผู้ใช้คนอื่น  การดำเนินการนี้มีขึ้นเพื่อปกป้องผู้ที่โพสต์ “เนื้อหาที่ดูเหมือนคำพูดแสดงความเกลียดชัง แต่จริง ๆ แล้วไม่ใช่” เช่น “การอธิบายประสบการณ์ที่เกี่ยวกับคำพูดแดงความเกลียดชังหรือประณามการกระทำดังกล่าว” บริษัทยังระบุด้วยว่า 97% ของเนื้อหาที่ถูกลบถูกระบุโดยอัลกอริทึม ซึ่งเพิ่มขึ้นจาก 23.6% ในปี 2016

Facebook ไม่ได้กล่าวถึงข้อกล่าวหาของ WSJ ที่พูดว่า การตัดสินใจใช้ AI เพื่อตรวจสอบคำพูดแสดงความเกลียดชังของ Facebook นั้นเป็นเพราะเรื่องต้นทุน

ข้อกล่าวหาล่าสุดเหล่านี้เกิดขึ้นในช่วงเดือนที่ยากลำบากสำหรับ Facebook  ซึ่งเพิ่งถูกกล่าวหาโดยอดีตผู้จัดการด้านผลิตภัณฑ์ที่กลายเป็นผู้เปิดโปงเบาะแสอย่าง Frances Haugen ว่า Facebook ให้ความสำคัญกับผลกำไรมากกว่าความปลอดภัยของผู้ใช้ซ้ำแล้วซ้ำเล่า และเมื่อวันที่ 4 ตุลาคม Facebook รวมถึง WhatsApp และ Instagram ซึ่งเป็นบริษัทในเครือ ก็เพิ่งเจอปัญหาไฟดับล่มติดต่อกันถึง 6 ชั่วโมงไปเช่นกัน
 
ที่มา:
 
https://bit.ly/3KaJubY

ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์