เทคโนโลยี Deepfake เรียลไทม์กลายเป็นภัยคุกคามร้ายแรง
Please wait...
1726202978.png
1731393918.jpg
1732076627.jpg
1730459076.jpg
1730782055.jpg
1730966771.jpg
1731999875.jpg
SOLUTIONS CORNER
เทคโนโลยี Deepfake เรียลไทม์กลายเป็นภัยคุกคามร้ายแรง

เทคโนโลยี Deepfake เรียลไทม์กลายเป็นภัยคุกคามร้ายแรง


Real-time deepfakes become threat

วิดีโอคอลระหว่างนักการเมืองชั้นนำและนายกเทศมนตรีของ Kyiv, Vitali Klitschko ที่ใช้เทคโนโลยี Deepfake ทำให้เกิดประเด็นเรื่องความไว้วางใจ

 
เมื่อนายกเทศมนตรีกรุงเบอร์ลิน Franziska Giffey รับโทรศัพท์จาก Vitali Klitschko นายกเทศมนตรีของ Kyiv ในเดือนมิถุนายน ทั้งคู่ได้หารือประเด็นสำคัญหลายประการ รวมถึงสถานะผู้ลี้ภัยชาวยูเครนในเยอรมนี ซึ่งเป็นการสนทนาปกติที่สมบูรณ์แบบระหว่างนักการเมืองเมื่อพิจารณาจากสถานการณ์ ยกเว้นแต่ว่า Klitschko นั้นไม่ใช่ตัวจริง
 
แม้ว่านายกเทศมนตรีจะเห็นใบหน้าของอดีตนักมวยที่ผันตัวเป็นนักการเมือง และกำลังคุยกับเขาแบบเรียลไทม์ แต่จริงๆ แล้วเธอกำลังคุยกับคนที่แอบอ้างโดยใช้เทคโนโลยี Deepfake ที่สร้างการเรนเดอร์ใบหน้าคนมีชื่อเสียงอย่างสมจริงโดยใช้ปัญญาประดิษฐ์ (AI) ซึ่งในปัจจุบันมีความซับซ้อนเพียงพอที่จะสามารถทำงานแบบเรียลไทม์ได้
 
ยังไม่ชัดเจนว่าใครเป็นคนหลอกลวงที่อยู่เบื้องหลังเหตุการณ์นี้ หรือมีเจตนาอย่างไร แต่มีรายงานว่าเป็นกลุ่มเดียวกันที่หลอกนายกเทศมนตรีกรุงเวียนนาและมาดริดโดยใช้ Klitschko deepfake เดียวกัน
 
นับตั้งแต่ Deepfakes เกิดขึ้นครั้งแรกในปี 2017 ความกังวลนั้นเกิดขึ้นอย่างต่อเนื่องว่าพวกเขาสามารถใช้เพื่อเข้าไปยุ่งเกี่ยวกับการเมืองและทำให้เกิดความโกลาหลได้ เช่นเดียวกับหลายๆ เหตุการณ์ในช่วงหลังนี้ โดยความกลัวเหล่านั้นถูกแทนที่ด้วยความเป็นจริงที่เยือกเย็น


สัญญาณที่บ่งชี้ของ Deepfake

Dr Matthew Stamm ผู้วิจัยด้านนิติวิทยาศาสตร์มัลติมีเดียที่ Drexel University ในฟิลาเดลเฟีย ให้เหตุผลว่า ด้วยเทคโนโลยีในปัจจุบัน มันค่อนข้างเป็นไปได้ที่จะหลอกผู้คน แม้ว่าของปลอมจะดูตะกุกตะกักภายใต้การตรวจสอบอย่างใกล้ชิดก็ตาม
 
“ถ้าคุณมองใกล้ๆ [ลึกๆ] จริงๆ หลายครั้งมีสัญญาณทางกายภาพ เช่นรูปแบบการเคลื่อนไหวที่ไม่สอดคล้องกันหรือดูผิดแปลกไป หรือบางอย่างที่ดูเหมือนไม่เข้ากับใบหน้า” เขากล่าว “ฉันคิดว่าเป็นวิธีที่ดีในการสร้างบางสิ่งที่น่าเชื่อทางสายตาและยืนหยัดต่อการพิจารณาในระยะยาว”
 
แม้ว่าวิดีโอจะดูแย่ไปหน่อย แต่ก็มีปัจจัยสำคัญอยู่อย่างหนึ่ง นั่นคือ จิตวิทยาของมนุษย์ “ถ้าเราต้องตัดสินใจอย่างรวดเร็ว ข้อมูลจะสอดคล้องกับอคติที่อุบัติขึ้น ดังนั้น เรามักจะไม่อยากเชื่อ” Stamm กล่าว
 
Deepfakes ไม่จำเป็นต้องสมบูรณ์แบบด้วยพิกเซล เพียงแค่ต้องดีพอ ซึ่งนั่นทำให้การจดจำสัญญาณบอกเล่าของ Deepfake มีความสำคัญมากขึ้น

“ในการสร้างฉากลวงที่ดีจริงๆ โดยปกติแล้วคุณต้องการนักแสดงที่ดูเหมือนคนที่คุณพยายามจะแกล้งทำเป็น” สแตมม์กล่าวต่อ “Deepfakes มักจะปลอมแปลงใบหน้าของคุณ ซึ่งปัจจุบันไม่ได้เปลี่ยนรูปร่างของศีรษะของคุณ อย่างไรก็ตามคุณจะสังเกตเห็นความไม่ต่อเนื่องแปลกๆ ของสิ่งรอบข้างและรอบใบหน้า เพราะมันเป็นเหมือนการใส่หน้ากากไว้เหนือตัวคุณ”
 
บางทีสัญญาณที่บ่งชี้ที่เห็นได้ชัดที่สุดคือการเคลื่อนที่ เนื่องจากช่วงเวลาที่ใบหน้าบางส่วนถูกโบกมือไปข้างหน้า หรือเมื่อใบหน้าขยับอย่างรวดเร็วหรือมองไปทางด้านข้างมากเกินไป ที่ซึ่งซอฟต์แวร์ยังไม่รู้วิธีจัดการกับมัน ดังนั้นมันจึงทำลายภาพลวงตาไปชั่วขณะหนึ่ง แต่ด้วยความเร็วของนวัตกรรม เราก็ควรคาดหวังให้นักพัฒนาเข้าใจสิ่งนี้เมื่อเวลาผ่านไป
 
ที่มา: 
https://bit.ly/3ARLJ0H
ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์