เทคโนโลยี ‘ดีพเฟคส์’ ที่สามารถสร้างคลิปปลอมขึ้นมาได้ กลายเป็นประเด็นที่หลายคนกังวลกันมากขึ้น โดยเฉพาะการสร้างคลิปปลอมเพื่อโจมตีทางการเมือง ทำให้นักวิชาการพยายามหาวิธีตรวจสอบว่าวิดีโอไหนเป็น 'ดีพเฟคส์' บ้าง
'ดีพเฟคส์' เป็นการตัดต่อหรือปลอมแปลงคลิปวิดีโอและเสียงของบุคคลใดบุคคลหนึ่ง ซึ่งมักจะเป็นบุคคลมีชื่อเสียง โดยใช้ระบบการเรียนรู้ด้วยตนเองของคอมพิวเตอร์หรือ machine learning เพื่อออกแบบวิดีโอออกมาให้มีหน้าตาและเสียงเหมือนกับบุคคลต้นฉบับ
ในช่วงปีที่ผ่านมา ดีพเฟคส์ถูกนำมาใช้โจมตีหรือทำลายชื่อเสียงของนักการเมืองหลายคนในสหรัฐฯ และถูกแชร์กันอย่างแพร่หลายบนโลกโซเชียล เทคโนโลยีนี้จึงสร้างความกังวลให้กับหลายฝ่ายว่า ดีพเฟคส์จะยิ่งทำให้การแยกแยะข่าวปลอมเป็นเรื่องยากขึ้นไปอีก
สำนักข่าวบีบีซีรายงานว่า นักวิจัยจำนวนมากพยายามหาวิธีตรวจสอบและต่อสู้กับดีพเฟคส์ และเทคโนโลยีที่ซับซ้อนขึ้นเรื่อยๆ หนึ่งในนั้นคือทีมนักวิจัยจากสถาบันประสาทวิทยาศาสตร์ของมหาวิทยาลัยโอเรกอนที่กำลังทดลองฝึกหนูให้เข้าใจความผิดปกติในเสียงพูด และพบว่า หนูมีความสามารถในการตรวจจับความผิดปกติเหล่านี้ได้ค่อนข้างแม่นยำ ซึ่งในอนาคต อาจนำหนูมาช่วยเฟซบุ๊กหรือยูทูบตรวจสอบดีพเฟคส์ได้ก่อนที่วิดีโอนั้นๆ จะถูกแชร์เป็นไวรัลไป
โจนาธาน ซอนเดอร์ส หนึ่งในทีมนักวิจัยกล่าวว่า แม้เขาคิดว่าห้องที่เต็มไปด้วยหนูที่ช่วยยูทูบตรวจจับเสียงปลอมเป็นเรื่องน่ารักดี แต่เขาก็ไม่คิดว่า วิธีนั้นจะทำได้จริง แต่เป้าหมายของพวกเขาก็คือการเรียนรู้วิธีการของหนูในการตรวจจับเสียงปลอมเหล่านี้ แล้วนำมาพัฒนาระบบคอมพิวเตอร์เพื่อตรวจจับดีพเฟคส์
ทีมนักวิจัยได้ฝึกฝนหนูให้เข้าใจชุด “โฟนีม” หรือหน่วยคำที่เล็กที่สุดของภาษาที่ทำให้เราแยกแยะคำหนึ่งจากอีกคำหนึ่งได้ เช่น เสียง “บ” และ “ก” ที่ไปประสมกับเสียงสระต่างๆ หนูก็จะรู้เสียง “โบ” “บี” “บา” เป็นต้น เมื่อเรียนรู้โฟนีมต่างๆ แล้ว หนูก็สามารถจัดแบ่งประเภทของเสียงพูดได้ นักวิจัยจึงคิดว่าหนูก็น่าจะสามารถแยกแยะดีพเฟคส์กับเสียงพูดจริงได้
นักวิจัยระบุว่า หนูจะได้รับรางวัลทุกครั้งที่พวกมันสามารถตรวจจับเสียงพูดที่แตกต่างได้ถูกต้อง ซึ่งมีความแม่นยำมากถึงร้อยละ 80 แม้จะยังไม่สมบูรณ์แบบ แต่สามารถนำไปใช้กับขั้นตอนการตรวจสอบดีพเฟคส์ที่มีอยู่ในปัจจุบันแล้วก็น่าจะทำให้การตรวจจับดีพเฟคส์มีประสิทธิภาพขึ้น
การตรวจจับไม่ควรขึ้นอยู่กับข้อบกพร่องของวิดีโอ
ดีพเฟคส์ที่แพร่หลายกันอยู่ในปัจจุบันยังค่อนข้างเห็นได้ชัดว่าเป็นวิดีโอปลอม และมักถูกใช้เพื่อล้อเลียนบุคคลต้นแบบมากกว่าจะเป็นการเลียนแบบ เช่น กรณีดีพเฟคส์ของมาร์ก ซักเคอร์เบิร์ก ผู้ก่อตั้งเฟซบุ๊กที่พูดถึงการครองโลกด้วยการขโมยข้อมูลส่วนตัวของผู้ใช้ แต่ในอนาคตที่เทคโนโลยีพัฒนาจนทำให้แยกไม่ออกว่าวิดีโอนั้นเป็นของจริงหรือไม่ก็จะทำให้เกิดปัญหามาตาม
แมทธิว ไพรซ์ จากซีโรฟ็อกซ์ บริษัทด้านความมั่นคงไซเบอร์กล่าวว่า ปัจจุบัน การตรวจจับดีพเฟคส์ที่มีประสิทธิภาพคือการใช้อัลกอริธึมที่ตรวจจับการเคลื่อนไหวศีรษะที่ไม่เป็นธรรมชาติ หรือความสม่ำเสมอของแสง และมีดีพเฟคส์ 'ห่วยๆ' หนึ่งคลิปที่คนในวิดีโอไม่กระพริบตาเลย แต่เทคนิคเหล่านี้ล้วนเกิดจากข้อผิดพลาดของคนทำดีพเฟคส์หรือเทคโนโลยีที่จำกัดเท่านั้น ซึ่งวิธีตรวจสอบนี้จะใช้ได้อีกไม่นาน เพราะเทคโนโลยีดีพเฟคส์จะพัฒนาขึ้นไปอีก และไพรซ์เชื่อว่า เมื่อเทคโนโลยีนี้ทำออกมาได้แนบเนียนขึ้น อาจมีการใช้ดีพเฟคส์จำนวนมากในการรณรงค์เลือกตั้งประธานาธิบดีสหรัฐฯ ปี 2020
ขณะเดียวกัน ความกังวลต่อดีพเฟคส์ก็น่าจะถูกนำมาเป็นนโยบายหาเสียงด้วย โดยก่อนหน้านี้ มาร์โค รูบิโอ ส.ว.พรรครีพับลิกันของสหรัฐฯ ก็ออกมาบอกว่า ศัตรูของอเมริกาได้ใช้ภาพปลอมมาแบ่งแยกคนอเมริกันแล้ว ปัจจุบัน สามารถสร้างภาพและวิดีโอการขโมยบัตรเลือกตั้ง ผู้นำทางการเมืองพูดจาลามก หรือการสังหารผู้บริสุทธิ์ในประเทศที่มีความขัดแย้งได้แล้ว
การตรวจจับดีพเฟคส์ผิดประเด็น?
บรูซ ชไนเออร์ ผู้เชี่ยวชาญด้านความมั่นคงไซฌบอร์ จากวิทยาลัยฮาร์วาร์ดเคเนดีกล่าวว่า การตรวจจับดีพเฟคส์เป็นความกังวลที่ผิดประเด็น เพราะวิดีโอปลอมที่คนแชร์กัน เป็นวิดีโอที่เห็นได้ชัดอยู่แล้วว่าเป็นของปลอม แต่คนก็แชร์อยู่ดี ปัญหาจึงไม่ได้อยู่ที่คุณภาพในการทำวิดีโอปลอม
ปัญหาอยู่ที่ว่า คนไม่เชื่อมั่นในแหล่งข่าวที่ชอบธรรม และเพราะคนเรามักแชร์โพสต์ต่างๆ เพื่อแสดงตัวตนทางสังคม
ชไนเดอร์ยกตัวอย่างดีพเฟคส์ที่แนนซี เพโลซี จากพรรคเดโมแครตพูดด้วยน้ำเสียงเหมือนเมา ซึ่งมีคนแชร์เยอะและมียอดคนดูหลายล้านวิว คนไม่ได้ดูแล้วสงสัยว่าวิดีโอนี้จริงหรือไม่ แต่ดูเพื่อตอกย้ำสิ่งที่พวกเขาคิดเกี่ยวกับเพโลซี แล้วจึงแชร์วิดีโอต่อไปแม้จะรู้ว่าเป็นวิดีโอที่ตัดต่อขึ้นก็ตาม