สื่อลวงลึก

เทคโนโลยีการสังเคราะห์ภาพใบหน้ามนุษย์โดยใช้ปัญญาประดิษฐ์
(เปลี่ยนทางจาก ดีปเฟก)

สื่อลวงลึก[1] (อังกฤษ: deepfake, ประกอบขึ้นจากศัพท์ deep learning "การเรียนรู้เชิงลึก" และ fake "ปลอม")[2] คือสื่อสังเคราะห์[3] ที่ซึ่งบุคคลในรูปภาพหรือวิดีโอหนึ่ง ๆ ถูกแทนที่ด้วยลักษณะหรืออากัปกิริยาของบุคคลอื่น แม้ว่าการปลอมแปลงเนื้อหาจะไม่ใช่เรื่องใหม่ แต่สื่อลวงลึกก็ใช้เทคนิคอันทรงพลังจากการเรียนรู้ของเครื่องและปัญญาประดิษฐ์ในการบิดเบือนหรือสร้างเนื้อหาภาพและเสียงที่มีศักยภาพสูงในการหลอกลวง[4] วิธีการเรียนรู้ของเครื่องวิธีหลัก ๆ ที่ใช้ในการสร้างสื่อลวงลึกนั้นมีพื้นฐานมาจากการเรียนรู้เชิงลึกและเกี่ยวโยงกับการฝึกฝนข้อมูลสถาปัตยกรรมเครือข่ายประสาทเทียมอย่างตัวเข้ารหัสอัตโนมัติ[4] และเจเนอราทิฟแอดเวอร์แซเรียลเน็ตเวิร์ก[5][6] เป็นต้น

วิดีโอลวงลึกสวมรอยการกล่าวสุนทรพจน์ของวลาดีมีร์ ปูติน เตือนชาวอเมริกันเกี่ยวกับการเลือกตั้ง

สื่อลวงลึกได้รับความสนใจอย่างกว้างขวางจากการถูกนำไปใช้ในวิดีโอการมีเพศสัมพันธ์ของผู้มีชื่อเสียง สื่อลามกเพื่อแก้แค้น ข่าวปลอม เรื่องหลอกลวง และกลฉ้อฉลทางการเงิน[7][8][9][10] สถานการณ์นี้ก่อให้เกิดการตอบสนองจากทั้งภาคอุตสาหกรรมและภาครัฐบาลเพื่อตรวจจับและจำกัดการใช้งาน[11][12]

Deepfake คืออะไร? แก้

ศูนย์ธรรมาภิบาลปัญญาประดิษฐ์ ภายใต้สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์หรือ เอ็ตด้า (ETDA) ให้ข้อมูลว่า AI Deepfake[13] คือ Generative AI รูปแบบหนึ่ง ที่สามารถสร้างสื่อสังเคราะห์ ทั้งภาพนิ่ง เสียง ภาพเคลื่อนไหวพร้อมเสียง ได้เหมือนคนพูดจริงๆ จนแทบแยกไม่ออก ด้วยระบบการเรียนรู้หรือ Deep Learning จากลักษณะภายนอกของบุคคล เช่น สีผิว ตา ปาก จมูก รูปลักษณ์ต่างๆ ความฉลาดล้ำจากการเรียนรู้ข้อมูลมหาศาลของ Generative AI ทำให้สร้างภาพและเสียงได้ราวกับว่าคนคนนั้นเป็นคนพูดอยู่จริงโดยคำว่า “deep” มาจาก “deep learning” ซึ่งเป็นเทคนิคในการสร้างแบบจำลองทางคณิตศาสตร์ที่ซับซ้อน และ “fake” หมายถึงการปลอมแปลง

ดังนั้น Deepfake หมายถึง การปลอมแปลงสื่อสังเคราะห์โดยใช้เทคโนโลยีปัญญาประดิษฐ์ที่ซับซ้อน ทำงานโดยใช้เทคนิคการเรียนรู้เชิงลึก (deep learning) ซึ่งเป็นส่วนหนึ่งของปัญญาประดิษฐ์ โดยการสร้างแบบจำลองทางคณิตศาสตร์ที่ซับซ้อนเพื่อเรียนรู้รูปแบบและลักษณะของบุคคลที่ต้องการปลอมแปลง โดยใช้ข้อมูลเข้า (input data) เช่น ภาพถ่ายหรือวิดีโอของบุคคลนั้น ๆ และข้อมูลอื่น ๆ เพื่อสร้างภาพหรือวิดีโอที่เหมือนกับบุคคลนั้น ๆ

รูปแบบกลโกงและผลกระทบจาก Deepfake แก้

  • ทางเพศ: การสร้างวิดีโอหรือสื่อลามกอนาจาร ซึ่งมีการใช้ใบหน้าของบุคคลที่มีชื่อเสียง ซึ่งอาจทำให้เกิดผลกระทบทางสังคมและการเมือง การใช้กระทำในลักษณะนี้เป็นการกระทำที่ผิดกฎหมายและอาจสร้างผลกระทบทางจิตใจร้ายแรงให้แก่เหยื่ออีกด้วย
  • ทางการเมือง: การสร้างวิดีโอปลอมแปลงใบหน้านักการเมือง ซึ่งอาจทำให้เกิดกระแสข่าวปลอมที่สามารถส่งผลกระทบร้ายแรงต่อกระบวนการประชาธิปไตย ความไว้วางใจของสถาบัน และชื่อเสียงของประเทศได้
  • ทางธุรกิจและกฎหมาย: การใช้ Deepfake อาจทำให้เกิดความสับสนและความไม่เชื่อถือในระบบกฎหมาย สามารถเป็นเครื่องมือในการก่อกวนระบบกฎหมาย และทำให้เกิดความสับสนในการตรวจสอบความถูกต้องของข้อมูล นอกจากนี้ยังสามารถใช้ในการสร้างวิดีโอปลอมแปลงผู้บริหารหรือนักลงทุน ซึ่งอาจทำให้เกิดความสับสนและการฉ้อโกงทางธุรกิจซึ่งส่งผลกระทบทางการเงินและตลาดทุน[14]

อ้างอิง แก้

  1. สำนักงานราชบัณฑิตยสภา. พจนานุกรมศัพท์นิเทศศาสตร์ร่วมสมัย ฉบับราชบัณฑิตยสภา. กรุงเทพฯ : สำนักงานราชบัณฑิตยสภา, 2566, หน้า 55.
  2. Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2018-02-20.
  3. "Prepare, Don't Panic: Synthetic Media and Deepfakes". witness.org. สืบค้นเมื่อ 25 November 2020.
  4. 4.0 4.1 Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?". Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006.
  5. Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (ภาษาอังกฤษ). สืบค้นเมื่อ 14 November 2018.
  6. PhD, Sven Charleer (2019-05-17). "Family fun with deepfakes. Or how I got my wife onto the Tonight Show". Medium (ภาษาอังกฤษ). สืบค้นเมื่อ 2019-11-08.
  7. "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety (ภาษาอังกฤษแบบอเมริกัน). 2018-02-20. สืบค้นเมื่อ 2018-02-20.
  8. "Experts fear face swapping tech could start an international showdown". The Outline (ภาษาอังกฤษ). สืบค้นเมื่อ 2018-02-28.
  9. Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (ภาษาอังกฤษแบบอเมริกัน). ISSN 0362-4331. สืบค้นเมื่อ 2018-03-24.
  10. Schreyer, Marco; Sattarov, Timur; Reimer, Bernd; Borth, Damian (October 2019), Adversarial Learning of Deepfakes in Accounting (ภาษาอังกฤษ), arXiv:1910.03810, Bibcode:2019arXiv191003810S
  11. Ghoshal, Abhimanyu (2018-02-07). "Twitter, Pornhub and other platforms ban AI-generated celebrity porn". The Next Web (ภาษาอังกฤษแบบอเมริกัน). สืบค้นเมื่อ 2019-11-09.
  12. Clarke, Yvette D. (2019-06-28). "H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019". www.congress.gov. สืบค้นเมื่อ 2019-10-16.
  13. "รู้ทัน AI Deepfake เมื่อ…ภาพที่เห็น เสียงที่ได้ยิน อาจไม่ใช่เรื่องจริงเสมอไป!". ETDA.
  14. provider, trustfinance (2023-11-02). ""Deepfake" รู้ทันกลโกงจากแก๊งคอลเซนเตอร์". Blog - TrustFinance (ภาษาอังกฤษแบบอเมริกัน).