ระบบการแปลด้วยเครื่องประสาทของกูเกิล

ระบบการแปลด้วยเครื่องประสาทของกูเกิล (Google Neural Machine Translation, GNMT) เป็นระบบการแปลด้วยเครื่องประสาท (NMT) ที่พัฒนาโดยกูเกิล และเปิดตัวในเดือนพฤศจิกายน 2016 โดยใช้โครงข่ายประสาทเทียมเพื่อปรับปรุงความคล่องและความแม่นยำของกูเกิลแปลภาษา[1][2][3] ระบบการแปลด้วยเครื่องประสาทของกูเกิลปรับปรุงคุณภาพการแปลโดยใช้วิธี การแปลด้วยเครื่องฐานตัวอย่าง (example-based machine translation, EBMT) ซึ่งระบบจะเรียนรู้จากตัวอย่างนับล้านตัวอย่าง[2] ระบบการแปลนี้ได้รับการทดสอบครั้งแรกด้วยภาษามากกว่าหนึ่งร้อยภาษาที่กูเกิลแปลภาษารองรับ[2] ระบบจะเรียนรู้เมื่อเวลาผ่านไปเพื่อทำการแปลที่ดีขึ้นและเป็นธรรมชาติมากขึ้นเรื่อย ๆ[1] GNMT สามารถแปลประโยคทั้งหมดพร้อมกันแทนที่จะแปลคำต่อคำ[2][4]

ประวัติศาสตร์

แก้

โครงการกูเกิลเบรนก่อตั้งขึ้นในปี 2011 ในห้องปฏิบัติการลับของกูเกิลเอ็กซ์ โดยเจฟฟรีย์ ดีน และ เกรก คอร์ราโด นักวิจัยของกูเกิล และ แอนดรูว์ อึ่ง ศาสตราจารย์ด้านวิทยาการคอมพิวเตอร์จากมหาวิทยาลัยสแตนฟอร์ด[5][6][7] งานของอึ่งได้นำความก้าวหน้ามาสู่กูเกิลและมหาวิทยาลัยสแตนฟอร์ด[8]

ในเดือนกันยายน 2016 ทีมวิจัยของกูเกิลได้ประกาศการพัฒนาระบบการแปลด้วยเครื่องประสาทของกูเกิล ในเดือนพฤศจิกายนของปีเดียวกันกูเกิลแปลภาษาได้หยุดใช้เทคโนโลยีการแปลด้วยเครื่องเชิงสถิติ (SMT) ที่เป็นวิธีการซึ่งใช้มามานานตั้งแต่เดือนตุลาคม 2007 และเริ่มหันมาใช้การแปลด้วยเครื่องประสาท (NMT) แทน[1][9][10][11][12][13]

อ้างอิง

แก้
  1. 1.0 1.1 1.2 Barak Turovsky (2016-11-15), "Found in translation: More accurate, fluent sentences in Google Translate", Google Blog, คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-04-07, สืบค้นเมื่อ 2017-01-11
  2. 2.0 2.1 2.2 2.3 Mike Schuster, Melvin Johnson, and Nikhil Thorat (2016-11-22), "Zero-Shot Translation with Google's Multilingual Neural Machine Translation System", Google Research Blog, คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-07-10, สืบค้นเมื่อ 2017-01-11{{citation}}: CS1 maint: multiple names: authors list (ลิงก์)
  3. Gil Fewster (2017-01-05), "The mind-blowing AI announcement from Google that you probably missed", freeCodeCamp, คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-05-31, สืบค้นเมื่อ 2017-01-11
  4. Boitet, Christian; Blanchon, Hervé; Seligman, Mark; Bellynck, Valérie (2010). "MT on and for the Web" (PDF). คลังข้อมูลเก่าเก็บจากแหล่งเดิม (PDF)เมื่อ 2017-03-29. สืบค้นเมื่อ 2016-12-01.
  5. Jeff Dean and Andrew Ng (2012-06-26). "Using large-scale brain simulations for machine learning and A.I." คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2015-02-06. สืบค้นเมื่อ 2015-01-26.
  6. "Google's Large Scale Deep Neural Networks Project". คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2019-02-16. สืบค้นเมื่อ 2015-10-25.
  7. Markoff, John (2012-06-25). "How Many Computers to Identify a Cat? 16,000". New York Times. คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-05-09. สืบค้นเมื่อ 2014-02-11.
  8. Robert D. Hof (2014-08-14). "A Chinese Internet Giant Starts to Dream: Baidu is a fixture of online life in China, but it wants to become a global power. Can one of the world's leading artificial intelligence researchers help it challenge Silicon Valley's biggest companies?". Technology Review. คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2020-01-08. สืบค้นเมื่อ 2017-01-11.
  9. Katyanna Quach (2016-11-17), Google's neural network learns to translate languages it hasn't been trained on: First time machine translation has used true transfer learning, คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-05-06, สืบค้นเมื่อ 2017-01-11
  10. Lewis-Kraus, Gideon (2016-12-14). "The Great A.I. Awakening". The New York Times. คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-05-05. สืบค้นเมื่อ 2017-01-11.
  11. Le, Quoc (2016-09-27). "A Neural Network for Machine Translation, at Production Scale". Google Research Blog. Google. คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-05-11. สืบค้นเมื่อ 2016-12-01.
  12. Google Switches to its Own Translation System เก็บถาวร 2017-04-29 ที่ เวย์แบ็กแมชชีน, October 22, 2007
  13. Barry Schwartz (2007-10-23). "Google Translate Drops SYSTRAN for Home-Brewed Translation". Search Engine Land. คลังข้อมูลเก่าเก็บจากแหล่งเดิมเมื่อ 2017-05-21. สืบค้นเมื่อ 2017-07-06.