ผลต่างระหว่างรุ่นของ "เอนโทรปีของข้อมูล"

เนื้อหาที่ลบ เนื้อหาที่เพิ่ม
BotKung (คุย | ส่วนร่วม)
เก็บกวาด +แจ้งรอตรวจสอบด้วยบอต
Iamion (คุย | ส่วนร่วม)
บรรทัด 1:
{{รอการตรวจสอบ}}
[[ภาพ:Binary entropy plot.png|thumbnail|right|200px|เอนโทรปีของ[[การทดลองแบร์นูลี]]ซึ่งเป็นฟังก์ชันของโอกาสสำเร็จ]]
 
เส้น 6 ⟶ 5:
[[เอนโทรปี]]เป็นแนวคิดของ[[เทอร์โมไดนามิคส์]] [[กลศาสตร์ทางสถิติ]] และ [[ทฤษฎีข้อมูล]] แนวคิดของเอนโทรปีกับเรื่องของข้อมูลมีความเกี่ยวพันกันอย่างมาก อย่างไรก็ตามกว่าที่กลศาสตร์ทางสถิติและทฤษฎีข้อมูล จะพัฒนามาจนความสัมพันธ์นี้ปรากฏขึ้น ก็ใช้เวลานานทีเดียว บทความนี้เป็นบทความเกี่ยวกับเอนโทรปีของข้อมูล (กฎเกณฑ์ของเอนโทรปีที่เกี่ยวข้องกับข้อมูลเชิงทฤษฎี)
 
ตัวอย่างเช่น พิจารณาข้อความในภาษาไทย ซึ่งประกอบด้วยตัวอักษรและเครื่องหมายต่าง ๆ (ซึ่งสัญญาณของเราในที่นี้ ก็คือลำดับของตัวอักษรและเครื่องหมายนั่นเอง) สังเกตว่าตัวอักษรบางตัวมีโอกาสปรากฏขึ้นมาน้อยมาก (เช่น ฮ) แต่บางตัวกลับปรากฏบ่อยมาก (เช่น อ) ดังนั้นข้อความภาษาไทยนั้นก็ไม่ได้เรียกว่าสุ่มซะทีเดียว (ถ้าสุ่มจริง ข้อความน่าจะออกมาเป็นคำมั่ว ๆ อ่านไม่ได้ใจความ) อย่างไรก็ตาม ถ้าเราได้คำชุดหนึ่งมา เราก็ไม่อาจคาดเดาได้ว่าคำต่อไปเป็นคำว่าอะไร แสดงว่ามันก็มี'ความสุ่ม'อยู่บ้าง ไม่ได้เที่ยงแท้ซะทีเดียว เอนโทรปีก็คือการวัดระดับความสุ่มนี้นั่นเอง โดยกำเนิดมาจากผลงานของ [[เคลาด์คลาวด์ อี แชนนอน]] ในปี[[พ.ศ. 2491]] (ค.ศ. 1948) ชื่อ ''A Mathematical Theory of Communication'' [http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html A Mathematical Theory of Communication]
 
แชนนอนสร้างบทนิยามของเอนโทรปีขึ้นจากข้อสมมติฐานว่า