ผลต่างระหว่างรุ่นของ "เอนโทรปีของข้อมูล"

เนื้อหาที่ลบ เนื้อหาที่เพิ่ม
TXiKiBoT (คุย | ส่วนร่วม)
โรบอต เพิ่ม: sl:Entropija (informatika)
Xqbot (คุย | ส่วนร่วม)
โรบอต เพิ่ม: ckb:ئانترۆپیی زانیاری; ปรับแต่งให้อ่านง่าย
บรรทัด 27:
เมื่อ K เป็นค่าคงตัวใดๆ (และจะเห็นได้ว่ามันเป็นเพียงค่าที่เปลี่ยนไปตามหน่วยวัดเท่านั้นเอง)
 
แชนนอนให้นิยามการวัดเอนโทรปี (''H'' = − ''p<sub>1</sub>'' log<sub>2</sub> ''p<sub>1</sub>'' − &hellip; − ''p<sub>n</sub>'' log<sub>2</sub> ''p<sub>n</sub>'') ว่า เมื่อนำไปวัดที่แหล่งข้อมูล จะสามารถบ่งบอกขนาดที่เล็กที่สุดเท่าที่เป็นไปได้ ของช่องสัญญาณที่ใช้ในการส่งข้อมูลฐานสองได้อย่างถูกต้อง สูตรนี้สามารถสร้างขึ้นมาได้จากการคำนวณค่าคาดหวัง (expectation) ของ ''ปริมาณของข้อมูล'' ที่อยู่ในแต่ละหลักของ
แหล่งข้อมูล ค่าเอนโทรปีของแชนนอนนี้ได้กลายมาเป็นตัววัดความไม่แน่นอนของตัวแปรสุ่ม และดังนั้นจึงเป็นตัวบอกเกี่ยวกับข้อมูลที่บรรจุอยู่ในข้อความ เมื่อเปรียบเทียบกับส่วนของข้อความที่สามารถคาดการณ์ได้โดยโครงสร้างของมันเอง ตัวอย่างเช่น การใช้คำฟุ่มเฟือยในภาษาสื่อสาร หรือความถี่ของการเกิดตัวอักษรหรือคำแต่ละคู่หรือแต่ละชุด ดู[[ห่วงโซ่มาร์คอฟ]]เพิ่มเติม
 
บรรทัด 47:
ถ้าเราใช้สูตรของ Stirling ในการประมาณค่าแฟกทอเรียล และหาลิมิตของ H (X) โดยที่ค่า k เข้าใกล้อนันต์ เราจะได้ผลลัพธ์คือ
::<math> H (X) = -K\sum_{i=1}^np (i) \log p (i).\,\!</math>
โดยที่ <math> p_i = k_i/ k </math> เป็นความถี่ของการเกิดข้อมูลชนิดที่ i
{{โครงคอม}}
 
[[หมวดหมู่:วิทยาการสารสนเทศ|อเนทโรปีของข้อมูล]]
[[หมวดหมู่:ทฤษฎีข้อมูล|อเนทโรปีของข้อมูล]]
[[หมวดหมู่:สถิติ|อเนทโรปีของข้อมูล]]
[[หมวดหมู่:การสุ่ม|อเนทโรปีของข้อมูล]]
{{โครงคอม}}
 
[[bar:Entropie (Informationstheorie)]]
[[bg:Ентропия на Шанън]]
[[ckb:ئانترۆپیی زانیاری]]
[[cy:Entropi gwybodaeth]]
[[de:Entropie (Informationstheorie)]]