ไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์ - วิกิพีเดีย ข้ามไปเนื้อหา

ไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์

จากวิกิพีเดีย สารานุกรมเสรี

 ไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์ (Kullback–Leibler divergence) หรือเรียกย่อว่า ไดเวอร์เจนซ์เคแอล (KL divergence) เป็นมาตรวัดความแตกต่างระหว่างการแจกแจงความน่าจะเป็น 2 ครั้ง

ค่านี้มีการใช้งานในทฤษฎีความน่าจะเป็น และ ทฤษฎีสารสนเทศ และมีชื่อเรียกอื่นอีกหลายชื่อ เช่น

  • ไดเวอร์เจนซ์ข้อมูล (information divergence)
  • ไดเวอร์เจนซ์ไอ (I divergence)[1]
  • อัตราการขยายข้อมูล (information gain)
  • เอนโทรปีสัมพัทธ์ (relative entropy)

นอกจากนี้ยังมีชื่อเรียกว่า ระยะทางคัลแบ็ก–ไลบ์เลอร์ ด้วย อย่างไรก็ตาม หน่วยวัดนี้ไม่เป็นไปตามนิยามความหมายของระยะทาง ดังนั้นจึงไม่ใช่ระยะทางจริงในแง่คณิตศาสตร์

ในการใช้งานจริง มักจะทำการคำนวณไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์สำหรับการแจกแจงความน่าจะเป็น "ที่แท้จริง" P และการแจกแจงความน่าจะเป็นอื่นๆ Q ตัวอย่างเช่นให้ P เป็นข้อมูล, ค่าที่สังเกตได้, การแจกแจงความน่าจะเป็นที่คำนวณได้อย่างแม่นยำ ฯลฯ ส่วน Q เป็นค่าทางทฤษฎี ค่าแบบจำลอง ค่าที่ทำนายของ P เป็นต้น

แนวคิดนี้ถูกใช้ครั้งแรกในปี 1951 โดย โซโลมอน คัลแบ็ก (Solomon Kullback) และ ริชาร์ด ไลบ์เลอร์ (Richard Leibler) เพื่อพิจารณาความแตกต่างระหว่างการแจกแจง 2 แบบ แนวคิดนี้แตกต่างจาก ไดเวอร์เจนซ์ ในการวิเคราะห์เวกเตอร์

ไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์ไม่เพียงแต่ถูกนิยามสำหรับการแจกแจงแบบไม่ต่อเนื่องเท่านั้น แต่ยังรวมถึงการแจกแจงแบบต่อเนื่องด้วย และไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์สำหรับการแจกแจงแบบต่อเนื่องจะไม่เปลี่ยนค่าไปเนื่องจากการแปลงตัวแปร ดังนั้นจึงอาจกล่าวได้ว่าเป็นมูลฐานมากกว่าปริมาณอื่นๆ ในทฤษฎีสารสนเทศ เช่น เอนโทรปีของข้อมูล ซึ่งไม่ได้นิยามไว้ในส่วนที่เกี่ยวกับความน่าจะเป็นแบบไม่ต่อเนื่อง และยังเปลี่ยนแปลงไปเมื่อมีการแปลงตัวแปร

คำนิยาม

[แก้]

ให้ P และ Q มีการแจกแจงแบบไม่ต่อเนื่องค่าไดเวอร์เจนซ์คัลแบ็ก–ไลบ์เลอร์สำหรับ P และ Q จะนิยามได้ดังนี้

โดยที่ P(i) และ Q(i) คือความน่าจะเป็นที่ค่าของตัวแปรสุ่มตามการแจกแจงความน่าจะเป็น P และ Q จะเป็น i ตามลำดับ

ส่วนในกรณีที่ P และ Q เป็นการแจกแจงความน่าจะเป็นแบบต่อเนื่อง จะนิยามดังนี้

ในที่นี้ p และ q เป็นฟังก์ชันความหนาแน่นของความน่าจะเป็นของ P และ Q ตามลำดับ

หรือโดยทั่วไปแล้ว ในกรณีที่ P กับ Q เป็น หน่วยวัดความน่าจะเป็นบนเซตที่วัดได้ X และ P กับ Q มี ความต่อเนื่องสัมบูรณ์ต่อมาตรวัด μ จะสามารถนิยามได้ว่า

โดนในที่นี้ dP/dμ และ dQ/dμ เป็นค่าอนุพันธ์ราดอน–นีโกดิม (Radon–Nikodym derivative)

อ้างอิง

[แก้]
  1. Csiszar, I (February 1975). "I-Divergence Geometry of Probability Distributions and Minimization Problems". Ann. Probab. 3 (1): 146–158. doi:10.1214/aop/1176996454.