More Info
KPOP Image Download
  • Top University
  • Top Anime
  • Home Design
  • Top Legend



  1. ENSIKLOPEDIA
  2. Entropi (teori informasi) - Wikipedia bahasa Indonesia, ensiklopedia bebas
Entropi (teori informasi) - Wikipedia bahasa Indonesia, ensiklopedia bebas

Entropi (teori informasi)

  • Afrikaans
  • العربية
  • Boarisch
  • Български
  • Bosanski
  • Català
  • کوردی
  • Čeština
  • Cymraeg
  • Dansk
  • Deutsch
  • Ελληνικά
  • English
  • Español
  • Euskara
  • فارسی
  • Suomi
  • Français
  • Galego
  • עברית
  • Magyar
  • Italiano
  • 日本語
  • 한국어
  • Lietuvių
  • Олык марий
  • Nederlands
  • ਪੰਜਾਬੀ
  • Polski
  • Português
  • Română
  • Русский
  • Simple English
  • Slovenčina
  • Slovenščina
  • Shqip
  • Српски / srpski
  • Sunda
  • Svenska
  • ไทย
  • Türkçe
  • Українська
  • اردو
  • Tiếng Việt
  • 中文
  • 粵語
Sunting pranala
  • Halaman
  • Pembicaraan
  • Baca
  • Sunting
  • Sunting sumber
  • Lihat riwayat
Perkakas
Tindakan
  • Baca
  • Sunting
  • Sunting sumber
  • Lihat riwayat
Umum
  • Pranala balik
  • Perubahan terkait
  • Pranala permanen
  • Informasi halaman
  • Kutip halaman ini
  • Lihat URL pendek
  • Unduh kode QR
Cetak/ekspor
  • Buat buku
  • Unduh versi PDF
  • Versi cetak
Dalam proyek lain
  • Wikimedia Commons
  • Butir di Wikidata
Tampilan
Dari Wikipedia bahasa Indonesia, ensiklopedia bebas

Dalam teori informasi, entropi variabel acak adalah tingkat rata-rata "informasi", "kejutan", atau "ketidakpastian" yang melekat pada kemungkinan hasil variabel. Diberikan variabel acak diskrit X {\displaystyle X} {\displaystyle X}, yang mengambil nilai dalam alfabet X {\displaystyle {\mathcal {X}}} {\displaystyle {\mathcal {X}}} dan didistribusikan menurut p : X → [ 0 , 1 ] {\displaystyle p:{\mathcal {X}}\to [0,1]} {\displaystyle p:{\mathcal {X}}\to [0,1]} :

H ( X ) = − ∑ i = 1 n P ( x i ) log ⁡ P ( x i ) {\displaystyle \mathrm {H} (X)=-\sum _{i=1}^{n}{\mathrm {P} (x_{i})\log \mathrm {P} (x_{i})}} {\displaystyle \mathrm {H} (X)=-\sum _{i=1}^{n}{\mathrm {P} (x_{i})\log \mathrm {P} (x_{i})}}

di mana Σ {\displaystyle \Sigma } {\displaystyle \Sigma } menunjukkan jumlah atas nilai-nilai variabel yang mungkin. Pilihan dasar untuk log {\displaystyle \log } {\displaystyle \log }, logaritma, bervariasi untuk aplikasi yang berbeda. Basis 2 memberikan satuan bit (atau "shannon"), sedangkan basis e memberikan "satuan alami" nat, dan basis 10 memberikan satuan "dit", "ban", atau "hartley". Definisi entropi yang setara adalah nilai yang diharapkan dari informasi diri suatu variabel.[1]

Konsep entropi informasi diperkenalkan oleh Claude Shannon dalam makalahnya tahun 1948 " Sebuah Teori Matematika Komunikasi ",[2][3] dan juga disebut sebagai entropi Shannon. Teori Shannon mendefinisikan sistem komunikasi data yang terdiri dari tiga elemen: sumber data, saluran komunikasi, dan penerima. "Masalah mendasar komunikasi" - seperti yang diungkapkan oleh Shannon - adalah agar penerima dapat mengidentifikasi data apa yang dihasilkan oleh sumber, berdasarkan sinyal yang diterimanya melalui saluran.[2][3] Shannon mempertimbangkan berbagai cara untuk mengkodekan, memampatkan, dan mengirimkan pesan dari sumber data, dan membuktikan dalam teorema pengkodean sumbernya yang terkenal bahwa entropi mewakili batas matematis absolut tentang seberapa baik data dari sumber dapat dimampatkan tanpa mengalami kehilangan ke saluran tanpa derau sama sekali. Shannon memperkuat hasil ini secara signifikan untuk saluran berderau dalam teorema pengkodean saluran berderaunya.

Entropi dalam teori informasi secara langsung dianalogikan dengan entropi dalam termodinamika statistik. Hasil analogi ketika nilai-nilai variabel acak menunjukkan energi keadaan mikro, sehingga rumus Gibbs untuk entropi secara formal identik dengan rumus Shannon. Entropi memiliki relevansi dengan bidang matematika lainnya seperti kombinatorika dan pembelajaran mesin. Definisi tersebut dapat diturunkan dari serangkaian aksioma yang menetapkan bahwa entropi harus menjadi ukuran seberapa "mengejutkan" hasil rata-rata suatu variabel. Untuk variabel acak kontinu, entropi diferensial analog dengan entropi.

Referensi

[sunting | sunting sumber]
  1. ^ Pathria, R. K.; Beale, Paul (2011). Statistical Mechanics (Edisi Third). Academic Press. hlm. 51. ISBN 978-0123821881.
  2. ^ a b Shannon, Claude E. (July 1948). "A Mathematical Theory of Communication". Bell System Technical Journal. 27 (3): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x. (PDF, archived from here)
  3. ^ a b Shannon, Claude E. (October 1948). "A Mathematical Theory of Communication". Bell System Technical Journal. 27 (4): 623–656. doi:10.1002/j.1538-7305.1948.tb00917.x. (PDF, archived from here)

This article incorporates material from Shannon's entropy on PlanetMath, which is licensed under the Creative Commons Attribution/Share-Alike License.

Bacaan lebih lanjut

[sunting | sunting sumber]
  • Cover, T.M., Thomas, J.A. (2006), Elements of Information Theory - 2nd Ed., Wiley-Interscience, ISBN 978-0-471-24195-9
  • MacKay, D.J.C. (2003), Information Theory, Inference and Learning Algorithms , Cambridge University Press, ISBN 978-0-521-64298-9
  • Arndt, C. (2004), Information Measures: Information and its Description in Science and Engineering, Springer, ISBN 978-3-540-40855-0
  • Gray, R. M. (2011), Entropy and Information Theory, Springer.
  • Mathematical Theory of Entropy. Cambridge University Press. 2011. ISBN 978-0-521-17738-2.
  • Shannon, C.E., Weaver, W. (1949) The Mathematical Theory of Communication, Univ of Illinois Press. ISBN 0-252-72548-4ISBN 0-252-72548-4
  • Stone, J. V. (2014), Chapter 1 of Information Theory: A Tutorial Introduction, University of Sheffield, England. ISBN 978-0956372857ISBN 978-0956372857.

Pranala luar

[sunting | sunting sumber]
  • Hazewinkel, Michiel, ed. (2001) [1994], "Entropy", Encyclopedia of Mathematics, Springer Science+Business Media B.V. / Kluwer Academic Publishers, ISBN 978-1-55608-010-4
  • "Entropy" at Rosetta Code—repository of implementations of Shannon entropy in different programming languages.
  • Entropy an interdisciplinary journal on all aspects of the entropy concept. Open access.
Ikon rintisan

Artikel bertopik matematika ini adalah sebuah rintisan. Anda dapat membantu Wikipedia dengan mengembangkannya.

  • l
  • b
  • s
Diperoleh dari "https://id.wikipedia.org/w/index.php?title=Entropi_(teori_informasi)&oldid=21702189"
Kategori:
  • Keserampangan statistik
  • Teori informasi
  • Entropi dan informasi
  • Kompresi data
Kategori tersembunyi:
  • Pages using the JsonConfig extension
  • Galat CS1: parameter tidak didukung
  • Semua artikel rintisan
  • Semua artikel rintisan selain dari biografi
  • Rintisan bertopik matematika
  • Semua artikel rintisan September 2022

Best Rank
More Recommended Articles