Логика

Список источников > Нехудожественная литература > Общественные и гуманитарные науки > Философия > Логика

Entropy (information theory)

Автор: Jesse Russell
Год: 2013
Издание: Книга по Требованию
Страниц: 100
ISBN: 9785509385148
High Quality Content by WIKIPEDIA articles! In information theory, entropy is a measure of the uncertainty in a random variable. In this context, the term usually refers to the Shannon entropy, which quantifies the expected value of the information contained in a message. Entropy is typically measured in bits, nats, or bans. Данное издание представляет собой компиляцию сведений, находящихся в свободном доступе в среде Интернет в целом, и в информационном сетевом ресурсе "Википедия" в частности. Собранная по частотным запросам указанной тематики, данная компиляция построена по принципу подбора близких информационных ссылок, не имеет самостоятельного сюжета, не содержит никаких аналитических материалов, выводов, оценок морального, этического, политического, религиозного и мировоззренческого характера в отношении главной тематики, представляя собой исключительно фактологический материал.
Добавлено: 2015-04-23 01:14:27