Página InicialGruposDiscussãoMaisZeitgeist
Pesquisar O Sítio Web
Este sítio web usa «cookies» para fornecer os seus serviços, para melhorar o desempenho, para analítica e (se não estiver autenticado) para publicidade. Ao usar o LibraryThing está a reconhecer que leu e compreende os nossos Termos de Serviço e Política de Privacidade. A sua utilização deste sítio e serviços está sujeita a essas políticas e termos.

Resultados dos Livros Google

Carregue numa fotografia para ir para os Livros Google.

A carregar...

Mathematical Foundations of Information Theory (1953)

por A. Ya. Khinchin

MembrosCríticasPopularidadeAvaliação médiaMenções
1572173,841 (3.67)1
The first comprehensive introduction to information theory, this text explores the work begun by Shannon and continued by McMillan, Feinstein, and Khinchin. Its rigorous treatment addresses the entropy concept in probability theory and fundamental theorems as well as ergodic sources, the martingale concept, anticipation and memory, and other subjects. 1957 edition.… (mais)
Nenhum(a)
A carregar...

Adira ao LibraryThing para descobrir se irá gostar deste livro.

Ainda não há conversas na Discussão sobre este livro.

» Ver também 1 menção

Mostrando 2 de 2
This book develops Information Theory slightly further than Claude Shannon did. Although Khinchin praises Shannon for going and producing the ideas of Information Theory by himself, he acknowledges that the cases presented by Shannon were rather limited in scope to simplify the solutions.

The book as a whole is divided into two major sections; the first is called The Entropy Concept in Probability Theory and the second is called On The Fundamental Theorems of Information Theory. Both of these were originally papers printed by academic journals in the Russian Language.

The book was interesting, but I did pick out another short one, this book was only 120 pages long. ( )
  Floyd3345 | Jun 15, 2019 |
Indeholder "The Entropy Concept in Probability Theory", " 1. Entropy of Finite Schemes", " 2. The Uniqueness Theorem", " 3. Entropy of Markov chains", " 4. Fundamental Theorems", " 5. Application to Coding Theory", "On the Fundamental Theorems of Information Theory", " Introduction", " Chapter I. Elementary Inequalities", " 1. Two generalizations of Shannon's inequality", " 2. Three inequalities of Feinstein", " Chapter II. Ergodic Sources", " 3. Concept of a source. Stationarity. Entropy", " 4. Ergodic Sources", " 5. The E property. McMillan's theorem", " 6. The martingale concept. Doob's theorem", " 7. Auxiliary proposisions", " 8. Proof of McMillan's theorem", " Chapter III. Channels and the sources driving them", " 9. Concept of channel. Noise. Stationarity. Anticipation and memory", " 10. Connection of the channel to the source", " 11. The ergodic case", " Chapter IV. Feinstein's Fundamental Lemma", " 12. Formulation of the problem", " 13. Proof of the lemma", " Chapter V. Shannon's Theorems", " 14. Coding", " 15. The first Shannon theorem", " 16. The second Shannon theorem.", "Conclusion", "References".

"The Entropy Concept in Probability Theory" handler om ???
" 1. Entropy of Finite Schemes" handler om ???
" 2. The Uniqueness Theorem" handler om ???
" 3. Entropy of Markov chains" handler om ???
" 4. Fundamental Theorems" handler om ???
" 5. Application to Coding Theory" handler om ???
"On the Fundamental Theorems of Information Theory" handler om ???
" Introduction" handler om ???
" Chapter I. Elementary Inequalities" handler om ???
" 1. Two generalizations of Shannon's inequality" handler om ???
" 2. Three inequalities of Feinstein" handler om ???
" Chapter II. Ergodic Sources" handler om ???
" 3. Concept of a source. Stationarity. Entropy" handler om ???
" 4. Ergodic Sources" handler om ???
" 5. The E property. McMillan's theorem" handler om ???
" 6. The martingale concept. Doob's theorem" handler om ???
" 7. Auxiliary proposisions" handler om ???
" 8. Proof of McMillan's theorem" handler om ???
" Chapter III. Channels and the sources driving them" handler om ???
" 9. Concept of channel. Noise. Stationarity. Anticipation and memory" handler om ???
" 10. Connection of the channel to the source" handler om ???
" 11. The ergodic case" handler om ???
" Chapter IV. Feinstein's Fundamental Lemma" handler om ???
" 12. Formulation of the problem" handler om ???
" 13. Proof of the lemma" handler om ???
" Chapter V. Shannon's Theorems" handler om ???
" 14. Coding" handler om ???
" 15. The first Shannon theorem" handler om ???
" 16. The second Shannon theorem." handler om ???
"Conclusion" handler om ???
"References" handler om ???

Informationsteori som matematisk disciplin. Doob, Feinstein og Shannon. ( )
  bnielsen | Jan 9, 2017 |
Mostrando 2 de 2
sem críticas | adicionar uma crítica
Tem de autenticar-se para poder editar dados do Conhecimento Comum.
Para mais ajuda veja a página de ajuda do Conhecimento Comum.
Título canónico
Título original
Títulos alternativos
Informação do Conhecimento Comum em inglês. Edite para a localizar na sua língua.
Data da publicação original
Pessoas/Personagens
Locais importantes
Acontecimentos importantes
Filmes relacionados
Epígrafe
Dedicatória
Primeiras palavras
Citações
Últimas palavras
Nota de desambiguação
Editores da Editora
Autores de citações elogiosas (normalmente na contracapa do livro)
Língua original
DDC/MDS canónico
LCC Canónico

Referências a esta obra em recursos externos.

Wikipédia em inglês (1)

The first comprehensive introduction to information theory, this text explores the work begun by Shannon and continued by McMillan, Feinstein, and Khinchin. Its rigorous treatment addresses the entropy concept in probability theory and fundamental theorems as well as ergodic sources, the martingale concept, anticipation and memory, and other subjects. 1957 edition.

Não foram encontradas descrições de bibliotecas.

Descrição do livro
Resumo Haiku

Current Discussions

Nenhum(a)

Capas populares

Ligações Rápidas

Géneros

Sistema Decimal de Melvil (DDC)

511Natural sciences and mathematics Mathematics General Principles

Classificação da Biblioteca do Congresso dos EUA (LCC)

Avaliação

Média: (3.67)
0.5
1
1.5
2
2.5
3 4
3.5
4 4
4.5
5 1

É você?

Torne-se num Autor LibraryThing.

 

Acerca | Contacto | LibraryThing.com | Privacidade/Termos | Ajuda/Perguntas Frequentes | Blogue | Loja | APIs | TinyCat | Bibliotecas Legadas | Primeiros Críticos | Conhecimento Comum | 204,713,087 livros! | Barra de topo: Sempre visível