Сколько информации содержится в генетическом коде человека? Какова взаимная информация между текстами романов “Война и мир” и “Анна Каренина”?
Чтобы попытаться ответить на эти вопросы (или хотя бы понять, есть в них какой-то смысл), нужно уточнить понятие “количество информации”. Математики и инженеры в разных контекстах используют разные определения информации: комбинаторное определение информации по Хартли, вероятностное определение энтропии Шеннона, алгоритмическое определение сложности по Колмогорову.
В курсе мы изучим эти определения и обсудим их области применения:
Date and time | Class|Name | Venue|short | Materials |
---|---|---|---|
04 April 17:20–18:55 |
Комбинаторный подход к определению понятия информации, информация по Хартли, Lecture | ПОМИ РАН | video |
04 April 19:15–20:50 |
Вероятностный подход к определению понятия информации, информация по Шеннону, Lecture | ПОМИ РАН | video |
05 April 11:15–12:50 |
Вокруг теоремы Шеннона об оптимальном кодировании, Lecture | ПОМИ РАН | video |
05 April 13:00–14:35 |
Блоковое кодирование, информационные неравенства, Lecture | ПОМИ РАН | video |
05 April 15:35–17:00 |
Энтропийные профили наборов случайных величин и информационные неравенства, Lecture | ПОМИ РАН | video |
11 April 17:20–18:55 |
Энтропия в классической криптографии, Lecture | ПОМИ РАН | video |
11 April 19:15–20:50 |
Колмогоровская сложность, Lecture | ПОМИ РАН | video |
12 April 11:15–12:50 |
Приложения колмогоровской сложности, Lecture | ПОМИ РАН | video |
12 April 13:00–14:35 |
Случайность по Мартин-Лёфу, Lecture | ПОМИ РАН | video |
12 April 15:35–17:10 |
Коммуникационная сложность, Lecture | ПОМИ РАН | video |