Сколько информации содержится в генетическом коде человека? Какова взаимная информация между текстами романов “Война и мир” и “Анна Каренина”?
Чтобы попытаться ответить на эти вопросы (или хотя бы понять, есть в них какой-то смысл), нужно уточнить понятие “количество информации”. Математики и инженеры в разных контекстах используют разные определения информации: комбинаторное определение информации по Хартли, вероятностное определение энтропии Шеннона, алгоритмическое определение сложности по Колмогорову.
В курсе мы изучим эти определения и обсудим их области применения:
Дата и время | Занятие | Место | Материалы |
---|---|---|---|
04 апреля 17:20–18:55 |
Комбинаторный подход к определению понятия информации, информация по Хартли, Лекция | ПОМИ РАН | видео |
04 апреля 19:15–20:50 |
Вероятностный подход к определению понятия информации, информация по Шеннону, Лекция | ПОМИ РАН | видео |
05 апреля 11:15–12:50 |
Вокруг теоремы Шеннона об оптимальном кодировании, Лекция | ПОМИ РАН | видео |
05 апреля 13:00–14:35 |
Блоковое кодирование, информационные неравенства, Лекция | ПОМИ РАН | видео |
05 апреля 15:35–17:00 |
Энтропийные профили наборов случайных величин и информационные неравенства, Лекция | ПОМИ РАН | видео |
11 апреля 17:20–18:55 |
Энтропия в классической криптографии, Лекция | ПОМИ РАН | видео |
11 апреля 19:15–20:50 |
Колмогоровская сложность, Лекция | ПОМИ РАН | видео |
12 апреля 11:15–12:50 |
Приложения колмогоровской сложности, Лекция | ПОМИ РАН | видео |
12 апреля 13:00–14:35 |
Случайность по Мартин-Лёфу, Лекция | ПОМИ РАН | видео |
12 апреля 15:35–17:10 |
Коммуникационная сложность, Лекция | ПОМИ РАН | видео |