What: | Lecture |
When: | Sunday, 17 May 2020, 18:30–20:00 |
Where: | Конференция в zoom, Онлайн |
Slides: | csseminar_lecture_170520.pdf |
Современные методы машинного обучения требуют большого количества данных. Самые крупные и репрезентативные наборы данных могут быть собраны только при условии строжайшего сохранения их приватности, что, конечно же, включает информацию, которая может быть заключена в натренированных моделях. В первой части мы рассмотрим несколько широко известных инцидентов, связанных с (непредумышленной) утечкой данных, и обсудим определение дифференциальной приватности. Во второй части мы изучим, как это определение может применяться на практике к методам машинного обучения.