Что: | Лекция |
Когда: | Воскресенье, 17 мая 2020, 18:30–20:00 |
Где: | Конференция в zoom, Онлайн |
Слайды: | csseminar_lecture_170520.pdf |
Современные методы машинного обучения требуют большого количества данных. Самые крупные и репрезентативные наборы данных могут быть собраны только при условии строжайшего сохранения их приватности, что, конечно же, включает информацию, которая может быть заключена в натренированных моделях. В первой части мы рассмотрим несколько широко известных инцидентов, связанных с (непредумышленной) утечкой данных, и обсудим определение дифференциальной приватности. Во второй части мы изучим, как это определение может применяться на практике к методам машинного обучения.