Curso 04

Uma introdução prática a Knowledge Distillation em Imagens Médicas

Foto de Mirela Teixeira Cazzolato

Ministrante
Mirela Teixeira Cazzolato (ICMC / USP)
LinkedIn
Foto de Graciella dos Santos Favoreto

Colaboração
Graciella dos Santos Favoreto (ICMC / USP)
LinkedIn
Foto de Mariana Aya Suzuki Uchida

Colaboração
Mariana Aya Suzuki Uchida (ICMC / USP)
LinkedIn
Resumo:
Neste curso, serão abordados conceitos fundamentais de Knowledge Distillation (KD), com exposição teórica e prática dos modelos, sua aplicabilidade e a importância do KD no domínio médico e na tarefa de classificação de imagens. Serão apresentadas noções teóricas básicas de processamento de imagens, pré-processamento, conceitos de KD e de função de perda. Na parte prática do curso, será desenvolvido um pipeline básico utilizando bibliotecas Python abertas, exemplificando os conceitos expostos e a utilidade da abordagem no domínio médico.

Data/Hora: Em breve, será divulgado.
Modalidade: Online / Zoom
Carga Horária: 4 horas