-
Investigadores de IBM desarrollan defensas contra ataques a modelos de Deep Learning
Por: Equipo “Cápsula Informativa” Los atacantes pueden comprometer la integridad de los modelos de Deep Learning durante el entrenamiento o el tiempo de ejecución, robar información propietaria de los modelos implementados, o incluso…