Injecter de la justice dans les modèles d’apprentissage automatique | Nouvelles du MIT
Si un modèle d’apprentissage automatique est formé à l’aide d’un ensemble de données déséquilibré, par exemple contenant plus d’images de personnes à la peau claire que de personnes à la peau foncée, il existe un risque sérieux que les prédictions du modèle soient injustes lorsqu’elles sont utilisées dans le monde réel. Mais ce n’est qu’une …