Sécurité de l'IA

Des chercheurs du MIT identifient des défaillances critiques de modèles d'apprentissage automatique dans des scénarios hors distribution

Des chercheurs du MIT identifient des défaillances critiques de modèles d'apprentissage automatique dans des scénarios hors distribution

Les chercheurs du MIT démontrent que les modèles d'apprentissage automatique les plus performants peuvent devenir les moins performants lorsqu'ils sont appliqués à de nouveaux environnements de données, révélant des risques cachés liés à des corrélations fallacieuses dans l'IA médicale et d'autres applications critiques.

Superintelligence IA : une menace pour l'humanité que nous pouvons et devons arrêter, soutient un professeur d'IA

Superintelligence IA : une menace pour l'humanité que nous pouvons et devons arrêter, soutient un professeur d'IA

Un article d'opinion dans USA Today rédigé par un professeur d'IA soutient que la recherche de la superintelligence artificielle représente un risque existentiel pour l'humanité. L'auteur appelle à des accords internationaux pour arrêter la production de puces avancées pour l'IA, soulignant le rôle crucial d'entreprises comme TSMC et ASML dans la chaîne d'approvisionnement matérielle de l'IA.

Vedettes