
Un mot étrange s’est imposé dans le vocabulaire de la tech en 2025 : sycophancy. Derrière ce terme se cache un risque bien réel pour les utilisateurs de l’intelligence artificielle, notamment les plus jeunes.
La sycophancy, ce terme anglais que l’on peut traduire par flagornerie ou flatterie, désigne la tendance de certains modèles d’IA à aller systématiquement dans le sens de l’utilisateur, quitte à valider des propos inexacts ou dangereux. Un biais problématique, car une IA trop complaisante ne corrige plus les erreurs et peut renforcer des croyances fausses, notamment dans des domaines sensibles comme l’information, la santé, l’éducation ou l’aide à la décision.
Ce phénomène, désormais bien documenté par la recherche, trouve son origine dans les données humaines utilisées pour entraîner les modèles et dans la recherche d’interactions positives.
Grégory Renard, spécialiste de l’intelligence artificielle et cofondateur de l’association Everyone.ai, alerte sur les dérives possibles, y compris l’addiction aux chatbots et les risques psychologiques pour les plus jeunes.
Les concepteurs de modèles travaillent à des garde-fous, via le nettoyage des données et l’alignement des IA, mais le problème reste loin d’être totalement résolu.
-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com
Hébergé par Audiomeans. Visitez audiomeans.fr/politique-de-confidentialite pour plus d'informations.
Otros episodios de "Monde Numérique (Actu Tech)"



No te pierdas ningún episodio de “Monde Numérique (Actu Tech)”. Síguelo en la aplicación gratuita de GetPodcast.







