Pour certains modèles, réduire la variance d’une ou plusieurs variables d’entrée provoque une augmentation de la variance de la sortie du modèle. Ce phénomène n’est pas concevable dans le cadre des modèles linéaires décrits par le GUM, mais peut être, en revanche, observable par propagation des distributions sur des modèles non-linéaires. Dans tous les cas, les méthodes d’analyse de sensibilité basées sur une décomposition de la variance sont aveugles à ce phénomène. Actuellement, seule la méthode des gradients de la variance per-met de le détecter et d’en prédire les effets. Dans cette étude, nous nous sommes posés plusieurs questions : (1) quel type de modèle peut produire cette inversion ? ; (2) quelle est l’influence de la distribution des variables d’entrée ? ; et (3) cette inversion est-elle un artefact lié à l’utilisation de la variance comme descripteur de l’incertitude ? Des réponses ont été obtenues à l’aide d’expérimentations numériques. Le code permettant de reproduire les résultats est fourni en Annexe.