Analyse de l’effet de dose

dose-effect-analysis-general-dialog-box.png

Principe de l’analyse de l’effet de dose

L’analyse de l’effet de dose s'appuie sur la régression logistique (modèles Logit, Probit, Log-log complémentaire, Gompertz) pour modéliser l'impact de doses de composants chimiques (par exemple un médicament, un produit phytosanitaire) sur un phénomène binaire (guérison ou non, mort ou non).

Mortalité naturelle

Cet outil permet de prendre en compte la mortalité naturelle afin de modéliser plus précisément le phénomène étudié. En effet, si l'on considère une expérience réalisée sur des insectes, certains périront en raison de la dose injectée, d'autres en raison d'un autre phénomène. L'ensemble de ces phénomènes connexes n'est pas intéressant pour l'expérience concernant les effets de dose, mais il peut être pris en compte. Si p est la probabilité issue d'un modèle de régression logistique correspondant uniquement à l'effet de la dose, et si m est la mortalité naturelle, alors la probabilité observée pour que l'insecte succombe est :

P(obs) = m + (1- m) * p La formule d'Abbott (Finney, 1971) s'écrit p = (P(obs) – m) / (1 – m) La mortalité naturelle m peut être entrée par l'utilisateur parce que connu grâce à des expériences préalables, ou déterminée par XLSTAT.

Calcul des doses : ED 50, ED 90, ED 99

XLSTAT permet de calculé les doses ED 50 (ou dose médiane), ED 90 et ED 99 qui correspondent aux doses entraînant un effet sur respectivement 50%, 90% et 99% de la population.

Résultats de l’analyse de l’effet de dose dans XLSTAT

  • Correspondance entre les modalités de la variable réponse et les probabilités : ce tableau permet de visualiser à quelles modalités de la variable dépendante ont été affectées les probabilités 0 et 1.
  • Coefficients d'ajustement : dans ce tableau est affichée une série de statistiques pour le modèle indépendant (correspondant au cas où la combinaison linéaire des variables explicatives se réduit à une constante) et pour le modèle ajusté.
    • Observations : le nombre total d'observations prises en compte (somme des poids des observations) ;
    • Somme des poids : le nombre total d'observations prises en compte (somme des poids des observations multipliés par les poids dans la régression) ;
    • DDL : degrés de liberté ;
    • -2 Log(Vrais.) : le logarithme de la fonction de vraisemblance associée au modèle;
    • R² (McFadden) : coefficient compris comme le R² entre 0 et 1 qui mesure le bon ajustement du modèle. Ce coefficient est égal à 1 moins le rapport de la vraisemblance du modèle ajusté sur la vraisemblance du modèle indépendant.
    • R²(Cox et Snell) : coefficient compris comme le R² entre 0 et 1 qui mesure le bon ajustement du modèle. Ce coefficient est égal à 1 moins le rapport de la vraisemblance du modèle ajusté sur la vraisemblance du modèle indépendant, le rapport étant porté à l'exposant 2/Sw, où Sw est la somme des poids ;
    • R²(Nagelkerke) : coefficient compris comme le R² entre 0 et 1 qui mesure le bon ajustement du modèle. Ce coefficient est égal au rapport du R² de Cox et Snell, divisé par 1 moins le la vraisemblance du modèle indépendant portée à l'exposant 2/Sw ;
    • AIC : le critère d'information d'Akaike (Akaike's Information Criterion) ;
    • SBC : le critère bayésien de Schwarz (Schwarz's Bayesian Criterion).
  • Test de l'hypothèse nulle H0 : Y=p0 : l'hypothèse H0 correspond au modèle indépendant qui donne la probabilité p0 quelques soient les valeurs des variables explicatives ; on cherche à vérifier si le modèle ajusté est significativement plus performant que ce modèle. Trois tests sont proposés : le test du rapport des vraisemblance (-2 Log(Vrais.)), le test du Score, et le test test de Wald. Les trois statistiques suivent une loi du Khi² dont les degrés de liberté sont indiqués.
  • Analyse de Type III : ce tableau n'a d'intérêt que s'il y a plus d'une variable explicative. On test ici le modèle ajusté contre un test dont on aurait retiré la variable de la ligne du tableau en question. Si la probabilité Pr > LR est inférieur à un seul de signification que l'on se fixe (typiquement 0.05), alors la contribution de la variable à l'ajustement du modèle est significative. Sinon, elle peut être retirée du modèle.
  • Paramètres du modèle : pour la constante du modèle et pour chaque variable sont affichés l'estimation du paramètre, l'écart-type correspondant, le Khi² de Wald, la p-value correspondante, ainsi que l'intervalle de confiance. Si l'option correspondante a été activée, les intervalles « profile likelihood » sont aussi affichés.
  • L'équation du modèle est ensuite affichée pour faciliter la lecture ou la réutilisation du modèle.
  • Le tableau des coefficients normalisés (aussi appelés coefficients bêta) permet de comparer le poids relatif des variables. Plus la valeur absolue d'un coefficient est élevée, plus le poids de la variable correspondante est important. Lorsque l'intervalle de confiance autour des coefficients normalisés comprend la valeur 0 (cela est facilement visible sur le graphique des coefficients normalisés), le poids d'une variable dans le modèle n'est pas significatif.
  • Dans le tableau des prédictions et résidus sont donnés pour chaque observation, son poids, la valeur de la variable explicative qualitative s'il n'y en a qu'une, la valeur observée de la variable dépendante, la prédiction du modèle, les mêmes valeurs divisées par le poids, les résidus standardisés, ainsi qu'un intervalle de confiance.
  • Le tableau d'analyse des probabilités n'est affiché que si une seule variable explicative quantitative a été sélectionnée. Il permet de visualiser à quel niveau de la variable explicative correspond une probabilité donnée.
ternary diagramneural network diagram

analysez vos données avec xlstat

essayez gratuitement pendant 14 jours