Analyse d'un plan de surface de réponse

Utilisez cet outil pour analyser un plan de surface de réponses avec entre 2 et 10 facteurs. Disponible dans Excel avec le logiciel XLSTAT.

Qu’est-ce que l’Analyse d'un plan de surface réponse ?

L'analyse d'un plan de surface de réponse se base sur le même principe qu'une régression linéaire. La différence majeure vient du modèle qui est utilisé pour l'estimation : une fonction quadratique.

Options de la fonctionnalités Analyse d'un plan de surface réponse dans XLSTAT

Optimisation des réponses et désirabilité

Il est possible d'optimiser chaque réponse de manière individuelle et de combiner les résultats afin d'obtenir une fonction de désirabilité et d'analyser ses valeurs. Introduite par Derringer and Suich (1980), cette approche est basée sur la transformation de la réponse yi​ en une fonction de désirabilité individuelle di​ sur l'intervalle 0 ≤ di​ ≤1.

Lorsque yi​ a atteint sa valeur cible, alors di = 1. Si yi​ se trouve en dehors d'une région acceptable autour de la cible, alors di = 0. Entre ces deux cas, des valeurs intermédiaires de di​ sont obtenues.

Les 3 différents cas pour di​ sont :

  • = borne inférieure. Pour chaque valeur < L, on a di = 0.

  • U = borne supérieure. Pour chaque valeur >U, on a di = 0.

  • T(L) = valeur cible à gauche.

  • T(R) = valeur cible à droite. Pour chaque valeur entre T(L) et T(R), on a di = 1.

  • s, t = paramètres permettant de définir la forme de la fonction d'optimisation entre L et T(L) et entre T(R) et U.

Interactions / Niveau 

Dans l'onglet Réponses, il est possible d'inclure des interactions dans le modèle puis entrez le niveau maximum d'interaction (valeur comprise entre 1 et 4).

Résultats d'une analyse d'un plan de surface réponse

Information sur les variables : ce tableau récapitule les informations sur les facteurs. Pour chaque facteur, le nom court, le nom long et l'unité utilisée sont affichés.

Optimisation des réponses : ce tableau donne les 5 meilleures solutions obtenues lors de l'optimisation des réponses.

Coefficients d'ajustement : dans ce tableau sont affichées les statistiques relatives à l'ajustement du modèle de régression (MCE, MAPE, AIC, Cp, Press, etc). 

Le tableau d'analyse de la variance permet d'évaluer le pouvoir explicatif des variables explicatives. Dans le cas où la constante du modèle n'est pas fixée à une valeur donnée, le pouvoir explicatif est évalué en comparant l'ajustement (au sens des moindres carrés) du modèle final avec l'ajustement du modèle rudimentaire composé d'une constante égale à la moyenne de la variable dépendante. Dans le cas où la constante du modèle est fixée, la comparaison est faite par rapport au modèle pour lequel la variable dépendante serait égale à la constante fixée.

Si l'option Type I/III SS (SS : Sum of Squares) est activée, les tableaux suivants sont affichés.

Le tableau paramètres du modèle affiche l'estimation des paramètres, l'erreur type correspondante, le t de Student, la probabilité correspondante, ainsi que l'intervalle de confiance

L'équation du modèle est ensuite affichée pour faciliter la lecture ou la réutilisation du modèle.

Le tableau des coefficients normalisés (aussi appelés coefficients bêta) permet de comparer le poids relatif des variables. Plus la valeur absolue d'un coefficient est élevée, plus le poids de la variable correspondante est important. Lorsque l'intervalle de confiance autour des coefficients normalisés comprend la valeur 0 (cela est facilement visible sur le graphique des coefficients normalisés), le poids d'une variable dans le modèle n'est pas significatif.

Dans le tableau des prédictions et résidus sont donnés pour chaque observation, son poids, la valeur de la variable explicative qualitative s'il n'y en a qu'une, la valeur observée de la variable dépendante, la prédiction du modèle, les résidus, les intervalles de confiance, ainsi que la prédiction ajustée et le D de Cook si les options correspondantes ont été activées dans la boîte de dialogue. Deux types d'intervalles de confiance sont affichés : un intervalle de confiance autour de la moyenne et un intervalle autour de la prédiction ponctuelle. Le second intervalle est toujours plus grand que le premier, les aléas étant plus importants. Si des données de validation ont été sélectionnées, elles sont affichées en fin de tableau.

Les graphiques qui suivent permettent de visualiser les résultats mentionnés ci-dessus. S'il n'y a qu'une seule variable explicative dans le modèle, le premier graphique affiché permet de visualiser les valeurs observées, la droite de régression et les deux types d'intervalles de confiance autour des prévisions. Le second graphique permet quant à lui de visualiser les résidus normalisés en fonction de la variable explicative. En principe, les résidus doivent être distribués de manière aléatoire autour de l'axe des abscisses. L'observation d'une tendance ou d'une forme révèlerait un problème au niveau du modèle.

Les trois graphiques affichés ensuite permettent de visualiser respectivement l'évolution des résidus normalisés en fonction de la variable dépendante, la distance entre les prédictions et les observations (pour un modèle idéal, les points seraient tous sur la bissectrice), et les résidus normalisés sous la forme d'un diagramme en bâtons. Ce dernier graphique permet de rapidement voir si un nombre anormal de données sort de l'intervalle ]-2, 2[]−2,2[ sachant que ce dernier, sous hypothèse de normalité, doit contenir environ 95% des données.

Ensuite, le graphique en ligne de niveaux est affiché, si le plan a deux facteurs et l'option correspondante est activée. L'utilisation de ces graphiques permet d'analyser les dépendances de ces deux facteurs simultanément.

Puis le graphique de la trace est affiché, si l'option correspondante est activée. Les graphiques des traces montrent pour chaque facteur, la variable de réponse en fonction du facteur. Tous les autres facteurs étant fixés à leur valeur moyenne.

ternary diagramneural network diagram

analysez vos données avec xlstat

essayez gratuitement pendant 14 jours