Cartes de contrôle pondérées par le temps

Cartes de contrôle

Les cartes de contrôle ont été d'abord mentionnées par Walter Shewhart dans un document écrit alors qu'il travaillait aux Bell Labs en 1924. Il a ensuite décrit ses méthodes plus en détails dans un livre (1931).

Pendant plusieurs années, il n'y eu pas d'avancées majeures dans ce domaine, jusqu'à ce Deming mette au point les cartes de contrôle CUSUM, UWMA et EWMA en 1936.

Les cartes de contrôle étaient à l'origine utilisées pour le contrôle de la qualité des biens de production. Pour cette raison, le vocabulaire utilisé pour ces méthodes statistiques provient souvent de ce domaine d'application. Aujourd'hui, ces approches sont appliquées dans de nombreux autres domaines, comme par exemple les services, les ressources humaines ou les ventes

Cartes de contrôle pondérées par le temps

XLSTAT propose plusieurs cartes de contrôle pondérées par le temps :

  • CUSUM ou CUSUM pour valeurs individuelles
  • UWMA ou UWMA pour valeurs individuelles
  • EWMA ou EWMA pour valeurs individuelles

Une carte CUSUM, UWMA ou EWMA est utile pour suivre la moyenne d'un procédé de fabrication. Les décalages de la moyenne sont aisément repérables sur ces cartes.

Cartes de contrôle pondérées par le temps UWMA et EWMA

Ces cartes n'utilisent pas directement les données brutes. Elles sont basées sur des données lissées. Dans le cas de cartes UWMA, les données sont lissées en utilisant une pondération uniforme sur la fenêtre glissante. La carte est ensuite créée comme une carte Shewhart. Dans le cas de cartes EWMA, les données sont lissées en utilisant un lissage exponentiel. La carte est ensuite créée comme une carte Shewhart.

Cartes de contrôle pondérées par le temps CUSUM

Ces cartes n'utilisent pas directement les données brutes. Elles sont basées sur des données normalisées. Ces cartes permettent de détecter des décalages de la moyenne avec une granularité définie par l'utilisateur, au travers du paramètre k. k est la moitié du décalage de la moyenne à détecter. Pour détecter un décalage de 1 de 1 sigma, k est fixé à 0.5. On distingue deux type de cartes CUSUM: unilatérale ou bilatérale. Dans le cas d'une carte CUSUM unilatérale les sommes cumulées supérieures et inférieures SH et SL sont calculées récursivement.

SHi = max( 0, (zi – k) + S Hi -1) SLi = min( 0, (zi + k) + S Li -1) Si SH ou SL sont supérieures à un seuil h, alors un décalage est détecté. La valeur de h peut être choisie par l'utilisateur. Les valeurs habituelles sont 4 ou 5. La valeur initiale de SH et SL au début des calculs ou après la détection d'un décalage est habituellement 0. En utilisant l'option FIR (Fast Initial Response) on peut changer cette valeur de départ. L'utilisateur peut alors entrer la valeur de son choix.

Dans le cas d'une carte CUSUM bilatérale, les données sont normalisées. Les limites de contrôle supérieure et inférieure sont appelées respectivement masque U et masque V. Ces noms sont liés à la forme que prennent les limites de contrôle sur la carte. Pour un point donné, les limites maximales supérieure et inférieure pour la détection d'un décalage, sont calculées en remontant dans le temps et affichées sur la carte avec le format du masque U ou V. Le point pour l'origine du masque est par défaut le dernier point. L'utilisateur peut modifier cela avec l'option « origine ».

XLSTAT vous propose les options suivantes pour l'estimation de l'écart-type (sigma) d'un échantillon, pour k sous-groupes et ni (i=1, …, k) mesures par sous-groupe :

  • Ecart-type global : sigma est calculé toutes les mesures disponibles. A partir des k variances intra-sous-groupes, selon la formule suivante : ŝ = √[Σi=1..k (ni - 1)si²]/[Σi=1..k (ni - 1)] / c4 [1 + Σi=1..k (ni - 1)] où c4 est une constante définie par Burr (1969).
  • R-barre : l'estimateur de sigma est calculé à partir de l'étendue moyenne (ou amplitude moyenne) pour les n sous-groupes. ŝ = R / d2 où d2 est une constante définie par Burr (1969).
  • S-barre: sigma est calculé à partir de la moyenne des k variances intra-sous-groupes, selon la formule suivante : ŝ = √[1/k Σi=1..ksi² / c4 où c4 est une constante définie par Burr (1969).

Dans le cas de n mesures individuelles :

  • Etendue mobile moyenne : sigma est estimé sur la base de l'étendue mobile moyenne avec une fenêtre de m mesures : ŝ = m / d2 où d2 est une constante définie par Burr (1969).
  • Etendue mobile médiane : sigma est estimé sur la base de l'étendue mobile médiane avec une fenêtre de m mesures : ŝ = médiane / d4 où d4 est une constante définie par Burr (1969).
  • S-barre: sigma est calculé à partir des n mesures, selon la formule suivante : ŝ = s / c4 où s est l'écart-type observé sur les n mesures, et où c4 est une constante définie par Burr (1969).

Capacité du processus

La capacité du processus décrit un processus (ou procédé) et permet de savoir s'il est sous contrôle et si les données correspondant aux variables mesurées sont à l'intérieur des limites de spécification du procédé. Dans un tel cas, on dit que le procédé est « capable ».

XLSTAT propose les indicateurs suivant : Cp, Cpl, Cpu, Cpk, Pp, Ppl, Ppu, Ppk, Cpm, Cpm (Boyle), Cp 5.5, Cpk 5.5, Cpmk, and Cs (Wright). Pour les Cp, Cpl, et Cpu, une information concernant la performance du procédé est fournie, et pour le Cp une information sur la situation est donnée pour faciliter l'interprétation.

Aux valeurs de Cp values sont associées les états suivants selon Ekvall et Juran (1974):

  • "pas adéquat" si Cp < 1
  • "adéquat" si 1 ≤ Cp ≤ 1.33
  • "plus qu'adéquat" si Cp > 1.33

D'après Montgomery (2001), le Cp doit avoir les valeurs minimales suivantes pour que la performance du procédé soit comme attendu :

  • 1.33 pour les procédés existant
  • 1.50 pour de nouveaux procédés ou des procédés existant si la variable est critique
  • 1.67 pour de nouveaux procédés si la variable est critique

D'après Montgomery (2001), le Cpu et le Cpl doivent avoir les valeurs minimales suivantes pour que la performance du procédé soit comme attendu :

  • 1.25 pour les procédés existant
  • 1.45 pour de nouveaux procédés ou des procédés existant si la variable est critique
  • 1.60 pour de nouveaux procédés si la variable est critique

Au cours de l'interprétation des différents indicateurs de capacité des processus, veuillez prendre garde au fait que certains indicateurs nécessitent de faire l'hypothèse de normalité ou, tout au moins, de la symétrie de la distribution des variables mesurées. En utilisant les tests de normalité vous pourrez vérifier la validité de ces hypothèses.

Si l'hypothèse de normalité ne peut être retenue, vous avez les possibilités suivantes pour obtenir des capacités des processus :

  1. Utiliser une transformation Box-Cox pour améliorer la normalité des échantillons, et vérifier ensuite à nouveau la normalité avec un test.
  2. Utiliser l'indicateur de capacité de processus Cp 5.5.

Transformation Box-Cox pour les cartes de contrôle

La transformation Box-Cox permet d'augmenter la normalité des données. Vous pouvez soit imposer une valeur de Lambda, soit décider que XLSTAT doit l'optimiser. Si l'option d'optimisation est choisie, XLSTAT maximise la vraisemblance de l'échantillon, étant supposé qu'après transformation l'échantillon suit une loi normale.

Règles pour l'interprétation des cartes de contrôle pour sous-groupes

XLSTAT vous donne la possibilité d'appliquer des règles pour les « causes spéciales » ainsi que les règles de Westgard.

Test des causes spéciales :

  • 1 point au-delà de 3s de la ligne centrale"
  • 9 points consécutifs du même côté de la ligne centrale
  • 6 points consécutifs tous montant ou tous descendant
  • 14 points consécutifs alternant au-dessus et au-dessous
  • 2 sur 3 points > 2s de la ligne centrale (du même côté)
  • 4 sur 5 points > 1s de la ligne centrale (du même côté)
  • 15 points consécutifs plus proche que 1s de la ligne centrale (des deux côtés)
  • 8 points > 1s de la ligne centrale (des deux côtés)

Règles de Westgard :

  • Règle 1 2s
  • Règle 1 3
  • Règle 2 2s
  • Règle 4s
  • Règle 4 1s
  • Règle 10 X