Aller au contenu
Accueil » Articles » Les tests de Nelson

Les tests de Nelson

Les tests de Nelson alertent quant à la présence d’une cause spéciale de variabilité. Ils sont un élément clé des méthodes de contrôle statistique des procédés (SPC).

Dans cet article, nous allons voir comment ces règles sont construites et quelle est la probabilité qu’elles se déclenchent naturellement dans un processus qui suit une distribution normale. Avec cette compréhension, il sera aussi plus facile d’adapter les règles existantes à ses propres besoins, voir même d’un créer de nouvelles règles sur mesure.

Une alerte ne signifie pas forcément qu’une influence extérieure (cause spéciale) de variation est présente. Il est tout à fait possible qu’elle se déclenche alors qu’il s’agit d’un déroulement normal du processus. On verra au terme de cet article que, même en l’absence de causes spéciales, la probabilité de ces événements n’est pas négligeable.

Les règles de Nelson servent principalement à attirer l’attention. Une analyse de la situation est nécessaire pour déterminer si une cause spéciale est véritablement présente ou non.

Nous allons passer en revue une à une les différentes règles et établir la probabilité qu’elles surviennent naturellement. On reste dans le cas simple d’un processus suivant une distribution normale centrée réduite.

Certains logiciels de SPC permettent d’adapter les règles en modifiant la variable clé. Dans cet article, on note la variable clé et sa valeur par défaut au moyen de la notation suivante : K=1, où 1 serait ici la valeur par défaut.

Pour rappel :

  • représente un écart-type.
  • est la fonction de répartition de la loi normale de moyenne 0 et d’écart-type 1.
  • est symétrique autour de 0, toujours croissante et comprise dans l’intervalle [0 ; 1], donc
  • Les probabilités d’une variable aléatoire suivant une loi normale centrée réduite peuvent être déduites des tables, comme celle-ci.
  • UCL est l’abréviation de Upper Control Limit – limite de contrôle supérieure.
  • LCL est l’abréviation de Lower Control Limit – limite de contrôle inférieure.

Règle 1: 1 point à plus de K=3 σ de la ligne centrale.

On détecte les valeurs très éloignées de la ligne centrale, peu importe le motif que forment les points. Ce peut être dû à un changement de la moyenne ou à une augmentation de l’écart-type du processus. On détecte aussi facilement les gros problèmes, tels qu’une erreur de calcul ou un dégât de la machine de production.

On utilise la table de la distribution normale pour déterminer la probabilité. La distribution normale étant symétrique et l’écart pouvant avoir lieu des deux côtés, on multiplie par un facteur 2.

Probabilité:

Avec K=3 :

Règle 2: K=9 points à la suite du même côté de la ligne centrale

Ce test est révélateur d’un processus qui perd en stabilité et se décentre. Il est particulièrement sensible à un changement de la valeur moyenne du processus.

La probabilité qu’un échantillon soit d’un côté est de 0.5. Cette probabilité se répète pour chaque échantillon, donc K fois. Enfin, le motif peut se présenter des deux côtés de la ligne centrale, donc on multiplie la probabilité par 2.

Probabilité:

Avec K=9 :

Règle 3: K=6 points à la suite tous croissants ou décroissants

Ce test est sensible aux décalages des processus. Par exemple: l’usure d’un outil ou un manque de maintenance.

Si on tire des échantillons quelconques, il n’y a qu’une seule séquence dans laquelle tous les échantillons sont arrangés de manière croissante, et une seule séquence avec un arrangement décroissant. (On considère ici qu’il n’y a jamais d’échantillons de valeurs strictement égales, ce qui est une hypothèse raisonnable dans la pratique.) Il y a donc au total 2 arrangements valides sur un total de arrangements possibles.

Probabilité:

Avec K=6 :

Règle 4: K=14 points à la suite alternativement hauts et bas

Ce test détecte la présence d’un facteur systématique. En effet, le motif alternatif permet de prédire la plage de valeurs dans laquelle sera la prochaine mesure; on n’est plus en présence d’une variation aléatoire. C’est le cas, par exemple, si on mesure alternativement des pièces provenant de deux machines différentes.

Il y a au total n! arrangements possibles. Déterminer le nombre d’arrangements qui correspondent à une suite alternative haut-bas est connue des mathématiciens comme le « problème d’André ». La résolution de ce problème sort du cadre de cet article. Pour déterminer le nombre de permutations en fonction du nombre d’éléments on peut utiliser des tables comme celle-ci.

Probabilité: , où représente la table décrite précédemment.

Avec K=14 :

Règle 5: K=2 parmi K+1=3 points à plus de 2σ de la ligne centrale. (Tous d’un même côté.)

Ce test permet de déceler plus tôt de petits décalages du processus.

Pour calculer cette probabilité, il faut utiliser la loi multinomiale:

On a 3 types d’événements:

  1. l’échantillon est supérieur à la limite de 2σ ; probabilité: (par symétrie)
  2. l’échantillon est inférieur à la limite de 2σ ; probabilité:
  3. l’échantillon est compris dans intervalle ]-2σ ; 2σ[ ; probabilité:

Pour satisfaire les conditions de ce test, on doit avoir K échantillons qui soient tous de type 1 ou 2, et un échantillon restant qui peut être de n’importe quel type. La probabilité du cas où les K échantillons sont au-dessus de la limite est identique à la probabilité du cas où les K échantillons sont en dessous de la limite. On va donc calculer le premier cas et on multipliera par 2 pour obtenir la probabilité totale.

Probabilité:

Probabilité (simplifiée):

Avec K=2 :

Règle 6: K=4 parmi K+1=5 points à plus de 1σ de la ligne centrale. (Tous d’un même côté.)

Ce test est similaire au test N°5. La limite n’est plus à 2σ mais à 1σ et le nombre d’échantillons observés change. On adapte donc la formule en conséquence.

Probabilité (simplifiée):

Avec K=4 :

Règle 7: K=15 points à la suite à moins de 1σ de la ligne centrale. (Peu importe le côté.)

Ce test détecte une réduction de la variabilité. Les deux causes les plus fréquentes sont une meilleure maîtrise du processus ou une stratification des mesures.
Dans la pratique, il est rare qu’un processus devienne plus stable par lui-même. Si le processus est véritablement mieux maîtrisé, c’est une bonne nouvelle et il faut standardiser l’amélioration afin qu’elle perdure.
Bien plus souvent, ce sera le signe d’un problème dans la mesure, d’une présélection des échantillons ou encore d’un mélange d’échantillons provenant de sources différentes ayant des valeurs moyennes différentes.
Ce test permet aussi de mettre en évidence des limites de contrôle trop larges et donc inadaptées à la surveillance du processus.

La probabilité qu’un point se situe dans l’intervalle [-1σ ; 1σ] est donné par la distribution normale. Cette probabilité se répète n fois de suite.

Probabilité:

Avec K=15 :

Règle 8: K=8 points à la suite à plus de 1σ de la ligne centrale. (Peu importe le côté.)

Ce test détecte des mesures qui évitent la valeur centrale, ou un processus qui s’est décalé. Il est particulièrement sensible au cas où des échantillons proviennent de deux sources différentes.

La probabilité qu’un point ne se situe pas dans l’intervalle [-1σ ; 1σ] est donné par la distribution normale en additionnant les deux bords de distribution restants. Cette probabilité se répète n fois de suite.

Probabilité:

Avec K=8 :

Probabilité totale

Certaines règles peuvent se combiner et s’appliquer à un même point. Par exemple un point peut être à la fois à plus de 3σ de la ligne centrale (Règle 1) et faire partie d’une suite de 6 points croissants (Règle 3). Aussi, certaines règles peuvent déclencher plusieurs points à la suite. C’est typiquement le cas des règles 5 et 6, à cause de leur effet mémoire « K points parmi K+1 ».

Quelle est la probabilité que des alarmes se déclenchent si on active toutes les règles?
Les simulations montrent que le taux de déclenchement est d’environ 0.025. Donc le taux d’alarmes erronées (faux positifs) est de l’ordre de 2.5%! C’est un nombre élevé dans la pratique quand on surveille plusieurs dizaines de variables en même temps.

Que faire si le taux de faux positifs est trop élevé?
Une solution est de désactiver les règles les moins utiles. Par exemple les règles 7 et 8 perdent en intérêt s’il n’y a qu’une seule source en amont et que cela fait déjà un certain temps qu’un contrôle statistique est en place. S’il est acceptable d’être averti un peu moins rapidement d’une déviation, alors les tests 5 et 6 peuvent aussi être désactivés.
Une autre possibilité est de modifier les règles existantes ou d’en créer de nouvelles, afin qu’elles soient mieux adaptées.

Références

Lloyd S. Nelson (1984) The Shewhart Control Chart — Tests for Special Causes, Journal of Quality Technology, 16:4, 237-239, DOI: 10.1080/00224065.1984.11978921

Lloyd S. Nelson (1985) Interpreting Shewhart Control Charts, Journal of Quality Technology, 17:2, 114-116, DOI: 10.1080/00224065.1985.11978945

Étiquettes:

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *