La notion de capabilité est l’un des fondements de la méthodologie Six Sigma. Dans cet article d’introduction, on va voir ensemble de quoi il s’agit, et comment interpréter les chiffres clés.
À l’origine de la notion de capabilité il y a la volonté de ne produire que des pièces conformes. Le client, peu importe s’il est interne ou externe, fixe les limites de ce qui est acceptable afin que la pièce ou le service soit utilisable. Ce sont les spécifications. Une pièce est bonne si elle se situe dans l’intervalle de valeurs spécifié, sinon elle est non-conforme et donc rejetée.
En plus des limites déterminées par les spécifications, il y a des limites imposées par la réalité. Par exemple: un temps de traitement ou un diamètre ne peuvent pas être négatifs. Si les spécifications ne définissent que les valeurs maximales, alors il est nécessaire de prendre en compte les limites physiques dans les calculs de capabilité.
Chaque processus varie
Tout processus de fabrication a une variation naturelle qui fait que les pièces produites ne seront pas parfaitement identiques. Pour l’instant on va considérer que cette variation suit une distribution normale et est due uniquement à la variabilité naturelle propre au processus. La distribution normale a deux paramètres importants : la moyenne (notée µ) et l’écart-type (noté σ).
L’écart-type sera grand si le processus est peu maîtrisé ou si sa qualité intrinsèque est faible. Les pièces auront des différences plus marquées entre elles.
L’écart-type sera petit si le processus est bien maîtrisé et de bonne qualité intrinsèque. Les pièces seront très semblables les unes aux autres.
Si on ajoute les spécifications à la distribution du processus, on trouve la quantité de pièces produites conformes et non-conformes.
On voit qu’il est intéressant d’avoir un processus qui soit « mince » par rapport aux spécifications.
Toutefois, avoir un processus dont l’écart-type est suffisamment faible ne suffit pas s’il n’est pas situé dans les spécifications.
Maximiser la capabilité
Idéalement, le processus devrait être centré dans la fenêtre de tolérance, de sorte que la marge de chaque côté soit aussi grande que possible.
Centrer un processus est une action relativement facile. Souvent, il s’agit d’effectuer un réglage. C’est le facteur sur lequel on a le plus d’influence et la plus grande facilité d’action.
Réduire la variabilité du processus est en général bien plus difficile et coûteux. Souvent, il faudra modifier le processus, former davantage le personnel ou encore investir dans du nouvel équipement. Les coûts et investissements liés sont élevés.
On va donc essayer de centrer autant que possible le processus existant pour en tirer le plus possible. Et c’est seulement si ça ne suffit pas à atteindre un rendement suffisant qu’on va chercher à réduire sa variabilité.
La valeur Cpk correspond à la capabilité actuelle d’un processus. Pour la calculer, on prend en compte le côté avec le moins de marge disponible et l’écart-type à court terme (ct).
S’il n’y a qu’une seule limite de spécification (supérieure ou inférieure), on ne prend en compte que celle-ci.
Le Cp indique le potentiel du processus actuel s’il était bien centré entre les limites de spécification. Le Cp n’a de sens que s’il y a à la fois une limite inférieure et une limite supérieure.
Idéalement, le Cpk est proche du Cp. C’est une autre façon de dire qu’il faut centrer le processus entre les limites.
La table suivante détaille les taux de pièces non conformes pour un processus centré, en fonction de sa capabilité. Elle ne tient pas compte d’une éventuelle dérive du processus au cours du temps. Comme le processus est centré, le Cp et le Cpk sont identiques.
Largeur relative des spécifications | Classification du processus | Pièces défectueuses, par million | Pourcentage de pièces défectueuses | Cpk (=Cp) |
---|---|---|---|---|
2σ | « 1-sigma » | 317’311 | 31.73% | 0.33 |
4σ | « 2-sigma » | 45’500 | 4.55% | 0.67 |
6σ | « 3-sigma » | 2’700 | 0.27% | 1.00 |
8σ | « 4-sigma » | 63 | 0.0063% | 1.33 |
10σ | « 5-sigma » | 0.6 | 0.00006% | 1.67 |
12σ | « 6-sigma » | 0.002 | 0.0000002% | 2.00 |
Le long terme
Dans beaucoup d’ouvrages, on tient aussi compte d’une dérive du processus de 1.5σ. Toutefois cette manière de faire est sujette à controverse, car un processus qui dérive n’est, par définition, pas stable. Or si tel est le cas, on ne devrait pas se soucier de la capabilité mais bien de stabiliser le processus.
Un autre point de vue est que, dans la pratique, un processus va certainement dériver à un moment ou l’autre et il est donc intéressant de pouvoir évaluer et communiquer cette propriété.
La dérive est due à une cause spéciale et impacte l’écart-type du processus sur le long terme.
Pour bien indiquer qu’on parle de capabilité à long terme, on note les valeurs: Pp et Ppk.
Les formules sont les mêmes, mais on utilise cette fois l’écart-type à long terme du processus (lt).
La dérive prise en compte est de 1.5 sigmas. L’explication quant à l’origine de cette valeur sort du cadre de cet article. En résumé: une telle dérive sera certainement détectée par les méthodes de contrôle statistique des procédés (SPC) et pourra être arrêtée.
La table de capabilité devient alors :
Largeur relative des spécifications | Classification du processus | Pièces défectueuses, par million | Pourcentage de pièces défectueuses | Ppk |
---|---|---|---|---|
2σ | « 1-sigma » | 691’462 | 69.14% | -0.17 |
4σ | « 2-sigma » | 308’538 | 30.85% | 0.17 |
6σ | « 3-sigma » | 66’807 | 6.68% | 0.50 |
8σ | « 4-sigma » | 6’210 | 0.62% | 0.83 |
10σ | « 5-sigma » | 233 | 0.023% | 1.17 |
12σ | « 6-sigma » | 3.4 | 0.00034% | 1.50 |
15σ | « 7.5-sigma » | 0.001 | 0.0000001% | 2.00 |
On trouve ici l’origine de l’appellation « six sigma » : un processus qui a une marge de 6 déviations standard (6σ) par rapport à la limite de spécification, et subirait en plus une dérive de 1.5 sigmas ne produirait que 3.4 pièces défectueuses par million de pièces produites. Un processus idéal « 6-sigma » a donc une marge de 6σ vers le haut et vers le bas, donc une distance entre les deux limites de spécification de 12σ.
La dernière ligne du tableau indique que pour atteindre un Ppk de 2.0, il faut 7.5σ de marge de chaque côté, soit 15σ entre les limites de spécification.
Idéalement, le Ppk est proche ou identique au Cpk. Cela revient à dire qu’on maîtrise bien le processus et qu’il ne dérive pas. La performance à long terme est tout aussi bonne que celle à court terme.
Les désavantages des métriques de capabilité
Les métriques de capabilité sont pratiques, mais ils ne rendent pas parfaitement compte de la situation sur le terrain.
Tout d’abord, le Cpk est un indicateur qui combine plusieurs informations en un seul chiffre : la variabilité du processus et la distance à la limite. On peut donc avoir plusieurs situations très différentes qui mènent à la même valeur.
Malgré des Cpk identiques, l’effort pour corriger ces deux situations sera très différent: alors qu’il suffit de régler correctement le processus au centre des limites, il sera impossible d’obtenir une performance satisfaisante du processus du haut sans l’améliorer au préalable.
D’autre part, la définition du Cpk ne prend en compte que la distance à la limite la plus proche. Des processus avec des taux de rebuts très différents peuvent avoir la même valeur de Cpk.
On voit que la présence ou l’absence de la limite inférieure n’a aucune influence sur le score de capabilité. Toutefois le taux de pièces défectueuses peut augmenter sensiblement, jusqu’à doubler.
En conclusion
La capabilité indique dans quelles mesures un processus satisfait aux spécifications.
On distingue la capabilité à court terme, sans perturbations, et la capabilité à long terme où des perturbations sont présentes.
On exprime aussi bien la performance actuelle du processus que son potentiel dans le cas idéal.
Performance actuelle | Performance idéale | |
Court terme | ||
Long terme |