F
loadingPage en cours de chargement
    ACCUEIL | TÉLÉCHARGER | QCM | DON | ANNONCES | CHAT | FORUM | LIVRE D'OR | PARTENAIRES | CONTACT | BLOG
 
  Rechercher
  separation
  Introduction
  Arithmétique
  Algèbre
  Analyse
  Géométrie
  Mécanique
  Électrodynamique
  Atomistique
  Cosmologie
  Chimie
  Informatique Théorique
  Maths. Sociales
  Ingénierie
  separation
  Biographies
  Références
  Liens
  separation
  Humour
  Serveur d'exercices
  separation
  Parrains
16 connectés
News News :: Erreur Erreur :: Statistiques Visiteurs :: ClearType ClearType :: Imprimer Imprimer :: Bookmark and Share

Ingénierie

GÉNIE MARIN & MÉTÉO | GÉNIE MÉCANIQUE | GÉNIE ÉLECTRIQUE
GÉNIE ÉNERGÉTIQUE | GÉNIE CIVIL | GÉNIE BIOLOGIQUE | GÉNIE AÉROSPATIAL
GÉNIE CHIMIQUE | GÉNIE INDUSTRIEL | GÉNIE LOGICIEL

74. GÉNIE INDUSTRIEL (1/2)

Dernière mise à jour de ce chapitre: 2017-08-06 17:23:45 | {oUUID 1.797}
Version: 3.3 Révision 40 | Avancement: ~60%
vues depuis le 2012-01-01: 19'402

Table des matières LISTE DES SUJETS TRAITÉS SUR CETTE PAGE

Le Génie Industriel englobe la conception, l'amélioration et l'installation de systèmes. Il utilise les connaissances provenant des sciences mathématiques, physiques et sociales, ainsi que les principes et méthodes propres à l'art de l'ingénieur, dans le but de spécifier, prédire et évaluer les résultats découlant de ces systèmes.

Nous pouvons résumer tous les domaines qui touchent au génie industriel (et pas seulement... cela peut s'appliquer avec adaptation ad hoc à l'administration) par l'objectif d'optimiser et contrôler les performances globales de l'entreprise (coûts, délais, qualité) car:

On ne peut améliorer que ce que l'on mesure!

Remarquons que certaines techniques de génie industriel ont déjà été abordées dans d'autres chapitres comme les techniques de gestion quantitatives, l'optimisation (recherche opérationnelle), l'analyse financière, l'analyse des files d'attente, etc. et que ce domaine englobe le "génie qualité".

Dans ce chapitre, nous traiterons uniquement des aspects théoriques minimaux du SQC (Statistical Quality Control) relatifs au contrôle statistique de la qualité (dont c'est le métier du "qualiticien") dans le cadre de la fabrication et de la mise en production de biens ou de services et qui constitue le minimum-minimorum de la connaissance de tout ingénieur qualité actif dans une organisation quelconque (industrielle ou administrative) sous peine d'avoir aucune crédibilité! Par ailleurs méfiez vous des entreprises - particulièrement des multinationales - qui recherchent des spécialistes qualité maîtrisant Microsoft Excel ou Microsoft Access. Car cela signifiera qu'elles utilisent des outils non professionnels pour faire un travail qui lui devrait pourtant l'être avec des outils adaptés (et Microsoft Excel ou Microsoft Access ne le sont pas)!!! Donc en termes d'organisation interne, vous pouvez vous assurer que ces entreprises organisent et analysent n'importe quoi, n'importe comment, avec un outil non adapté et donc que c'est le bordel général en interne.

Selon l'utilisation, nous distinguons trois domaines principaux qui dans l'ordre conventionnel sont:

1. Contrôle statistique de processus, surveillance de fabrication ou réglage de qualité (Statistical
Process Control, SPC). Il s'agit de la surveillance d'un processus de fabrication pendant la production de produits de masse, pour découvrir des différences de qualité et pour pouvoir intervenir et conduire directement.

L'ingénieur doit obligatoirement consulter la norme ISO/TR 13425:2006 Lignes directrices pour la sélection des méthodes statistiques dans la normalisation et la spécification ainsi que la norme ISO 8258 Cartes de contrôle de Shewhart et enfin ISO/TR 18532 Lignes directrices pour l'application des méthodes statistiques à la qualité et à la normalisation industrielle avant de mettre en place des outils SPC au sein de son entreprise.

2. Contrôle de réception ou examen d'échantillon de réception (Acceptance Sampling, AC). Il s'agit du contrôle d'entrée, d'un contrôle pendant la production et d'un contrôle final des
produits dans une entreprise (ou usine) sans influence directe sur la production. Ainsi, le montant de rebut produit est mesuré. Le contrôle initial sert aussi à refuser la marchandise arrivante. Elle n'influence par conséquent la production que de manière indirecte.

L'ingénieur doit obligatoirement consulter la famille de normes ISO 3591 Règles d'échantillonnage pour les contrôles par mesures et par attributs avant de mettre en place des outils de contrôle de réception au sein de son entreprise.

3. Maintenance préventive et contrôle du vieillissement et de la défaillance et impacts critiques (Analyse des Modes de Défaillances, de leurs Effets et de leur Criticité, AMDEC). Il s'agit principalement de calculer la durée de vie de composants ou de machines afin de prévoir des remplacements à l'avance et les actions y relatives à mener pour éviter les situations critiques humaines ou financières.

L'ingénieur doit obligatoirement consulter les normes CEI 61649 Analyse de Weibull et NF EN 13306 Terminologie de la maintenance avant de mettre en place des outils de maintenance préventive au sein de son entreprise.

Ces trois domaines utilisant les statistiques en général, l'ingénieur devra toujours se référer à la famille de normes ISO 3534 Vocabulaire et symboles, ISO 3534-1 Probabilité et termes statistiques généraux, ISO 3534-2 Maîtrise statistique de la qualité, ISO 3534-3 Plans d'expérience.

Indiquons que depuis la fin du 20ème siècle, il est à la mode de regrouper les deux premiers points dans une méthodologie de travail appelée "Six Sigma" que nous allons aborder immédiatement. Enfin, signalons que dans la pratique, pour avoir un intérêt de la direction d'une entreprise, il faut toujours trouver une relation quantitative entre non-qualité et les coûts pour pouvoir faire bouger les choses...

SIX SIGMA

Deux objets ne sont jamais rigoureusement identiques. Quelles que soient les techniques utilisées pour fabriquer ces objets, si précis soient les outils, il existe une variabilité dans tout processus de production. L'objectif de tout industriel est que cette variabilité naturelle demeure dans des bornes acceptables. C'est une préoccupation majeure dans l'amélioration de la qualité industrielle.

Un des outils utilisés pour tendre vers cette qualité est la Maîtrise Statistique des Processus (MSP).Si vous produisez un certain type d'objets, et si vous souhaitez conserver vos clients pour pérenniser votre entreprise, vous devez vous assurer que les lots que vous leur livrez sont conformes à ce qui a été convenu entre vous, le plus souvent par contrat. Tout industriel sérieux effectue des contrôles sur les lots produits pour en vérifier la qualité, qu'il en soit le producteur ou bien qu'il les réceptionne. Diverses techniques statistiques liées aux prélèvements d'échantillons sont alors utilisées pour éviter, dans la plupart des cas, de vérifier un à un tous les objets contenus dans un lot. Ce contrôle d'échantillons prélevés dans des lots est indispensable si les contrôles à effectuer détruisent l'objet fabriqué, comme lors d'une analyse de la dose de composant actif contenue dans un comprimé. Il existe cependant des cas où l'on préfère vérifier tous les objets (il est par exemple souhaitable que les freins d'une voiture fonctionnent et un contrôle du freinage sur un échantillon dans la production d'un lot d'automobiles ne garantit pas que tous les véhicules freinent correctement...

Lorsqu'un lot est contrôlé, il est conforme ou il ne l'est pas. S'il est conforme, on le livre (fournisseur) ou on l'accepte (client). S'il n'est pas conforme, on peut le détruire, en vérifier un à un tous les éléments et ne détruire que ceux qui ne sont pas conformes, etc. Toutes les solutions pour traiter les lots non conformes sont onéreuses. Si le lot n'est pas conforme, le mal est fait. La MSP se fixe pour objectif d'éviter de produire des lots non conformes en surveillant la production et en intervenant dès que des anomalies sont constatées. Une bonne MSP permet de supprimer un nombre important de contrôles in fine des lots produits en mettant en place des outils statistiques de surveillance des processus de fabrication.

Pour résumer, la MSP consiste donc à contrôler le procédé en cours de fabrication et à agir sur le procédé plutôt que sur le produit si des problèmes sont détectés. Cette approche tente donc de remonter la chaîne de production le plus haut possible pour prévenir l'apparition de produit défectueux. Nous parlerons dans ce cas en particulier de contrôle de procédés.

Six Sigma est à l'origine une démarche qualité limitée dans un premier temps aux techniques de "maîtrise statistique des procédés" (M.S.P.) appelée aussi "statistiques des processus qualité" (S.P.Q. ou S.P.C. en anglais pour Statistical Process Control). Le lecteur francophone pourra se référer à la norme AFNOR X06-030 ou différentes normes ISO dont nous ferons référence plus tard dans le texte.

C'est une méthodologie de travail utile pour satisfaire les clients dont l'idée est de délivrer des produits/services de qualité, sachant que la qualité est inversement proportionnelle à la variabilité. Par ailleurs, l'introduction de la qualité doit être optimisée afin de ne pas trop augmenter les coûts. Le jeu subtil entre ces deux paramètres (qualité/coûts) et leur optimisation conjointe est souvent associé au terme de "Lean management". Si nous y intégrons Six Sigma, nous parlons alors de "Lean Six Sigma".

Six Sigma intègre tous les aspects de la maîtrise de la variabilité en entreprise que ce soit au niveau de la production, des services, de l'organisation ou de la gestion (management). D'où son intérêt! Par ailleurs, dans Six Sigma un défaut doit être paradoxalement la bienvenue, car c'est une source de progrès d'un problème initialement caché. Il faut ensuite se poser plusieurs fois la question "Pourquoi?" (traditionnellement 5 fois) afin de bien remonter à la source de celui-ci.

Nous distinguons deux types de variabilité dans la pratique:

- La "variabilité inhérente" au processus (et peu modifiable) qui induit la notion de distribution des mesures (le plus souvent admise par les entreprises comme étant une loi Normale).

- La "variabilité externe" qui induit le plus souvent un biais (déviation) dans les distributions dans le temps.

Les processus de fabrication dans l'industrie de pointe ayant une forte tendance à devenir terriblement complexes, il faut noter que les composants de base utilisés pour chaque produit ne sont pas toujours de qualité ou de performance égale. Et si de surcroît, les procédures de fabrication sont difficiles à établir, la dérive sera inévitablement au rendez-vous.

Que ce soit pour l'une ou l'autre raison, au final bon nombre de produits seront en dehors de la normale et s'écarteront ainsi de la fourchette correspondant à la qualité acceptable pour le client. Cette dérive est fort coûteuse pour l'entreprise, la gestion des rebuts, des retouches ou des retours clients pour non-conformité générant des coûts conséquents amputant sérieusement les bénéfices espérés.

Comme nous allons le voir dans ce qui suit, une définition possible assez juste de Six Sigma est: la résolution de problèmes basée sur l'exploitation de données. C'est donc une méthode scientifique de gestion.

contrôle qualité

Dans le cadre des études qualité en entreprise, nous renonçons souvent à un contrôle à 100% à cause du prix que cela engendrerait. Nous procédons alors à une prise d'échantillons. Ceux-ci doivent bien évidemment être représentatifs, c'est-à-dire quelconques et d'égales chances (in extenso le mélange est bon).

Le but de la prise d'échantillons étant bien évidemment la probabilité du taux de défaillance réel du lot complet sur la base des défaillances constatées sur l'échantillonnage.

Rappelons avant d'aller plus loin que nous avons vu dans le chapitre de Statistiques la loi hypergéométrique (et son interprétation) donnée pour rappel par (cf. chapitre de Statistiques):

equation   (74.1)

où la notation du coefficient binomial est conforme à celle définie et choisie dans le chapitre de Probabilités (donc non-conforme à la norme ISO 31-11).

Lors d'un échantillonnage, nous avons normalement un paquet de n éléments dont nous en tirons p. Au lieu de  prendre m (nombre entier!) comme le nombre d'éléments défectueux, nous allons implicitement le définir comme étant égal à:

equation   (74.2)

equation est la probabilité (supposée connue ou imposée...) qu'une pièce soit défectueuse. Ainsi, nous avons pour probabilité de trouver k pièces défectueuses dans un échantillon de p pièces parmi n:

equation   (74.3)

La probabilité cumulée de trouver k pièces défectueuses (entre 0 et k en d'autres termes) se calcule alors avec la distribution hypergéométrique cumulative:

equation   (74.4)

exempleExemple:

Dans un lot n de 100 machines, nous admettons au maximum que 3 soient défectueuses (soit que equation). Nous procédons à un échantillonnage p à chaque sortie de commande de 20 machines.

Nous voulons savoir dans un premier temps qu'elle est la probabilité que dans cet échantillonnage p, trois machines soient défectueuses, et dans un deuxième temps quel est le nombre de machines défectueuses maximum autorisé dans cet échantillonnage p qui nous dirait avec 90% de certitude que le lot de n machines en contienne que 3 défectueuses.

x

H(x)

equation

0

0.508

0.508

1

0.391

0.899

2

0.094

0.993

3

0.007

1.000

Tableau: 74.1  - Application de la loi hypergéométrique

Ainsi, la probabilité de tirer en une série de tirages trois machines défectueuses dans l'échantillon de 20 est de 0.7% et le nombre de pièces défectueuses maximum autorisé dans cet échantillon de 20 qui nous permet avec au moins 90% de certitude d'avoir 3 défectueuses est de 1 pièce défectueuse trouvée (probabilité cumulée)!

Les valeurs H(x) peuvent être calculées facilement avec la version française de Microsoft Excel 11.8346. Par exemple, la première valeur est obtenue grâce à la fonction:

=LOI.HYPERGEOMETRIQUE(0;20;3;100)=0.508

DÉFAUTS/ERREURS

Intéressons-nous donc à exposer pour la culture générale un exemple pratique et particulier de ce qui n'est qu'une application simple de la théorie des statistiques et probabilités. Pour comprendre l'importantance de la qualité et du concept "zéro défauts", considérons l'exemple général suivant de l'inventeur de la méthode:

Considérons que le montage d'une voiture de tourisme comprend 2'500 opérations et que chaque opération est parfaite 99 fois sur 100. A priori, réussir une opération dans 99 % des cas est le signe d'une maîtrise quasi parfaite de la qualité. Mais en fait, la perfection de l'ensemble suppose que 2'500 fois de suite, les opérations soient parfaitement réalisées. Si la production quotidienne se monte à 2'000 unités, sur les 5 millions d'opérations effectuées quotidiennement dans notre usine, il y a 1% de défauts de montage soit 50'000, et en moyenne 25 défauts par voiture, ce qui est difficilement acceptable. Aussi, admettons que cette usine imaginaire soit dotée d'un service de contrôle intervenant à la fin du montage de façon systématique. Cela représente un coût considérable en heures de travail de contrôle. Si les défauts peuvent être corrigés, il faudra faire des retouches, remplacer des pièces peut-être, et travailler dans des conditions imprévues pour corriger les défauts. S'ils sont trop importants, ces défauts rendent les produits inutilisables, et les rebuts sont extrêmement coûteux. Pire encore, si le service de contrôle voit 99% des défauts, il en subsiste 500 quotidiennement, et cela suppose des retours et réparations coûteuses ainsi qu'une détérioration significative de l'image de marque selon les performances de la concurrence.

Cet exemple faisant office de cas d'école, imaginons pour la suite une entreprise fabricant trois copies d'un même produit sortant d'une même chaîne, chaque copie étant composée de huit éléments.

Remarque: Nous pouvons tout aussi bien imaginer une société de services développant (fabricant) trois copies d'un logiciel (produit) sortant d'une même équipe de développement (chaîne), chacun composé d'un nombre égal de modules (éléments).

Supposons que le produit P1 a un défaut, le produit P2 zéro défauts et le produit P3 deux défauts.

Ici, Six Sigma suppose implicitement que les défauts sont des variables indépendantes, ce qui est relativement rare dans les chaînes de fabrication machines mais plus courant dans les chaînes dans lesquelles des humains sont les intervenants. Cependant, nous pouvons considérer lors de l'application de la SPC sur des machines qu'un échantillonnage du temps dans le processus de mesure équivaut à avoir une variable aléatoire!!

Remarques:

R1. Dans le cadre de l'exemple du logiciel pris plus haut, l'indépendance est peu probable si nous ne prenons pas un exemple dans lequel les modules sont personnalisés selon les besoins du client.

R2. L'inconstance des résultats de production de certaines machines dont les réglages bougent pendant le fonctionnement... (ce qui est courant), voir que la matière première change de qualité pendant la production (ce qui est aussi courant!) posent donc de gros problèmes d'application des méthodes SPC.

La moyenne arithmétique des défauts nommée dans le standard Six Sigma "Defects Per Unit" (D.P.U.) est alors défini par:

equation   (74.5)

et donne dans notre exemple:

equation   (74.6)

ce qui signifie en moyenne que chaque produit a un défaut de conception ou fabrication. Attention! Cette valeur n'est pas une probabilité pour les simples raisons qu'elle peut d'abord être supérieure à 1 et qu'ensuite elle a comme dimension des [défauts]/[produits].

De même, l'analyse peut être faite au niveau du nombre total d'éléments défectueux possibles qui composent le produit tel que nous sommes amenés naturellement à définir selon le standard Six Sigma le "Defects per Unit Opportunity" (D.P.O.):

equation   (74.7)

ainsi, dans notre exemple, nous avons:

equation   (74.8)

et ceci peut être vu comme la probabilité d'avoir un défaut par élément de produit puisque c'est une valeur sans dimensions:

equation   (74.9)

Par extension, nous pouvons argumenter que 87.5% des éléments d'une unité n'ont pas de défauts et comme Six Sigma aime bien travailler avec des exemples de l'ordre du million (c'est plus impressionnant) nous avons alors les "Defects Per Million Opportunities" (D.P.M.O.) qui devient:

equation   (74.10)

ce qui dans notre exemple donne:

equation   (74.11)

Comme la probabilité D qu'un élément d'une pièce soit non défectueux est de 87.5% (soit 12.5% de taux de rebus) alors, par l'axiome des probabilités conjointes (cf. chapitre de Probabilités), la probabilité qu'un produit dans son ensemble soit non défectueux est de:

equation   (74.12)

ce qui dans notre exemple donne:

equation   (74.13)

ce qui n'est pas excellent...

Remarque: Dans Six Sigma, les probabilités conjointes sont aussi naturellement utilisées pour calculer la probabilité conjointe de produits non défectueux dans une chaîne de processus de production P connectés en série. Cette probabilité conjointe est appelée dans Six Sigma "Rolled Troughput Yield" (R.T.Y.) ou "Rendement Global Combiné" (R.G.C.) et vaut:

equation   (74.14)

equation

Ce type de calcul étant très utilisé par les logisticiens qui nomment le résultat "taux de disponibilité" ainsi que par les chefs de projets pour la durée d'une phase d'un projet lorsqu'ils considèrent les durées des tâches comme indépendantes (sur des structures plus complexes, on parle parfois "d'arbres de probabilités pondérés").

Ainsi, dans une chaîne industrielle basée sur l'exemple précédent pour avoir une quantité Q bien définie de produits (supposés utiliser qu'un seul composant de chaque étape) au bout de la chaîne, il faudra à l'étape A prévoir:

equation   (74.15)

soit 52.42% de composants A de plus que prévu. Il faudra prévoir à l'étape B:

equation   (74.16)

soit 37.17% de composants de plus. Et ainsi de suite...

Rappelons maintenant que la densité de probabilité d'avoir k fois l'événement p et N-k fois l'événement q dans n'importe quel arrangement (ou ordre) est donné par (cf. chapitre de Statistiques):

equation   (74.17)

et est appelée la loi binomiale ayant pour espérance et écart-type (cf. chapitre de Statistiques):

equation   (74.18)

Ainsi, dans le standard Six Sigma, nous pouvons appliquer la loi binomiale pour connaître quelle est la probabilité d'avoir zéro éléments défectueux et 8 autres en bon état de marche sur un produit de la chaîne de fabrication de notre exemple (si tous les éléments ont la même probabilité de tomber en panne...):

equation   (74.19)

et nous retombons bien évidemment sur la valeur obtenue avec les probabilités conjointes avec:

equation   (74.20)

Ou la probabilité d'avoir un élément défectueux et sept autres en bon état sur un produit de la chaîne de fabrication:

equation   (74.21)

nous voyons que la loi binomiale nous donne 39.26% de probabilité d'avoir un élément défectueux sur 8 dans un produit.

Par ailleurs, dans le chapitre de Statistiques, nous avons démontré que lorsque la probabilité p est très faible et tend vers zéro mais que toutefois la valeur moyenne  equation tend vers une valeur fixe si n tend vers l'infini, la loi binomiale de moyenne equation avec k épreuves était alors donnée par une loi de Poisson:

equation   (74.22)

avec:

equation   (74.23)

Remarque: Dans un cadre pratique, il est fait usage de l'estimateur de maximum de vraisemblance de la loi exponentielle pour déterminer la moyenne et l'écart-type ci-dessus (cf. chapitre de Statistiques).

Ce que Six Sigma note naturellement:

equation   (74.24)

avec:

equation   (74.25)

Ainsi, dans notre exemple, il est intéressant de regarder la valeur obtenue (qui sera forcément différente étant donné que nous sommes loin d'avoir une infinité d'individus et que p est loin d'être petit) en appliquant une telle loi continue (la loi continue la plus proche de la loi binomiale en fait):

equation   (74.26)

avec:

equation   (74.27)

ce qui est un résultat encore plus mauvais qu'avec la loi binomiale pour nos produits.

Cependant, si p est fixé au départ, la moyenne equation tend également vers l'infini théoriquement dans la loi de Poisson de plus l'écart-type equation tend également vers l'infini.

Si nous voulons calculer la limite de la distribution binomiale, il s'agira donc de faire un changement d'origine qui stabilise la moyenne, en 0 par exemple, et un changement d'unité qui stabilise l'écart, à 1 par exemple. Ce calcul ayant déjà été fait dans le chapitre de Statistique, nous savons que le résultat est la loi Normale:

equation   (74.28)

Ainsi, dans notre exemple, nous avons equation et l'écart-type est donné par l'estimateur sans biais de l'écart-type (cf. chapitre de Statistique):

equation   (74.29)

ce qui dans notre exemple donne equation.

Pour déterminer la probabilité nous calculons la valeur numérique de la loi de Gauss-Laplace (loi Normale) pour equation:

equation   (74.30)

Ainsi, en appliquant la loi Normale, nous avons 24.19% de chance de tirer au premier coup un produit défectueux. Cet écart par rapport aux autres méthodes s'expliquant simplement par les hypothèses de départ (nombre d'individus fini, probabilité faible, etc.)

Remarque: Ceux qui penseraient utiliser la loi triangulaire (cf. chapitres de Statistiques) doivent tout de suite l'oublier. Effectivement, comme en qualité la valeur optimiste sera le zéro par définition, la probabilité que le nombre de défauts soit égal à 0 sera immédiatement de zéro.

INDICES DE CAPABILITÉ

Six Sigma (et aussi la série de normes ISO 22514) définit plusieurs indices permettant de mesurer pendant le processus de fabrication la capabilité de contrôle dans le cas d'un grand nombre de mesures de défauts répartis souvent selon une loi de Gauss-Laplace (loi Normale).

Basiquement, si nous nous imaginons dans une entreprise, responsable de la qualité d'usinage d'une nouvelle machine, d'une nouvelle série de pièces, nous allons être confrontés aux deux situations suivantes:

1. Au début de la production, il peut y avoir de gros écarts de qualité dus à des défauts de la machine ou de réglages importants mal initialisés. Ce sont des défauts qui vont souvent être rapidement corrigés (sur le court terme). Dès lors pendant cette période de grosses corrections, nous faisons des contrôles par lot (entre chaque grosse correction) et chacun sera considéré comme une variable aléatoire indépendante et identiquement distribuée (selon une loi Normale) mais de moyenne et écart-type bien évidemment différent.

2. Une fois les gros défauts corrigés, nous n'allons avoir en théorie plus que des défauts minimes très difficilement contrôlables et ce même sur long terme. Alors l'analyse statistique ne se fait plus forcément par lot de pièces mais par pièces et l'ensemble des pièces sur le long terme est considéré comme un unique lot à chaque fois.

Ces deux scénarios mettent en évidence que nous n'effectuons alors logiquement pas les mêmes analyses en début de production et ensuite sur le long terme. Raison pour laquelle en SPC nous définissons plusieurs indices (dont les notations sont propre à ce site Internet car elles changent selon les normes) dont 2 principaux qui sont:

D1. Nous appelons "capabilité potentielle du procédé court terme" ou "indice dispersion court terme" le rapport entre l'étendue de contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le processus est centré (c'est-à-dire sous contrôle statistique - les caractéristiques du produit fabriqué varient peu) tel que:

equation   (74.31)

ce qui s'écrit aussi:

equation   (74.32)

USL est la limite supérieure de contrôle/tolérance ou "Upper Specification Level" (USL) de la distribution et LSL la limite inférieure ou "Lower Specification Level" (LSL) que nous imposons souvent (mais pas toujours!) dans l'industrie comme à distances égales par rapport à la moyenne equation théorique souhaitée. La capabilité ci-dessus est donc un indice que nous chercherons à maximiser (puisque l'écart-type au dénominateur doit être minimisé!).

Ce rapport est utile dans l'industrie dans le sens où l'étendue E (qui est importante, car elle représente la dispersion/variation du processus) est assimilée à la "voix du client" (ses exigences) et le 6 sigma au dénominateur au comportement réel du procédé/processus censé inclure quasiment toutes les issues possibles. Il vaut donc mieux espérer que ce rapport soit au pire égal à l'unité!

Voici typiquement un exemple en gestion de projets où, lorsque le client ne paie pas pour une modélisation fine du risque fine (le mandataire accepte alors par contrat une variation des délais et coûts qui peut dépasser les 50%), on tombe sur ce type de distribution :

equation
Figure: 74.1 - Tracé typique d'un plot de contrôle avec étendues et limites

Remarque: En MSP, l'étendue E est souvent notée IT, signifiant "intervalle de tolérance".

L'écart-type au dénominateur étant donné par la relation démontrée dans le chapitre de Statistiques dans le cas de k variables aléatoires indépendantes et identiquement distribuées selon une loi Normale (mais d'écart-type et moyenne non-identique):

equation   (74.33)

CT est l'abréviation de "court terme" (abréviation souvent non précisée dans la pratique car supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le premier scénario dont nous avons fait mention plus haut. Car entre chaque grosse correction, les lots sont considérés comme indépendants et ne peuvent pas être analysés comme un seul et unique lot (ce serait une aberration!).

Avant de continuer, voyns qu'il nous est possible de construire facilement un test d'hypothèse pour l'indicateur equation. Effectivement, en se rappelant que nous avons démontré dans le chapitre de Statistique que:

equation   (7.34)

Il est alors immédiat que:

equation   (7.35)

et in extenso:

equation   (7.36)

Et dès lors:

equation   (7.37)

Et en adaptant l'écriture au domaine du génie industriel, il vient:

equation   (7.38)

ou encore:

equation   (7.39)

et nous pouvons appliquer le même raisonnement pour tous les types d'indicateurs du même genre que nous verrons par la site!

Remarque: Dans le cadre de notre étude plus loin des cartes de contrôle, nous verrons qu'il est possible d'utiliser des expressions particulières pour l'écart-type lorsque nous travaillons avec des échantillons de mesures. Ces expressions seront basées pour l'une sur la loi du Khi-deux et pour l'autre les statistiques d'ordre.

Attention cependant! Comme souvent dans la situation court terme (lors de la correction des grosses sources d'erreurs donc) les lots de tests sont petits, même très petits, afin de diminuer les coûts en production. Dès lors l'écart-type se trouvant sous la racine (qui est l'estimateur de maximum de vraisemblance de la loi Normale) n'a pas une valeur vraiment correcte... Il est alors bon d'utiliser soit d'autres méthodes de calcul assez empiriques comme le font de nombreux logiciels, soit de calculer un intervalle de confiance de l'indice de capabilité en calculant l'intervalle de confiance de l'écart-type court terme comme nous l'avons vu dans le chapitre de Statistiques.

D2. Nous appelons "Performance globale du procédé long terme" le rapport entre l'étendue de contrôle E de la distribution des valeurs et la qualité de Six Sigma (6 sigma) lorsque le processus est centré tel que:

equation   (74.40)

ce qui s'écrit aussi:

equation   (74.41)

L'écart-type au dénominateur étant donné cette fois par le cas où nous considérons tous les gros défauts corrigés et le processus stable afin de considérer toutes les pièces fabriquées comme un seul et unique lot de contrôle:

equation   (74.42)

LT est l'abréviation de "long terme" (abréviation souvent non précisée dans la pratique car supposée connue dans le contexte). Cet écart-type est bien évidemment le meilleur pour le deuxième scénario dont nous avons fait mention plus haut. Car les variations étant maintenant, par hypothèse, toutes petites, l'ensemble de la fabrication peut être supposé comme étant un seul et unique lot de contrôle sur le long terme (bon cela n'empêche pas qu'il faut parfois nettoyer les valeurs extrêmes qui peuvent se produire).

Le tolérancement des caractéristiques est donc très important pour l'obtention de la qualité et de la fiabilité des produits assemblés. Traditionnellement, une tolérance s'exprime sous la forme d'un bipoint [Min,Max]. Une caractéristique est alors déclarée conforme si elle se situe dans les tolérances.

Le problème du tolérancement consiste à tenter de concilier la fixation des limites de variabilité acceptable les plus larges possibles pour diminuer les coûts de production et d'assurer un niveau de qualité optimal sur le produit fini.

Deux approches tentent de résoudre ce problème:

1. Le tolérancement au pire des cas garantit l'assemblage dans toutes les situations à partir du moment où les caractéristiques élémentaires sont dans les tolérances.

2. Le tolérancement statistique tient compte de la faible probabilité d'assemblages d'extrêmes entre eux et permet d'élargir de façon importante les tolérances pour diminuer les coûts et c'est donc à celui-ci que nous allons nous intéresser ici comme vous l'aurez compris.

Un processus est dit "limite capable" (soit limite stable par rapport aux exigences du client en d'autres termes) s'il le ratio donné ci-dessus (en choisissant 6 fois l'écart-type) est supérieur à 1. Mais dans l'industrie, on préfère prendre en réalité la valeur de ~1.33 dans le cas d'une distribution Normale des données.

Bien évidemment, la valeur equation de l'écart-type peut être calculée en utilisant les estimateurs de maximum de vraisemblance avec ou sans biais vus dans le chapitre de Statistiques mais il ne s'agit en aucun cas dans la réalité pratique de l'écart-type théorique mais uniquement d'un estimateur! Par ailleurs, nous verrons plus loin qu'en fonction de l'écart-type utilisé, les notations changent!

Remarque: En entreprise, il faut faire attention car l'instrument de mesure rajoute son propre écart-type (erreur) sur celui de la production.

Comme nous l'avons démontré au chapitre de Statistiques, l'erreur-type (écart-type de la moyenne) est:

equation   (74.43)

Dans la méthodologie Six Sigma, nous prenons alors souvent pour les processus à long terme et sous contrôle:

equation   (74.44)

quand nous analysons des cartes de contrôle dont les variables aléatoires sont des échantillons de n variables aléatoires indépendantes et identiquement distribuées et que les limites n'ont pas été imposées par un client ou par une politique interne ou des contraintes techniques! Bien évidemment, il faut bien être conscient que UCL et LCL n'ont pas la même expression dans des cas plus complexes et donc pour des distributions autres que la loi Normale!

Par ailleurs, l'expression précédente diffère aussi pour les processus à court terme, car l'exemple donné ci-dessus est pour un cas de mesures sur le long terme uniquement pour rappel!

 

Comme le montrent les deux exemples ci-dessous:

equation
Figure: 74.2 - Deux plots de mesures sous contrôle statistique avec une capabilité différente

L'indice equation impose que la moyenne (l'objectif) est centrée entre LSL et USL. Dès lors, la moyenne est confondue avec ce que nous appelons la "cible" T du processus.

Mais la moyenne equation dans la réalité peut être décalée par rapport à l'objectif T initial qui doit lui toujours (dans l'usage courant) être à distance égale entre USL et LSL comme le montre la figure ci-dessous dans le cas particulier d'une loi Normale:

equation
Figure: 74.3 - Mesures sous contrôle statistique décalé par rapport à la cible

Mais ce n'est pas forcément le cas dans la réalité où les ingénieurs (quelque soit leur domaine d'application) peuvent choisir des LSL et USL asymétriques par rapport à la moyenne ne serait-ce que parce que la loi n'est pas toujours Normale (typiquement le cas en gestion de projets...)! D'où la définition suivante:

D2. Nous appelons alors "Capabilité potentielle décentrée court terme du procédé" (dans le cas décentré) ou "Process Capability Index (within)" la relation:

equation   (74.45)

avec:

equation   (74.46)

equation est appelé le "dégré de biais" ou "indice de position" et T le "target" donné naturellement par:

equation   (74.47)

qui donne le milieu de la distribution relativement au bi-point [LSL,USL] imposé (ne pas oublier que l'écart-type au dénominateur de la relation antéprécédente est l'écart-type court terme!).

Au fait cet indicateur de capabilité de contrôle peut sembler très artificiel, mais il ne l'est pas totalement... Effectivement, il y a quelques valeurs remarquables (celles qui intéressent l'ingénieur) qui permettent de se faire une bonne idée de ce qu'il se passe avec celui-ci:

1. Si la moyenne et la cible sont confondues, nous avons alors:

equation   (74.48)

nous nous retrouvons donc avec equation et donc equation et le critère de jugement de la valeur de l'indice sera basé sur l'indice de capabilité centré court terme.

2. Si faute d'un mauvais contrôle du processus nous avons:

equation   (74.49)

alors la moyenne equation est soit au-dessus de USL soit en dessous de LSL ce qui a pour conséquence d'avoir equation et donc equation.

3. Si nous avons:

equation   (74.50)

alors la moyenne equation est comprise entre les valeurs USL et LSL ce qui a pour conséquence d'avoir equation et donc equation.

4. Si nous avons:

equation   (74.51)

alors cela signifie simplement que la moyenne est confondue avec USL ou LSL et nous avons alors equation et equation.

Comme l'interprétation reste cependant délicate et difficile, nous construisons les indices de capabilité unilatéraux "Upper Capability Index CPU" et "Lower Capability Index CPL" donnés par:

equation   (74.52)

que nous chercherons bien évidemment aussi à maximiser. Voyons d'où viennent ces deux valeurs et comment les utiliser:

Démonstration:

D'abord, nous avons besoin de deux formulations particulières du degré de biais k.

Si:

equation   (74.53)

alors nous pouvons nous débarrasser de la valeur absolue:

equation   (74.54)

Si:

equation   (74.55)

alors nous pouvons nous débarrasser de la valeur absolue:

equation   (74.56)

Nous avons alors lorsque equation:

equation   (74.57)

et respectivement lorsque equation:

equation   (74.58)

equation C.Q.F.D.

À long terme, dans certaines entreprises, il est intéressant de savoir qu'elles sont les plus mauvaises valeurs prises par les indices CPU et CPL (c'est le cas dans le domaine de la production mais pas forcément de la gestion de projets)

Les plus mauvaises valeurs étant trivialement les plus petites, nous prenons souvent (avec quelques unes des notations différentes que l'on peut trouver dans la littérature spécialisée...):

equation   (74.59)

Voici par exemple un diagramme d'analyse de la capabilité généré par le logiciel Minitab 15.1.1 (en anglais) avec les différents facteurs susmentionnés sur un échantillon de 68 données suivant une loi Normale (un test de normalité a été fait avant):

equation
Figure: 74.4 - Diagramme de capabilité généré avec Minitab 15.1.1

Deux lectures typiques sont possibles (nous expliquerons la partie inférieure gauche du graphique plus loin):

1. En production: Le processus est capable (valeur >1.33) mais avec une (trop) forte déviation vers le gauche par rapport à la cible définie, ce qui n'est pas bon (CPL ayant la valeur la plus petite) et doit être corrigé.

2. En gestion de projets: Les tâches redondantes sont sous contrôle (valeur >1.33) mais avec une forte déviation vers le gauche, ce qui peut être bon si notre objectif est de prendre de l'avance par rapport au planifié (rien à corriger).

Il faut vraiment prendre garde au fait que dans la réalité, il n'est pas toujours possible de prendre la loi Normale, or tous les exemples donnés ci-dessus sont basés sur cette hypothèse simplificatrice.

Toujours le cadre de la gestion de la qualité en production, la figure ci-dessous représente bien la réalité dans le cadre d'un processus court ou long terme:

equation

Figure: 74.5 - Processus court/long terme (source: MSP/SPC de Maurice Pillet)

Chaque petite gaussienne en gris clair, représente une analyse de lots assimilé au concept de "dispersion instantanée". Nous voyons bien que leurs moyennes ne cessent de bouger pendant la période de mesures (que cette variation soit grande ou très faible) et c'est ce que nous appelons la "dispersion globale". Le but dans les organisations (industries ou administrations) est de faire en sorte que la variabilité instantanée ou globale soit limitée au maximum.

Or la relation définissant equationsupposait, comme nous l'avons mentionné, que le processus est sous contrôle centré (donc toutes les gaussiennes sont alignées) et sur une optique court terme.

De même, la relation définissant equation supposait, comme nous l'avons mentionné, que le processus est sous contrôle, sur une optique court terme et décentré par choix (ou à cause du fait que la loi n'est pas Normale).

Par contre, si le processus n'est pas centré parce qu'il n'est pas sous contrôle alors qu'il devrait l'être, la variable aléatoire mesurée est la somme de la variation aléatoire des réglages X de la machine et des variations aléatoires non contrôlables des contraintes des pièces Y.

L'écart-type total est alors, si les deux variables aléatoires suivent une loi Normale (et surtout qu'elles sont indépendantes....), la racine carrée de la somme des écarts-types (cf. chapitre de Statistiques):

equation   (74.60)

Or, si nous n'avons qu'une seule mesure, il vient en prenant l'estimateur biaisé (c'est un peu n'importe quoi de l'utiliser dans ce cas-là mais bon...):

equation   (74.61)

Or dans le cas d'étude qui nous intéresse Y représente la moyenne expérimentale (mesurée) du processus qu'on cherche à mettre sous contrôle. Cette moyenne est notée traditionnellement m dans le domaine.

Ensuite, equation n'étant pas connu on prend ce qu'il devrait être: c'est la cible T du processus. Ainsi, nous introduisons un nouvel indice appelé "Capabilité potentielle décentrée moyenne court terme du procédé":

equation   (74.62)

où encore une fois il faut se rappeler que l'écart-type dans la racine au dénominateur est l'écart-type court terme!

Nous voyons immédiatement que plus equation est proche de equation mieux c'est (dans les domaines de production du moins).

Nous avons donc finalement les trois indices de capabilités court terme centré et non centré les plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le maximum d'infos dans celles-ci):

equation   (74.63)

De même nous avons aussi les trois indices de capabilités long terme centré et non centré les plus courants (nous avons délibérément choisi d'uniformiser les notations et de mettre le maximum d'infos dans celles-ci):

equation   (74.64)

Enfin, indiquons que bien que ce soit pas très pertinent, il arrive parfois que certains ingénieurs fassent les deux analyses (court terme + long terme) en même temps sur la même base de données de mesures.

Remarque: Indiquons que les capabilités procédés d'un procédé industriel lorsque appliquées à des machines sont notées respectivement equation. Bref... pour faire le tri se référer aux normes ISO 22514-2:2013 ou l'ancienne version ISO 21747:2006.

Cependant, pour faire de l'analyse objective sur les indices de capabilité vus jusqu'à maintenant, il faudrait d'abord que les instruments de mesure soient eux-mêmes capables... ce que nous appelons souvent les "méthodes R&R" (Répétabilité, Reproductibilité).

Le principe de base (car le principe avancé consiste à faire une ANOVA à deux facteurs avec répétition) consiste alors à évaluer la dispersion courte terme ou respectivement long terme de l'instrument de mesure afin de calculer une "capabilité de processus de contrôle" définie par:

equation   (74.65)

ou encore selon l'industrie certain utilisent l'écart-type basé sur l'étendue et que nous avons démontré dans le chapitre de Statistiques lors de notre étude des valeurs extrêmes et appelée "Variation d'Équipement" consistant donc à calculer la moyenne des étendues de toutes les mesures faites par différents opéraeurs et de la diviser par la constante de Hartley:

equation   (74.66)

Dans les cas classiques, nous déclarons le moyen de contrôle capable pour un suivi MSP lorsque cette capabilité est supérieure à 4 et nous allons de suite voir pourquoi. Rappelons pour cela d'abord que:

equation   (74.67)

Mais la variance observée est au fait la somme de la "vraie" variance et de celle de l'instrument telle que:

equation   (74.68)

Or nous avons:

equation et equation   (74.69)

En mettant le tout au carré, nous en déduisons:

equation   (74.70)

D'où:

equation   (74.71)

Ce qui nous donne:

equation   (74.72)

Soit:

equation   (74.73)

Ce qui se traduit par le graphique de la figure suivante qui montre bien l'intérêt d'un equation au moins égal à 4!

equation
Figure: 74.6 - Relation entre capabilité vraie et mesurées

Dans la pratique, signalons que pour déterminer equation on se sert d'une pièce étalon mesurée par interférométrie LASER et s'assurer ensuite que tous les essais répétés de mesure se fassent sur les deux mêmes points de mesure.

Une fois ceci fait, on effectue plusieurs mesures de la cote étalon et on prend l'écart-type de ces mesures. Ce qui donnera le equation.

L'étendue E est elle imposée par le client ou par des ingénieurs internes à l'entreprise. Elle sera souvent prise comme étant au plus dixième de l'unité de tolérance d'une pièce.

Par exemple, si nous avons un diamètre intérieur de equation (étendue de tolérance de 2 microns ce qui est déjà du haut de gamme niveau précision, car à notre époque le standard se situe plutôt autour des 3!), notre appareil devra alors avoir selon la règle précédemment citée une étendue de 0.2 microns... Il est alors aisé de déterminer qu'elle devra être l'écart-type maximum de l'instrument si on se fixe une capabilité de processus de contrôle de 4 (et encore... 4 c'est grossier!).

Certains ingénieurs apprécient de savoir à combien d'éléments en millions d'unités produites (parties par million: PPM) seront considérées comme défectueuses relativement.

Le calcul est alors aisé puisque l'ingénieur a à sa disposition au moins les informations suivantes:

equation   (74.74)

et que les données suivent une loi Normale alors il est immédiat que (cf. chapitre de Statistiques):

equation   (74.75)

et:

equation   (74.76)

valeurs très aisées à obtenir avec n'importe quel tableur comme Microsoft Excel par exemple.

Nous avons alors

equation   (74.77)

il en est de même pour la capabilité long terme (il suffit de prendre alors l'expression correspondante de l'écart-type).

NIVEAUX DE QUALITÉS

Signalons un point important relativement à Six Sigma. Au fait, objectivement, l'idée de cette méthode est, certes, de faire de la SPC (entre autres, mais ça ce n'est pas nouveau) mais surtout de garantir au client selon la tradition couramment admise avec un écart-type ayant une borne supérieure de equation avec une déviation à la moyenne (en valeur absolue) de 1.5equation par rapport à la cible, ce qui garantit au plus 3.4 PPM (c'est-à-dire 3.4 rejets par million).

Remarque: Ce choix empirique vient de la mise en pratique de la méthode Six Sigma par son créateur (Bill Smith). Il a observé dans son entreprise (Motorola) que sous contrôle statistique, il avait quasiment systématiquement une déviation comprise entre 1.2 et 1.8equation à la moyenne pour tous ses procédés industriels.

Voyons d'où vient cette dernière valeur à l'aide des deux tableaux suivants:

1. D'abord construisons un tableau de type idéal qui présente des données d'un procédé court terme (mais les calculs sont parfaitement identiques pour du long terme) centré sur la cible (de cible nulle ici, ce qui est un cas typique), de moyenne nulle (donc sur la cible et alors donc equation) et d'écart-type unitaire avec USL et LSL symétriques (ce qui restreint par contre le champ d'application):

Cp

Cpk

Défauts (PPM)

Niveau de qualité Sigma

Critère

0.5

0.5

133614

1.5

Mauvais

0.6

0.6

71861

1.8

 

0.7

0.7

35729

2.1

 

0.8

0.8

16395

2.4

 

0.9

0.9

6934

2.7

 

1

1

2700

3

 

1.1

1.1

967

3.3

 

1.2

1.2

318

3.6

 

1.3

1.3

96

3.9

Limite

1.4

1.4

27

4.2

 

1.5

1.5

6.8

4.5

 

1.6

1.6

1.6

4.8

 

1.7

1.7

0.34

5.1

 

1.8

1.8

0.067

5.4

 

1.9

1.9

0.012

5.7

 

2

2

0.002

6

Excellent

Tableau: 74.2  - Capabilité, Niveau de qualité Sigma et P.P.M. dans procédé centré

où toutes les données sont obtenues à l'aide des relations suivantes à partir de l'indice de capabilité potentielle uniquement:

equation   (74.78)

si l'écart-type est réduit (ce qui peut toujours être fait et ne change point la justesse des résultats!). Et puisque dans le tableau ci-dessus LSL et USL sont symétriques par rapport à la cible:

equation   (74.79)

et les PPM sont conformément à ce que nous avons vu juste avant donnés par:

equation   (74.80)

et donc puisque dans l'exemple ci-dessus LSL et USL sont symétrique par rapport à la cible cela se simplifie en:

equation   (74.81)

où, par exemple, la valeur du PPM donnée à la ligne "Limite" est  obtenue avec Maple 4.00b à l'aide de la commande:

>evalf((1-1/sqrt(2*Pi)*int(exp(-x^2/2),x=-infinity..3.9))*2)*1E6;

ou avec la version anglaise de Microsoft Excel 11.8346:

=(1-NORMDIST(3.9;0;1;1))*1E6

Rappelons que le "niveau de qualité sigma" noté equation  est au fait donné à l'aide du tableau suivant que nous avions construit dans le chapitre de Statistiques:

Niveau de qualité Sigma

Taux de non-défection assuré en %

Taux de défection en parties par million

equation

68.26894

317'311

equation

95.4499

45'500

equation

99.73002

2'700

equation

99.99366

63.4

equation

99.999943

0.57

equation

99.9999998

0.002

Tableau: 74.3  - Capabilité, Taux de non-défection en % et PPM

et pour lequel nous avions donné la commande Maple 4.00b pour obtenir les valeurs qui sont valables pour tout écart-type et toute espérance!

2. Maintenant construisons le tableau au pire selon Six Sigma, soit un tableau en procédé non centré (c'est-à-dire où equation n'est pas satisfait) avec une déviation de la moyenne de equation (donc à droite mais on pourrait prendre à gauche et les résultats seraient les mêmes) par rapport à la cible et d'écart-type unitaire avec USL et LSL symétriques (ce qui restreint toujours le champ d'application):

Cp

Cpk

Défauts (PPM)

Niveau de qualité Sigma

Critère

0.5

0

501350

1.5

Mauvais

0.6

0.1

382572

1.8

 

0.7

0.2

27412

2.1

 

0.8

0.3

184108

2.4

 

0.9

0.4

115083

2.7

 

1

0.5

66810

3

 

1.1

0.6

35931

3.3

 

1.2

0.7

17865

3.6

 

1.3

0.8

8198

3.9

Limite

1.4

0.9

3467

4.2

 

1.5

1

1350

4.5

 

1.6

1.1

483

4.8

 

1.7

1.2

159

5.1

 

1.8

1.3

48

5.4

 

1.9

1.4

13

5.7

 

2

1.5

3.4

6

Excellent

Tableau: 74.4  - Capabilité, Niveau de qualité Sigma et P.P.M. dans procédé décentré

où toutes les données sont obtenues à l'aide des relations suivantes à partir de l'indice de capabilité potentielle uniquement:

equation   (74.82)

et donc:

equation   (74.83)

d'où:

equation   (74.84)

et les PPM sont conformément à ce que nous avons vu juste avant donnés par:

equation   (74.85)

où la ligne "Limite" du tableau précédent est par exemple obtenue avec Maple 4.00b à l'aide de la commande:

>evalf((1-1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..(1.3*3))))*1E6+evalf((1/sqrt(2*Pi)*int(exp(-(x-1.5)^2/2),x=-infinity..-(3*(1.3+1)))))*1E6;

ou avec la version anglaise de Microsoft Excel 11.8346:

=(((1-NORMDIST(3*1.3;1.5;1;1))+NORMDIST(-3*(1.3+1);1.5;1;1)))*1E6

On comprend enfin en voyant cette fameuse ligne "Limite", pourquoi un procédé sous-contrôle est dit "limite capable" avec un indice de capabilité potentielle de 1.33 étant donné le nombre de PPM!

Donc, le but dans la pratique c'est bien évidemment d'être dans la situation du premier tableau avec pour valeur correspondante dans ce premier tableau à un niveau de qualité sigma de equation pour avoir l'équivalent des 3.4 PPM du deuxième tableau (car il est plus facile de centrer un procédé que de contrôler ses écarts).

Toute l'importance des valeurs calculées ci-dessous est dans l'application de procédés de fabrication à n-étapes en série (considérés sous la dénomination de "processus"). Cette application sera présentée dans le chapitre sur les Techniques de Gestion.

exempleExemple:

Faisons un résumé de tout cela en considérant une nouvelle petite production de equation pièces par lot de 10 (afin d'ajuster en cours de production). La mesure de côtes de 5 pièces chaque heure pendant 10 heures avec une tolérance de equation soit en termes de centièmes une étendue de:

equation   (74.86)

et une cible de equation (en termes d'écarts). Nous avons les données suivantes:

 

1

2

3

4

5

6

7

8

9

10

1

-2

-4

-1

0

4

0

3

0

1

-1

2

0

-3

0

-2

1

-2

0

1

-1

2

3

-1

0

-3

-1

0

0

-1

-1

3

1

4

1

1

-2

2

2

0

1

0

4

0

5

-1

-1

-3

0

0

3

3

2

1

0

equation

-0.6

-1.4

-1.8

-0.2

1.4

0.2

1.2

0.4

1.6

0.5

equation

1.14

2.07

1.30

1.48

1.67

1.79

1.79

1.14

1.95

1.14

Tableau: 74.5  - Application d'analyse de maîtrise statistique des procédés

Nous voyons immédiatement que le processus de fabrication a été non stationnaire pendant cette première production, il faudra donc apporter des corrections à l'avenir:

equation
Figure: 74.7 - Preuve par un tracé que le processus est non stationnaire

ou sous forme de carte de contrôle (comme je les aime) avec la représentation d'un écart-type de equation (ce qui est suffisant pour des petites quantités des pièces bon marché à fabriquer):

equation
Figure: 74.8 - Petite carte de contrôle empirique

Donc, on devine quand même que le processus est limite...

Remarque: Une chose intéressante c'est que l'on peut analyser aussi ce graphique en utilisant les outils mathématiques de l'analyse des séries temporelles (cf. chapitre d'Économie).

D'abord, si nous voulons faire une étude statistique pertinente des différentes données ci-dessus nous pouvons calculer la moyenne générale des écarts qui sous l'hypothèse d'une distribution Normale est la moyenne arithmétique (cf. chapitre de Statistiques):

equation   (74.87)

Ensuite l'écart-type des données de toutes les pièces est de:

equation   (74.88)

en utilisant l'estimateur de maximum de vraisemblance de la variance de la loi Normale:

equation   (74.89)

Donc, l'erreur-standard (l'estimateur de l'écart-type de la moyenne) est de:

equation   (74.90)

Donc, l'intervalle de confiance à 95% de la moyenne est de (cf. chapitre de Statistiques):

equation   (74.91)

Soit dans notre cas:

equation   (74.92)

Et l'inférence statistique avec notre écart-type long terme utilisant le test d'hypothèse bilatéral du equationdonne (cf. chapitre de Statistiques):

equation   (74.93)

Ce qui nous donne dans notre cas:

equation   (74.94)

soit:

equation   (74.95)

Nous remarquons alors que sur une analyse long terme, nous avons les intervalles:

equation   (74.96)

Calculons maintenant la performance globale du procédé long terme (si supposé centré donc!). Nous avons:

equation   (74.97)

Mais avec un instrument ayant un equation de 4, cela correspond réellement à:

equation   (74.98)

De plus, indiquons que comme nous savons faire un calcul d'intervalle de confiance pour equation (voir le calcul fait précédemment), il est alors aisé d'en avoir un pour equation aussi!

Si l'analyse de la performance globale du procédé long terme est non centrée (ce qui est le cas ici) nous utilisons donc:

equation   (74.99)

et nous savons encore une fois qu'à cause de l'instrument, cette valeur est un peu sous-évaluée! Nous avons bien évidemment:

equation   (74.100)

donc le processus n'est pas centré (on s'en doutait...). Alors, il faut calculer la capabilité potentielle décentrée moyenne long terme du procédé equation selon les relations déterminées plus haut:

equation   (74.101)

Bref, que ce soit de la valeur de equation, equation ou equation, nous voyons que les valeurs sont toutes limites capables (c'est-à-dire que la valeur est supérieure à 1 - voir définition plus haut pour un rappel de ce que signifie "limite capable").

Si nous faisons alors nos calculs de PPM selon les relations obtenues plus haut avec la valeur de equation et de equation obtenues, nous avons alors:

equation   (74.102)

Ensuite, dire que ce chiffre est bon ou mauvais est difficile, car il nous manque l'information de savoir quel est le coût de production, le coût de revient et de réparation d'un produit et le tout est lui-même dépendant de la quantité totale fabriquée! Mais nous pouvons utiliser aussi le modèle de Taguchi pour connaître la valeur des paramètres (moments) calculés qu'il serait préférable de ne pas dépasser!

Calculons maintenant les indices de capabilité court terme! Pour cela, il nous faut l'estimateur de la moyenne de l'ensemble en considérant chaque individu comme une variable aléatoire. Nous savons (cf. chapitre de Statistiques) que cette moyenne est aussi la moyenne arithmétique dans le cas d'une loi Normale et elle est strictement égale à celle que l'on calcule en considérant l'ensemble des individus comme une seule et unique variable aléatoire. Donc, il vient que:

equation   (74.103)

En ce qui concerne l'écart-type par contre ce n'est pas pareil. Mais nous savons (cf. chapitre de Statistiques) que la loi Normal est stable par la somme. Par exemple, nous avions démontré qu'étant données deux variables aléatoires indépendantes et distribuées selon une loi Normale (en imaginant que chaque variable représente deux de nos dix échantillons), nous avions pour leur sommee.:

equation   (74.104)

Or nous avons aussi démontré dans le chapitre de Statistiques que de par la propriété de linéarité de l'espérance, nous avons:

equation   (74.105)

ce qui est conforme à notre remarque précédente pour la variance:

equation   (74.106)

Donc in extenso:

equation   (74.107)

et dans notre cas particulier:

equation   (74.108)

Donc l'erreur-standard (l'estimateur de l'écart-type de la moyenne) est de:

equation   (74.109)

Donc l'intervalle de confiance à 95% de la moyenne est de (cf. chapitre de Statistiques):

equation   (74.110)

Soit dans notre cas:

equation   (74.111)

Nous remarquons donc qu'en court terme, l'intervalle est beaucoup plus large qu'en long terme, ce qui est normal étant donné la faible valeur de k (qui vaut donc 5 dans notre exemple).

Et l'inférence statistique avec notre écart-type long terme utilisant le test d'hypothèse bilatéral du equationdonne (cf. chapitre de Statistiques):

equation   (74.112)

Ce qui nous donne dans notre cas:

equation   (74.113)

soit:

equation   (74.114)

Nous remarquons alors que sur une analyse cours terme nous avons les intervalles:

equation   (74.115)

Les variations peuvent donc être énormes avec une probabilité cumulée de 95% et il faudra prendre garde dans un cas pratique d'apporter des réglages au plus vite afin de diminuer au maximum les moments!

Calculons maintenant la capabilité potentielle du procédé court terme (si supposé centré donc!). Nous avons:

equation   (74.116)

Donc, nous avons assez logiquement:

equation   (74.117)

Mais avec un instrument ayant un equation de 4, cela correspond réellement à:

equation   (74.118)

De plus, indiquons que comme nous savons faire un calcul d'intervalle de confiance pour equation (voir le calcul fait précédemment), il est alors aisé d'en avoir un pour equation aussi!

Si l'analyse de la capabilité potentielle du procédé court terme est non centrée (ce qui est le cas ici) nous utilisons donc:

equation   (74.119)

et nous savons encore une fois qu'à cause de l'instrument, cette valeur est un peu sous-évaluée! Nous avons bien évidemment:

equation   (74.120)

donc le processus n'est pas centré (on s'en doutait...). Alors, il faut calculer la capabilité potentielle décentrée moyenne court terme du procédé equation selon les relations déterminées plus haut:

equation   (74.121)

Bref, que ce soit de la valeur de equation, equation ou equation, nous voyons que les valeurs sont toutes limites capables.

Si nous faisons alors nos calculs de PPM selon les relations obtenues plus haut avec la valeur de equation et de equation obtenues, nous avons alors:

equation   (74.122)

Ensuite, dire que ce chiffre est bon ou mauvais est difficile, car il nous manque l'information de savoir quel est le coût de production, le coût de revient et de réparation d'un produit et le tout est lui-même dépendant de la quantité totale fabriquée! Mais nous pouvons utiliser aussi le modèle de Taguchi pour connaître la valeur des paramètres (moments) calculés qu'il serait préférable de ne pas dépasser!

Pour clore cette partie, voici la sortie d'un logiciel comme Minitab 15.1.1 dans lequel nous retrouvons tous les calculs effectués ci-dessus plus des cartes de contrôle dont nous ferons les démonstrations détaillées plus loin (se référer au chapitre de Statistiques pour les dédtails concernant le test AD d'Anderson-Darling):

equation
Figure: 74.9 - Analyse de capabilité Six Pack de Minitab 15.1.1

MODÈLE DE TAGUCHI

Dans le cadre des SPC (Statistical Process Control), il est intéressant pour un industriel d'estimer les pertes financières générées par les écarts à la cible (attention on peut appliquer également cette approche dans d'autres domaines que l'industrie!)

Nous pouvons avoir une estimation relativement simple et satisfaisante de ses pertes (coûts) sous les hypothèses suivantes:

H1. Le processus est sous contrôle (écart-type constant) et suit une loi de densité symétrique décroissante à gauche et à droite par rapport à la cible (qui peut être une côte, un nombre d'erreurs par périodes, etc.)

H2. Le coût est nul lorsque la production (ou le travail) est centrée sur la cible (minimum).

H3. Le coût augmente de manière identique lorsque la production se décentre sur la gauche et sur la droite (ce qui n'est par contre plus le cas dans le domaine de l'administration par exemple). La fonction de coût passe donc selon H2 et H3 par un minimum sur la cible.

Dès lors, si nous notons Y le décentrage par rapport à la cible T et L la perte financière ("loss" en anglais d'où le L). Nous avons:

equation   (74.123)

Même si nous ne connaissons pas la forme de cette fonction, nous pouvons l'écrire sous forme de développement de Taylor (cf. chapitre de Suites et Séries) autour de T tel que :

equation   (74.124)

Si nous développons au troisième ordre:

equation   (74.125)

Or par l'hypothèse H2, nous avons L(T) qui est nul. Il reste alors:

equation   (74.126)

et comme par H3, la dérivée de la fonction L(Y) est nulle en T puisqu'il s'agit d'un minimum alors:

equation   (74.127)

Ce qui est noté en SPC:

equation   (74.128)

et est appelée "fonction de perte de Taguchi (centrée)" ou plus simplement "fonction perte de qualité (centrée)".

Bon c'est bien joli d'avoir cette relation mais comment doit-on l'utiliser?

Au fait, c'est relativement simple. Sous les hypothèses mentionnées plus haut, si nous avons en production des mesures de défauts (côtes, retards, pannes, bug, etc.) alors il suffit de calculer leur moyenne arithmétique equation (estimateur de la moyenne d'une loi Normale) et ensuite de savoir le coût financier ou horaire L que cela a engendré pour l'entreprise ou l'institution (parfois cette moyenne est calculée sur la base d'un unique échantillon...).

Donc, la relation précédente devient:

equation   (74.129)

avec L et equation connus.

Et comme T est donné par les exigences du client ou du contexte alors il est aisé d'obtenir le facteur k:

equation   (74.130)

qui est au fait mathématiquement parlant le point d'inflexion de la fonction mathématique L .

Cette dernière relation est parfois notée:

equation   (74.131)

Une fois que nous avons k avec une bonne estimation, il est possible de connaître L pour toute valeur Y et ainsi nous pouvons calculer en production le coût d'une déviation quelconque par rapport à la cible.

exempleExemple:

Considérons une alimentation pour une chaîne stéréo pour laquelle T vaut 110 [V]. Si la tension sort des equation alors la stéréo tombe en panne et doit être réparée. Supposons que le coût de réparation est (tous frais directs et indirects compris!) de 100.-. Alors, le coût associé pour une valeur donnée de la tension est:

equation   (74.132)

Voyons maintenant une manière élégante de calculer le coût moyen de Taguchi (perte unitaire moyenne). Nous avons bien évidemment dans une chaîne de production sur plusieurs pièces d'une même famille:

equation   (74.133)

où les equation sont des variables aléatoires normales (gaussiennes par hypothèse car le procédé de fabrication est sous contrôle statistiques). Or, nous avons démontré dans le chapitre de Statistiques lors de notre étude de l'intervalle de confiance sur la variance avec moyenne empirique connue que:

equation   (74.134)

Donc:

equation   (74.135)

Dès lors:

equation   (74.136)

Cette dernière expression présente l'avantage de montrer très clairement que pour minimiser la perte, il faut agir sur la dispersion et l'ajustement de la moyenne sur la valeur nominale.

Or nous avons démontré dans le chapitre de Statistiques que (il est important dans les présents développements que nous utilisions les notations qui distinguent les différents estimateurs!):

equation   (74.137)

Donc:

equation   (74.138)

Et si n est grand, nous avons alors pour un lot de produits:

equation   (74.139)

où le premier terme entre crochets représente donc la variance de Y autour de sa propre moyenne et le deuxième terme la déviation de Y par rapport à la cible T.

Indiquons que l'on retrouve cette dernière relation dans la littérature et dans les logiciels souvent sous la forme suivante:

equation   (74.140)

où l'indice N signifie "nominal". Évidemment, quand la cible T (ou la valeur nominale) est prise comme étant nulle, les relations se simplifient encore d'avantage.

Maintenant, rappelons les propriétés suivantes de l'espérance et de la variance (cf. chapitre de Statistiques):

equation   (74.141)

Dès, lors si le processus est décentré et que nous devons corriger la variable aléatoire pour la recentrer, il vient intuitivement que ce facteur sera alors:

equation   (74.142)

Dès lors, il vient immédiatement:

equation   (74.143)

Donc pour minimiser L, sachant que les autres termes sont imposés, il faut minimiser le rapport:

equation   (74.144)

ou, ce qui revient au même, maximiser le rapport inverse (qui reste sans dimensions):

equation   (74.145)

Ce nombre étant souvent très grand, il est d'usage dans la littérature et dans les logiciel de statistiques d'en prendre le logarithme en base 10 et de multiplier par 10 (c'est une idée inspirée de la physique acoustique). Nous avons alors ce que nous appelons le rapport signal/bruit (en anglais: signal/noise), donné en décibels par:

equation   (74.146)

pour ce que les ingéieurs appellent "le nominal est le meilleur".

Relation que l'on retrouve telle quelle dans un logiciel comme Minitab lors de l'analyse de plans d'expérience de Taguchi (voir plus loin ce que sont les plans d'expérience). Certains très rares logiciels proposent également le cas particulier suivant:

equation   (74.147)

Pour la suite revenons à la relation:

equation   (74.148)

Les ingénieurs parlent de minimiser la fonction perte de qualité quand T (la cible) doit est nul et donc qu'il faut minimiser tous les equation. Donc la relation précédente se réduit finalement à:

equation   (74.149)

Ce que les ingénieurs aiment parfois bien résumer sous la forme suivante (alors qu'à mon avis prendre le logarithme en base 10 ainsi que de mettre un signe "-" dans ce cas ne se justifie vraiment pas... bien au contraire):

equation   (74.150)

et même parfois il disent que c'est quand même un rapport signal/bruit... alors que de toute évidence il n'y a aucun bruit dans ce cas particulier qui est appelé: "le plus petit est le meilleur" (PPEM). C'est exactement sous cette forme que l'on peut trouver cet objectif écrit dans le logiciel Minitab.

Dans le cadre d'un paramètre à maximiser il est d'usage de dire qu'on cherche alors plutôt à minimiser:

equation   (74.151)

car vu que T tend vers l'infini il serait difficile de faire quoi que ce soit mathématiquement parlant.

Donc justement vu que T tend vers l'infini, cette dernière relation se réduit à:

equation   (74.152)

Ce que les ingénieurs aiment bien résumer parfois sous la forme suivante ( ici le logarithme en base 10 se jusitife!):

equation   (74.153)

et même parfois il disent que c'est quand même un rapport signal/bruit... alors que de toute évidence il n'y a aucun bruit dans ce cas particulier qui est appelé: "le plus grand est le meilleur" (PGLM). C'est exactement sous cette forme que l'on peut trouver cet objectif écrit dans le logiciel Minitab.

Il est cependant, en étant malin, possible d'introduire le bruit dans la relation:

equation   (74.154)

Pour cela écrivons:

equation   (74.155)

Posons:

equation   (74.156)

Alors dans ce cas, en utilisant la série de Taylor démontrée dans le chapitre de Suies Et Séries:

equation   (74.157)

Nous avons alors:

equation   (74.158)

et sous contrôle statistique nous avons:

equation   (74.159)

et en supposant que nous travaillons sur l'ensemble de la population de pièces, nous avons:

equation   (74.160)

Il vient alors:

equation   (74.161)

Donc au final en remplaçant un peu abusivement par les estimateurs, il vient:

equation   (74.162)

MAINTENANCE PRÉVENTIVE

L'évolution des techniques de production vers une plus grande robotisation des systèmes techniques plus complexes a augmenté l'importance de la fiabilité des machines de production. Aussi, un arrêt imprévu coûte cher à une entreprise. De même, dans l'industrie aéronautique et spatiale, les problèmes de fiabilité, de maintenabilité, de disponibilité sont capitaux. La maintenance garantit le niveau de fiabilité pour l'ensemble des composantes (mécaniques, électromécaniques et informatiques).

L'existence d'un service de maintenance a pour raison le maintien des équipements (systèmes) et aussi la diminution des pannes. En effet, ces dernières coûtent cher, elles occasionnent:

- Des coûts d'intervention, de réparation

- Des coûts de non-qualité du produit

- Des coûts indirects tels que des frais fixes, pertes de production, la marge bénéficiaire perdue...

De ce fait, il faut tout mettre en oeuvre pour éviter la panne, agir rapidement lorsqu'elle survient afin d'augmenter la disponibilité du matériel. Pour ce faire, il faut modéliser la vie des équipements. L'ensemble des méthodes et techniques relatives à ses problématiques sont habituellement classifiées sous le nom de "Analyse des Modes de Défaillance, des Effets et de leur Criticité" AMDEC.

Nous distinguons principalement deux classes de systèmes: les systèmes non réparables (satellites, bien de consommations à faibles coûts, etc.) et les systèmes réparables (machines de production, moyens de transports, etc.) où les approches théoriques sont différentes. Pour la deuxième catégorie, il est possible d'utiliser aussi les chaînes de Markov (où les états représenteront le nombre de composants fonctionnels ou en panne d'un système conformément à la norme ISO 31010), les réseaux de Petri ou la simulation par Monte-Carlo.

L'idée est dans les textes qui vont suivre de faire un petit point sur ces méthodes, d'en rechercher l'efficacité et de permettre aux praticiens ingénieurs ou techniciens de mieux appréhender ces problèmes. Une large place sera faite au modèle de Weibull, qui a une implication importante dans le domaine.

OBSOLESCENCE PROGRAMMÉE

L'obsolescence programmée va à l'encontre de la maintenance préventive dont le but premier est de fournir un produit de qualité et respectueux de son environnement en connaissance précise de la durée de vie du produit et du risque quantifiable de désuétude.

L'idée de l'obsolesence programmée est de réduire la durée de vie ou d'utilisation d'un produit afin d'en augmenter le taux de remplacement par le consommateur (stratégie parfois motivée par les politiques...). La demande ainsi induite aurait pour but (non démontré sur le très long terme...) de profiter au producteur, ou à ses concurrents Le secteur bénéficie alors d'une production plus importante, stimulant les gains de productivité (économies d'échelle) et le progrès technique (qui accélère l'obsolescence des produits antérieurs) et maintient l'emploi d'une démographie toujours croissante est qui est donc problématique par définition.

Le lecteur aura donc compris que je suis farrouchement contre ces méthodes et que tout ingénieur et tout scientifique travaillant pour un entreprise se doit de refuser par déontologie ce type de demande par la hiérarchie quitte à dénoncer ces méthodes anonymement sur Internet ou des associations de consommateurs.

ESTIMATEURS EMPIRIQUES

Dans le cadre de l'étude de fiabilité non accélérée (le vieillissement accéléré est un sujet trop complexe pour être abordé sur ce site), nous sommes amenés à définir certaines variables dont voici la liste:

-equation sera le nombre d'éléments bons à equation (instant initial)

- equation le nombre d'éléments bons à equation

- equation le nombre d'éléments défaillants entre equation et equation noté aussi equation

- equation l'intervalle de temps entre equation et equation.

Définitions:

D1. Nous définissons le "taux de défaillance par tranche temporelle" equation par la relation:

equation   (74.163)

qui s'interprète donc comme étant le nombre d'éléments défectueux par rapport au nombre d'éléments survivants sur une tranche de temps donnée (il s'agit donc d'un pourcentage de non-confirmités relatives par tranche temporelle).

Cette dernière relation est aussi parfois appelée "fonction de hasard" ("hazard ratio" (HR) en anglais) ou "survie relative" et souvent notée equation dans la littérature anglophone.

D2. Nous définissons la "fonction de défaillance" par la relation (densité de probabilité de défaillances à l'instant equation):

equation   (74.164)

en remarquant bien que le dénominateur n'est pas le même que celui qui définit le taux de défaillance par tranche!

Cette fonction s'interprète donc comme étant le % d'éléments défectueux dans la tranche de temps étudiée par rapport au nombre total d'éléments initialement testés. Il s'agit de l'indicateur qui intéresse le plus souvent l'ingénieur car assimilable à une probabilité et ayant les propriétés d'une probabilité!

D3. Nous définissons naturellement la "fonction de défaillance cumulée" par:

equation   (74.165)

que tend vers 1 lorsque le temps tend vers l'infini.

Cette fonction s'interprète donc comme étant le % d'éléments défectueux cumulé par rapport au nombre total d'éléments initialement testés. Il s'agit donc le fonction de répartition empirique des probabilités de défaillance.

D4. Nous définissons in extenso la "fonction de fiabilité" par (il s'agit du deuxième terme de la précédente relation):

equation   (74.166)

Son nom provient par l'interprétation du rapport dans le cadre de la définition de la fonction de défaillance cumulée.

Il faut se souvenir que la lettre R provient de l'anglais "reliability" qui signifie "fiabilité" alors que le F en anglais signifie "failure" qui signifie en français "panne".

Par suite nous avons aussi:

equation   (74.167)

Cette dernière relation servant au calcul des lois de fiabilité! Nous en déduisons un écriture qui permet parfois de mieux comprendre le taux de défaillance par tranche temporelle. Effectivement:

equation   (74.168)

Puisque:

equation et equation   (74.169)

la fonction de défaillance peut être vue comme une probabilité comme nous l'avons déjà mentionnée, ce qui nous conduit à définir naturellement son espérance:

equation   (74.170)

Relation très utile dans la pratique qui donne en théorie le pourcentage moyen d'éléments en panne à l'instant equation.

Donc pour résumer et avec les différentes notations que nous pouvons trouver dans la littérature, cela donne (nous verrons plus loin le même résumé dans le cas continu):

equation
  (74.171)

Signalons que nous verrons plus loin un modèle mathématique statistique basé sur l'estimateur de Kaplan-Meier qui donne au fait une estimation non paramétrique de la fonction de survie. L'exemple qui suit va peut-être vous aider à mieux appréhender le concept!

exempleExemple:

Nous avons relevé sur un lot de 37 moteurs d'un type donné les défaillances suivantes répertoriées par tranches (données par des clients ou mesurées en interne sur des bancs d'essais):

0 à
1'000 h.
1'000 à 2'000 h.
2'000 à
3'000 h.
3'000 à
4'000 h.
4'000 à
5'000 h.
5'000 à 6'000 h.

1

4

7

12

11

2

Tableau: 74.6  - Défaillances des moteurs par tranches d'effort

Il faut que nous estimions la valeur de la fonction de fiabilité equation, la fonction de défaillance equation et la défaillance par tranche equation. Les calculs sont élémentaires et nous obtenons le tableau suivant:

i

Intervalle
d'observation

Défaillances dans l'intervalle

Survivants

Cumul des
défaillants

equation

equation

equation

0

0

-

37

0

100%

0

0

1

0 à
1'000 h.

1

36

1

97%

2.7%

(1/36)/1000=27.7

2

1'000 à
2'000 h.

4

32

5

86%

10.8%

(4/32)/1000=125

3

2'000 à
3'000 h.

7

25

12

67%

18.9%

(7/25)/1000=280

4

3'000 à 4'000 h.

12

13

24

35.1%

32.4%

(12/13)/1000=923

5

4'000 à 5'000 h.

11

2

35

5.4%

5.4%

(11/2)/1000=5500

6

5'000 à
6'000 h.

2

0

37

0%

-

-

Tableau: 74.7  - Analyse des défaillances des moteurs par tranches d'effort

Nous voyons ci-dessus par exemple que le taux de défaillance n'est pas constant bien évidemment!

Le taux de panne equation serait de l'ordre de 2.5 à 3% par an en 2013 pour les réfrigérateurs, lave-vaisselles, etc. Pour le matériel audio-visuel il tournerait autour des 1.5 à 2% par an.

Concernant les taux de défaillance, les ingénieurs reconnaissent souvent trois tranches d'analyses suivant que certains objets étudiés soient jeunes, en fonctionnement normal ou considéré en vieillissement.

On considère alors assez intuitivement (et parfois grossièrement) que le taux de défaillance suit une courbe en baignoire comme représenté ci-dessous (dans les tables techniques c'est souvent le taux de défaillance en fonctionnement normal qui est donné):

equation
Figure: 74.10 - Baignoire de la défaillance

alors que si vous observez le tableau précédent, le taux de défaillance ne suit pas du tout une courbe en baignoire (c'est donc un contre-exemple).

Les ingénieurs en fiabilité découpent souvent la baignoire en trois parties visibles ci-dessus, mais sous la dénomination technique suivante:

- D.F.R. pour "Decreasing Failure Rate": les composants jeunes ayant des problèmes de fabrication non identifiés lors de procédé sont éliminés du lot ce qui a pour effet de diminuer le taux de défaillance. La loi de Weibull est relativement bien adaptée pour modéliser cette phase.

- C.F.R. pour "Constant Failure Rate": les composants sont dans un état stationnaire.

- I.F.R. pour "Increasing Failure Rate" les composants sont en fin de vie et leur taux de défaillance augmente. La loi de Weibull est à nouveau relativement bien adaptée pour modéliser cette phase.

La loi de Poisson est relativement bien adaptée pour modéliser les arrivées de pannes, et la loi exponentielle pour modéliser le temps entre pannes successives. Ce constat découle de démonstrations mathématiques disponibles dans le chapitre sur les Techniques De Gestion (théorie des files d'attentes). Donc, cela signifie que pannes sont souvent considérrées comme indépendantes. Dès lor, la loi sur le nombre de pannes dans une période donnée est alors une loi "sans mémoire" et on peut modéliser par une loi de Poisson (démonstration aussi faite dans le chapitre sur les Techniques De Gestion).

Remarque: Contrairement à ce que pas mal de théoriciens pensent..., les logiciels informatiques grand public ont aussi leur taux de défaillance qui suit une courbe en baignoire. Effectivement, au début il y a des bugs non détectés qui font que la défaillance va diminuer au fur et à mesure de leur détection et leur correction. Ensuite, à cause des mises à jour fréquentes de l'environnement qui ont tendance à rajouter d'autres problèmes (service pack), le taux de défaillance se maintient à peu près constant. Enfin, avec le temps, l'évolution des technologies environnantes (framework) rendent l'applicatif obsolète et des fonctions ne répondent ou n'agissent plus correctement ce qui fait à nouveau augmenter le taux de défaillance.

Vis-à-vis de l'efficacité de la rénovation, indiquons qu'elles peuvent (en simplifiant) très fréquemment se ranger en trois catégories:

1. "As good as new": C'est de la maintenance préventive dans le sens que nous changeons une pièce lorsque sa durée de vie l'amène à un taux de défaillance que nous considérons comme trop élevé et dont la rupture non anticipée coûtera plus cher que sa non-anticipation.

2. "As bad as old": C'est de la maintenance déficiente dans le sens que nous changeons une pièce que lorsqu'elle est arrivée à rupture, ce qui engendre majoritairement des coûts d'arrêts plus élevés que la maintenance préventive qui consiste elle à anticiper au plus juste la casse.

3. "Restauration partielle": C'est de la maintenance préventive minimale dans les sens que nous réparons la pièce défaillante plutôt que de la remplacer par une nouvelle. À nouveau le problème du coût doit être calculé en faisant un audit des besoins et des délais de l'entreprise.

Revenons-en à d'autres définitions au passage à la limite du continu.

Nous savons donc que le "taux de défaillance instantané" aura pour unité l'inverse du temps tel que equation. Ce taux est, dans le cadre de notre étude, pas nécessairement constant dans le temps comme nous avons pu le constater!

Soit R(t) le pourcentage cumulé d'objets analysés toujours en état de bon fonctionnement d'un échantillon testé au temps t. Le nombre d'objets tombant en panne durant le temps infinitésimal dt est donc égal à:

equation   (74.172)

ce qui correspond donc à la diminution du stock initial en bon fonctionnement au temps t.

Nous pouvons alors écrire la relation:

equation    (74.173)

soit:

equation   (74.174)

Que l'on retrouve souvent dans la littérature sous les formes équivalentes suivantes:

equation   (74.175)

Définition: La "probabilité conditionnelle de défaillance" entre t et t + dt est définie comme probabilité conditionnelle temporelle de connaître l'événement à un instant t donné, sachant que nous ne l'avons pas connu avant et que nous avons donc survécu jusqu'à l'instant t (et elle ne fait que d'augmenter avec le temps in extenso...):

equation   (74.176)

F(t) et R(t) sont, pour rappel, respectivement la fonction de probabilité cumulée de défaillance (probabilité cumulée de tomber en panne au temps t) et la fonction de probabilité cumulée fiabilité appelée également "fonction de survie". R(t) valant 1 au temps 0 et... 0 après un temps infini comme nous l'avons déjà vu avant!

Nous reviendrons sur cette approche conditionnelle plus en détail avec une aproche beaucoup plus pédagogique lors de notre étude du modèle de hasard proportionnel de Cox plus bas.

Remarque: Par la même démarche intellectuelle, plutôt que de définir une fonction de défaillance F(t) et de survie R(t) avec sa fonction de risque, nous pouvons définir une fonction de réparabilité avec sa fonction de M(t) qui serait alors une "fonction de maintenabilité".

Si nous intégrons (attention u représente maintenant le temps!):

equation   (74.177)

Comme equation nous avons:

equation   (74.178)

d'où:

equation   (74.179)

Par ailleurs, puisque nous avons vu que equation, nous avons alors la "fonction de densité/répartition de défaillance instantanée":

equation   (74.180)

Nous pouvons obtenir cette relation et interprétation sous une autre manière:

equation   (74.181)

où nous retrouvons donc F(t) la fonction de probabilité cumulée de défaillance. Évidemment pour déterminer la loi f(t), nous utilisons les outils statistiques d'ajustements habituels (cf. chapitre de Statistiques).

Nous avons alors la relation très importante (voir la plus importante!) dans la pratique qui relie la loi de densité de la défaillance instantanée et la loi de fiabilité:

equation   (74.182)

Nous avons ci-dessus les trois expressions les plus générales liant les lois de fiabilité et le taux instantané de défaillance. Ajoutons encore que nous avons la fonction de hasard instantée suivante qui en découle:

equation   (74.183)

Il s'ensuit alors immédiatement que:

equation   (74.184)

Puisque f(t) est la fonction de densité de défaillance, l'espérance mathématique de la défaillance est alors donnée par:

equation   (74.185)

Ainsi, si la répartition des pannes est équiprobable (fonction de densité uniforme), ce qui est plutôt rare, la moitié des équipements seront hors service à E(t).

Remarque: En observant 100'000 disques durs, des ingénieurs de Google auraient observé en moyenne 8% de pertes par an! Donc un taux de perte plus élevé que celui qu'aurait. annoncé des fabricants qui serait d'environ 300'000 heures! Le taux de perte est plus élevé les 3 premières années! Mais peut-être que les disques qui survivent vivent plus longtemps!

Nous avons aussi en utilisant l'intégration par parties et la relation précédente:

equation

D'où une autre manière de l'exprimer:

equation   (74.186)

Nous avons donc la relation:

equation   (74.187)

Donc pour résumer et avec les différentes notations que nous pouvons trouver dans la littérature, cela donne:

equation
  (74.188)

Signalons encore une fois (!) que nous verrons plus loin un modèle mathématique statistique basé sur l'estimateur de Kaplan-Meier qui donne au fait une estimation non paramétrique de la fonction de survie.

Avant de continuer donnons quelques définitions d'indicateurs de maintenance dont les plus importantes sont dans la norme européenne de maintenance NF EN 13306:2010 (je précise car on trouve sur le web le pire et le meilleur concernant les définitions de ces indicateurs...):

- La T.B.M ou "Time Between Maintenance" est le temps contractuel entre deux visites ou contrôle de maintenance (non défini dans la norme).

- La M.O.T.B.F. ou "Mean Operating Time Between Failures" applicable uniquement pour des éléments réparables est l'espérance mathématique du temps opérationnel d'un système entre la fin de la première défaillance et le début de la prochaine (défini dans la norme). Dans l'industrie la M.O.T.B.F. est aussi notée M.U.T. pour "Mean Up Time".

- La M.T.B.F. ou "Mean Time Between Failures" applicable uniquement pour des éléments réparables est l'espérance mathématique du temps opérationnel d'un système entre le début de deux défaillances (défini dans la norme). Cet indicateur inclut donc les temps de non-fonctionnement. Dans le domaine des services, la M.T.B.F. est parfois notée M.T.B.S.A pour "Mean Time Between System Accidents". Dans le domaine des lignes de production la M.T.B.F. est notée M.T.B.D. pour "Mean Time Between Defects" (on arrête pas la production parce que l'on a détecté un défaut conformément à ce que nous verrons les de notre étude des cartes de contrôle). Dans le domaine de l'informatique la M.T.B.F. est notée M.T.B.E. pour "Meat Time Between Errors" (on arrête rarement un logiciel ou un site web parce que l'on y a détecté une erreur!).

- La M.T.T.F. ou "Mean Time To Failure" applicable pour des éléments réparables ou non est l'espérance mathématique du temps opérationnel d'un système jusqu'à sa première panne (non défini dans la norme). Au fait c'est ce dernier que l'on calcule le plus souvent dans les laboratoires de tests.

- La M.R.T. ou "Mean Repair Time" applicable uniquement pour des éléments réparables est l'espérance mathématique du temps de réparation (défini dans la norme).

- La M.T.T.R ou "Mean Time To Restore" applicable uniquement pour des éléments réparables est l'espérance mathématique du temps de redémarrage (défini dans la norme). Dans le domaine des services, la M.T.T.R. est parfois notée M.T.T.R.S. pour "Mean Time To Restore Service".

- La M.D.T. ou "Mean Down Time" est égale à l'espérance mathématique du temps pendant lequel le système n'est pas opérationnel. Cet indicateur (non défini dans la norme) inclus donc la M.R.T. Il en découle que la M.T.B.F est égale à la somme de la M.O.T.B.F. (M.U.T.) et la M.D.T.

- La M.T.T.D. ou "Mean Time To Detection" est égale à l'espérance mathématique du temps pendant lequel le système n'est pas été détecté comme étant non opérationnel. Cet indicateur (non défini dans la norme), au même titre que la M.R.T., est inclus dans la M.D.T.

- La M.T.T.A. ou "Mean Time to Answer" est égale à l'espérance mathématique du temps pendant lequel l'utilisateur a attendu une réponse ou intervention du fabricant après avoir signalé une panne. Cet indicateur (non défini dans la norme), au même titre que la M.R.T. et la M.T.T.D., est inclus dans la M.D.T.

- Le T.R.S. ou "Taux de Rendement Synthétique" dans le domaine de la maintenance est défini traditionnellement comme étant simplement le rapport entre le temps de fonctionnement opérationnel et le temps attendu de fonctionnement opérationnel (non défini dans la norme).

- Le S.A. ou "Service Ability" qui dans le domaine de la maintenance est souvent donné par les deux relations suivantes et dont le but est qu'il soit le plus proche possible de 1 (c'est-à-dire de faire tendre vers zéro la M.D.T.).:

equation   (74.189)

et on peut en définir encore beaucoup d'autres en dehors de la norme...

Voici un schéma qui résume peut-être un peu mieux tout cela:

equation
Figure: 74.11 - Résumé des indicateurs de fiabilité les plus importants

Remarques:

R1. Pour chacun de ces indicateurs on indiquera s'il a été pris en compte des causes extérieures ou non.

R2. Si la taille du lot testée est très petite, il est d'usage d'utiliser la moyenne arithmétique comme estimateur de l'espérance. Évidemment cela peut amener à de grossières erreurs...

R3. Il est bien évidemment possible à partir des indicateurs définis de calculer si une machine (élément) est apte à garantir le service souhaité (comme par exemple un nombre de pièces par année à fabriquer!). Donc non seulement ces indicateurs peuvent être mesurés, mais ils peuvent donc aussi être utilisés pour vérifier l'atteinte d'un objectif souhaité!

R4. En ce tout début de 21ème siècle les pays devraient en toute rigueur légiférer pour obliger tous les industriels à communiquer la M.T.T.F. de leurs produits afin que le consommateur puisse mieux faire son choix à l'achat et comparer les valeurs par rapport à la garantie fournie! Malheureusement, ce n'est pas le cas et cela permettrait de mettre en évidence une mauvaise tradition actuelle dans l'industrie des produits grand public qui est de fabriquer des composants dont la durée de vie tourne autour des 200'000 heures afin d'assurer aux industriels un renouvellement de leur marché.

exempleExemple:

Une machine est censée travailler 24 heures sur 24, 7 jours sur 7. Elle a tourné jusqu'à aujourd'hui pendant 5'020 heures mais avec 2 arrêts d'un total de 20 heures (donc inclus dans les 5'020 [h]). Donnez les indicateurs classiques relativement au peu d'informations communiquées:

equation   (74.190)

La classification des systèmes en terme de disponibilité conduit communément à 7 classes de non prise en compte (système disponible 90% du temps, et donc indisponible plus d'un mois par an) à ultra disponible (disponible 99.99999% du temps et donc indisponible seulement 3 secondes par an): ces différentes classes correspondent au nombre de 9 dans le pourcentage de temps durant lequel les systèmes de la classe sont disponibles (une année comporte 525'600 minutes):.

Type

Indisponibilité
(minutes par an)

Pourcentage disponibilité

Classe

non géré

50'000 (~35 jours)

90%

1

géré

5'000 (~3.5 jours)

99%

2

bien géré

500 (~8 heures)

99.9%

3

tolérance fautive

50

99.99%

4

haute disponibilité

5

99.999%

5

très haute disponibilité

0.5

99.9999%

6

très grande haute disponibilité

0.05

99.99999%

7

Tableau: 74.8  - Classes de défaillances AMDEC

L'usage de ces paramètres dans le cadre de fiabilité font dire que nous avons une "approche en valeurs moyennes".

Attention cependant à une chose! Ce n'est pas parce qu'un événement à une probabilité plus petite ou infiniment plus petite qu'une autre qu'il en est moins important!! Effectivement il faut bien évidemment pendre en compte (de façon certes un peu empirique) la gravité de la défaillance. Ainsi, une centrale nucléaire à beau être peut-être 1'000 fois plus sûre qu'une central thermique en termes de probabilités... il n'en est rien en termes de gravité lorsqu'un défaillance majeure se produit! Effectivement dans le cas d'une central thermique il peut y avoir au pire 500 personnes touchées alors qu'avec une centrale nucléaire c'est une autre histoire...

Signalons enfin un cas simple: Certains composants (électroniques typiquement) ont dans leur période de maturité un taux de défaillance constant. La loi de probabilité cumulée de la défaillance qui en découle s'en déduit alors immédiatement puisque la fonction de hasard instantanée est donnée par equation:

equation   (74.191)

Indiquons que nous retrouvons très souvent cette dernière relation sous la forme suivante dans la littérature:

equation   (74.192)

et donc nous avons bien:

equation   (74.193)

Soit pour résumer un peu pour la loi exponentielle:

equation   (74.194)

Les fonction de hasard et de survie sont alors graphiquement de la forme suivante:

equation
equation
Figure: 74.12 - Plot de la fonction de hasard et de survie de la loi exponentielle

La fonction de densité des éléments défaillants au temps t est alors:

equation   (74.195)

Elle suit donc une loi exponentielle! Cette loi et ses moments nous sont connus (cf. chapitre de Statistiques). Il devient alors facile déterminer le M.T.T.F. et son écart-type (inverse du taux de défaillance) ainsi qu'un intervalle de confiance.

Par ailleurs, si nous calculons la fiabilité R(t) au temps correspondant à la M.T.T.F. (inverse du taux de défaillance dans le cas de la loi exponentielle) nous obtiendrons toujours une probabilité cumulée de 36.8% (donc en gros une chance sur trois de fonctionner à ce moment là et 2 chances sur 3 de tomber en panne) et non de 50% comme on peut le penser intuitivement (ce qui est le cas seulement si la loi de probabilité est symétrique).

Étant donné que les tables techniques de fiabilité dans l'industrie supposent presque toujours le taux de fiabilité constant alors nous comprenons mieux l'importance de celle-ci (nous en aurons un exemple lors de notre présentation des topologies de systèmes).

Rappelons aussi que nous avons vu dans le chapitre de Probabilités que si nous avons un ensemble d'événements indépendants (mécanismes indépendants) avec une probabilité donnée, alors les probabilités calculées sur l'ensemble dans sa totalité implique la multiplication des probabilités.

Donc dans un mécanisme ayant des pièces indépendantes mais essentielles (système dit en "série") la fonction de densité de fiabilité globale sera égale à la multiplication des lois de probabilités cumulées R(t) et ce qui équivaut donc dans le cas d'une loi exponentielle d'avoir une seule loi exponentielle dont le taux de défaillance global est égal à la somme des taux de défaillance des différentes pièces.

Un autre exemple: En mécanique, où le phénomène d'usure est à l'origine de la défaillance, le taux de défaillance est souvent du type linéaire (il augmente donc de manière constante avec le temps et est non nul lors du premier allumage de l'appareil):

equation   (74.196)

Alors:

equation   (74.197)

Soit:

equation   (74.198)

Comme (pour un matériel dont le temps de réparation est négligeable):

equation   (74.199)

cette intégrale ne peut se calculer que par une méthode numérique. Dès lors on préfère prendre des lois rapprochées à l'aide d'ajustement du Khi-deux, comme par exemple la loi de Weibull, qui est un peu la poubelle à tout mettre dans le domaine...

Il faut savoir que dans les banques de données de fiabilité communes et gratuitement disponibles sur le marché sont normalement donnés: la dénomination du matériel ou du composant, la MTBF, la taux de défaillance moyen, le patrimoine statistique, un coefficient multiplicatif du taux de défaillances dépendant de l'environnement ou des contraintes d'utilisation.

MODÈLE DE WEIBULL

Encore une fois, les techniques de maintenances utilisent les probabilités et statistiques donc nous renvoyons le lecteur au chapitre du même nom. Cependant, il existe dans le domaine de la maintenance (et pas seulement) une fonction de densité de probabilité très utilisée appelée "loi de Weibull".

Elle serait complètement empirique et est définie par:

equation   (74.200)

equation avec equation qui sont respectivement appelés "paramètre d'échelle" equation, "paramètre de forme" equation et "paramètre d'emplacement" equation.

Remarque: Les ingénieurs dans les entreprises doivent obligatoirement se référer à la norme CEI 61649 Analyse de Weibull pour en faire usage de manière standardisée!

La loi de Weibull est aussi souvent notée sous la forme suivante en posant equation, equation, equation (dans ce cas le paramètre d'emplacement est implicitement posé comme étant nul):

equation   (74.201)

Elle peut être calculée dans la version française de Microsoft Excel 11.8346 sous cette dernière forme en utilisant la fonction LOI.WEIBULL( ).

Remarque: Elle peut être vue comme une généralisation de la fonction de distribution exponentielle (nous allons voir plus loin pourquoi!) avec l'avantage qu'il est possible de jouer avec les trois paramètres de manière à obtenir presque n'importe quoi.

equation
Figure: 74.13 - Fonctions de densité et de distribution de Weibull pour différentes valeurs de alpha (source: Wikipédia)

En annulant le paramètre d'emplacement equation, nous obtenons la "distribution de Weibull à deux paramètres":

equation   (74.202)

qui a une application pratique importante et dont nous avons calculé les estimateurs des paramètres dans le chapitre de Statistiques.

En posant encore une fois equation et en assumant que equation nous avons la "distribution de Weibull à un paramètre" (c'est un peu idiot comme définition mais bon...):

equation   (74.203)

où le seul paramètre inconnu est le paramètre d'échelle equation. Nous assumons que le paramètre equation est connu a priori d'expériences passées sur des échantillons identiques. Remarquons que la fonction de distribution de Weibull à un paramètre est la dérivée de la fonction de répartion (probabilité cumulée) suivante (il y a trois dérivées intérieurs successives pour retomber sur la fonction de distribution... ce qui constitue un bon exemple de ce que nous avons vu dans le chapitre de Calcul Différentiel Et Intégral):

equation   (74.204)

Il s'ensuit alors dans l'ingénierie de la faibilité que dans ce cas particulier, nous avons alors:

equation   (74.205)

Nous retrouvons également parfois cette relation dans la littérature sous la forme:

equation   (74.206)

Remarquons que si equation est égal à l'unité, nous retrouvons alors une loi exponentielle d'espérance equation:

equation   (74.207)

La MTBF est alors donnée par l'espérance de la loi de Weibull avec equation non nul:

equation   (74.208)

Posons:

equation   (74.209)

avec:

equation   (74.210)

Ce qui donne:

equation   (74.211)

La première intégrale nous est déjà connue, nous l'avons déjà vue dans le chapitre de Calcul Différentiel. Il s'agit de la fonction gamma d'Euler:

equation   (74.212)

Nous avons finalement:

equation   (74.213)

En annulant paramètre d'emplacement equation il vient le cas courant en fiabilité:

equation   (74.214)

Remarque: Si par le plus grand des hasards equation , alors comme nous l'avons démontré lors de notre étude de la fonction Gamma d'Euler:

equation   (74.215)

Dans le cas où equation il faut faire appel aux tables numériques obtenues par les algorithmes vus dans le chapitre de Méthodes Numériques.

De même:

equation   (74.216)

Finalement lorsque paramètre d'emplacement est nul, il vient:

equation   (74.217)

Remarque: Certains spécialistes, lorsqu'il est fait usage des deux moments d'ordre deux dans l'analyse probabiliste de la défaillance, parlent parfois "d'approche en moyenne quadratique"...

Pour clore, signalons qu'il est d'usage de considérer 5 situations importantes et pertinentes de la loi de Weibull en fonction des valeurs de ses paramètres

1. La fonction de densité de survie ressemble à une décroissance exponentielle et dès lors, la fonction de risque (taux de défaillance) est élevée au départ et diminue au fil du temps (première partie en forme de "baignoire" de la fonction de risque). Il s'agit typiquement d'une situation où les défaillances sont précoces car les défaillances se produisent dans la période initiale de la vie du produit.

2. La fonction de densité de survie ressemble à une décroissance exponentielle. Dès lors, le risque de défaillance est constant au cours de la vie de la pièce (deuxième partie en forme de "baignoire" de la fonction de risque). Il s'agit typiquement d'une situation où les défaillances sont aléatoires et sources de multiples causes. Dans cette situation, la loi de Weibull modélise la phase de "vie utile" du produit.

3. La fonction de densité de survie s'élève jusqu'à un sommet puis décroît avec une asymétrie assez prononcée (densité forte à gauche) et dès lors, la fonction de risque (taux de défaillance) augmente rapidement au début et finit par se stabiliser. Il s'agit typiquement d'une situation où l'usure initiale est très rapide.

4. La fonction de densité de survie s'élève jusqu'à un sommet puis décroît avec faible asymétrie assez (densité un peu plus élevée à gauche) et dès lors, la fonction de risque (taux de défaillance) augmente de manière linéaire. Il s'agit typiquement d'une situation où le risque de défaillance est dû à l'usure et augmente de façon constante au cours de la durée de vie du produit.

5. La fonction de densité survie ressemble à une gaussienne large et la fonction de risque (taux de défaillance) croît rapidement (croissance de type exponentielle). Il s'agit typiquement de la situation où l'on arrive à la fin de la vie d'un ensemble de pièces (troisième partie en forme de "baignoire" de la fonction de risque).

Voici quelques exemples types de fonction de risque (hasard) de Weibull:

equation
Figure: 74.14 - Plot de 4 fonctions de hasard de Weibull pour différentes valeurs des paramètres

avec les fonctions de survie correspondantes:

equation
Figure: 74.15 - Plot de 4 fonctions de survie de Weibull pour différentes valeurs des paramètres

Pour résumer nous avons donc pour la loi de Weibull à deux paramètres:

equation   (74.218)

Nous voyons donc bien que si equation nous retrouvons toutes les fonctions du cas se basant sur la loi exponentielle.

exempleExemple:

Un constructeur de voiture connaît la distribution du temps jusqu'à la première panne d'un de ses véhicules dans des conditions moyennes de conduite. La fonction de répartition de Weibull obtenue de par les essais est fonction de Weibull à deux paramètres donnée par:

equation   (74.219)

x est la distance parcourue un kilomètres des véhicules tests.

Si nous voulons trouver la garantie en kilomètres englobant 5% des véhicules, nous devons alors résoudre l'équation:

equation   (74.220)

Soit avec un peu d'algèbre élémentaire:

equation   (74.221)

TOPOLOGIE DES SYSTÈMES

Lorsque nous travaillons avec des systèmes réels non réparables (mécaniques, électroniques ou autres), nous sommes confrontés à des contraintes différentes suivant le type de montage que nous avons. L'étude de ce type de systèmes est aussi appelée "Reliability Block Diagramm".

Les deux hypothèses principales de l'étude de ces systèmes sont:

H1. La panne d'un composant est indépendante des autres

H2. Pas de pannes arrivant conjointement

Nous reconnaissons 5 topologies principales dont chaque composant est représenté par un bloc:

T1. Topologie série:

Si un seul composant est défectueux le système ne fonctionne plus (les exemples sont tellement nombreux et simples à trouver que nous n'en citerons pas).

Alors dans l'hypothèse où la panne d'un composant est indépendante des autres, la probabilité cumulée de défaillance est égale au produit des probabilités cumulées (cf. chapitre de Probabilités).

equation
Figure: 74.16 - Topologie série

Dans le cadre des arbres de défaillance probabilistes (voir plus bas), cette topologie correspond à une porte OU (OR) avec n entrées car il suffit qu'un des blocs soit en panne pour que la sortie ne fonctionne plus:

equation
Figure: 74.17 - Porte OU (OR)

Comme souvent il est fait usage de la loi exponentielle, la multiplication de plusieurs termes de probabilités cumulées étant relativement longue à écrire, nous lui préférons l'utilisation de la probabilité de fiabilité cumulée R.

Ainsi, la fiabilité (probabilité de fonctionnement) d'un système série est donnée par:

equation   (74.222)

Ce qui nous amène bien à une valeur nulle pour la fiabilité si au minimum un bloc a une fiabilité nulle.

Ce qui se note traditionnellement dans le domaine:

equation   (74.223)

Remarque: Le lecteur attentif aura remarqué que le système série est toujours moins fiable que sa composante la moins fiable!

Attention!! Dans le cas des composantes électroniques, le taux de défaillance est souvent considéré comme constant par souci de simplification et la fonction de densité est alors celui de la loi exponentielle:

equation   (74.224)

Or, nous avons démontré que dans le cas d'un système non réparable:

equation   (74.225)

Et comme nous avons démontré dans le chapitre de Statistiques que l'espérance de la loi exponentielle est:

equation   (74.226)

Nous avons aussi démontré plus haut que:

equation   (74.227)

Donc:

equation   (74.228)

Alors pour un système série à taux de défaillance constant:

equation   (74.229)

Ainsi, dans ce cas particulier:

equation   (74.230)

ou autrement écrit:

equation   (74.231)

et... le problème sur Internet c'est que les pages web qui parlent de systèmes à topologie série (ou parallèle) font implicitement usage d'une loi exponentielle, d'où parfois de grosses erreurs de la part des praticiens qui utilisent cette dernière relation sans avoir étudié les détails mathématiques sous-jacents.

T2. Topologie parallèle:

Contrairement au système précédent, le système continue à fonctionner si au moins un composant fonctionne (typiquement les systèmes de redondance dans les avions, les fusées ou les centrales nucléaires).

equation
Figure: 74.18 - Topologie parallèle

Dans le cadre des arbres de défaillance probabilistes (cf. chapitre Techniques De Gestion), cette topologie correspond à une porte ET (AND) avec n entrées car il faut que tous les blocs soient en panne pour que la sortie ne fonctionne plus:

equation
Figure: 74.19 - Porte ET (AND)

En d'autres termes, il s'arrête de fonctionner si et seulement si:

equation   (74.232)

Donc, il vient immédiatement que:

equation   (74.233)

Remarque: En gestion de projets ce type de structure parallèle est typiquement utilisée lorsque l'on souhaite connaître la fiabilité totale de plusieurs fournisseurs de pièces identiques (comme cela si l'un d'eux à des retards ou autres problèmes, les autres doivent permettre d'atténuer l'impact négatif) en connaissant ou en estimant bien évidemment la fiabilité de chacun...

Obervons (utile pour plus tard) que dans le cas très particulier où la fiabilité de tous les éléments est égale, nous avons:

equation   (74.234)

Nous avons donc pour le système parallèle dont les composantes sont à taux de défaillance constant et tous identiques (pour simplifier l'étude):

equation   (74.235)

Nous avons alors:

equation   (74.236)

En posant:

equation   (74.237)

et en remplaçant dans l'expression antéprécédente, nous avons:

equation   (74.238)

Il n'est pas possible d'intégrer cette dernière relation de manière formelle, mais si on compare pour différentes valeurs de n fixées alors nous voyons très vite que:

equation   (74.239)

ou autrement écrit:

equation   (74.240)

Faisons quand même le développement détaillé pour un système parallèle à deux composantes dont le taux de défaillance est constant et non identique. Pour cela, nous partons de la relation démontrée plus haut:

equation   (74.241)

Soit dans le cas où n vaut 2, nous avons:

equation   (74.242)

et donc:

equation   (74.243)

Donc si equation, nous avons:

equation  (74.244)

Soit:

equation   (74.245)

Avant de continuer avec d'autres topologies, voici un exemple d'un petit devoir scolaire (avec solution) mélangeant topologie parallèle et et série qui montre que cela ne s'applique pas seulement à des machines.

exempleExemple:

Un laborantin doit quotidiennement effectuer 3 tests différents sur un échantillon, donné : Les tests A , B et C dans l'ordre donné! Nous savons que les laborantins ratent le test A une fois sur quatre mais peuvent le recommencer 2 fois en cas d'échec (donc ils peuvent le faire 3 fois au total), ils réussissent le B dans 96% des cas et peuvent aussi le recommencer une fois en cas d'échec (donc ils peuvent le faire 2 fois au total), il ratent le test C une fois sur deux et ne peuvent pas le recommencer. Quelle est la probabilité qu'un laborantin réussisse les 3 tests de suite? 

Pour résoudre cet exercice il faut voir chacun des tests reproducible comme un processus parallèle et l'ensemble des tests comme un processus série. Nous avons alors la probabilité totale qui est:

equation   (74.246)

T3. Topologie k/n:

Ce système fonctionne si k parmi n composants de même loi de fiabilité R fonctionnent. C'est typiquement le cas des disques RAID en informatique pour lesquels il en faut plus d'un qui fonctionne toujours à la fin et ce nombre est déterminé par le volume de données. Il s'agit aussi principe de fonctionnement des système de vote à redondance dans les avions où nous avons un système 2/3 appelé "triplex".

Nous avons alors la représentation schématique suivante:

equation
Figure: 74.20 - Topologie k/n

Dans le cadre des arbres de défaillance probabilistes (cf. chapitre Techniques De Gestion), cette topologie correspond à une porte k-OU (Voting OR) avec n entrées car il faut au moins que k blocs soient en panne pour que la sortie ne fonctionne plus:

equation
Figure: 74.21 - Porte k-OU (Voting OR)

Donc chercher la loi de probabilité cumulée de fiabilité revient à se poser la question de la probabilité cumulée d'avoir k éléments qui fonctionnent parmi n qui sont non distinguables.

Cela revient donc à utiliser la loi binomiale (cf. chapitre de Statistiques) pour laquelle nous avons démontré que la probabilité cumulée était donnée alors par:

equation   (74.247)

Cette relation ext extrêmement importante dans la pratique de l'ingénerie de la fiabilité!!! Nous remarquons ainsi que pour k égalant n nous retrouvons la fiabilité d'un système série dont les éléments ont tous la même fiabilitié:

equation   (74.248)

Et pour k égalant 1, nous retrouvons la fabilité d'un système parallèle dont les éléments ont tous la même fiabilitié (revoir les propriétés du coefficient bionomial dans le chapitre de Calcul Algébrique si nécessaire):

equation   (74.249)

Dans le cas du triplex, nous avons donc:

equation   (74.250)

Par exemple, si la fiabilité est donnée par une loi exponentielle où nous avons déjà démontré que:

equation   (74.251)

Nous avons alors:

equation   (74.252)

Donc la MTBF globale du système 2/3 est plus grande qu'un système simple ce qui évidemment est le but recherché.

T4. Topologie série/parallèle et parallèle/série à configuration symétrique:

Ce sont simplement des compositions simples des deux premiers systèmes étudiées précédemment.

Nous avons d'abord le système série/parallèle:

equation
Figure: 74.22 - Topologie série/parallèle symétrique

Or, comme les systèmes séries sont donnés par:

equation   (74.253)

et les parallèles par:

equation   (74.254)

la composition des deux donne trivialement dans notre cas ci-dessus:

equation   (74.255)

Et nous avons dans la famille aussi le système parallèle/série:

equation
Figure: 74.23 - Topologie parallèle/série symétrique

où en utilisant exactement la même démarche que précédemment nous avons:

equation   (74.256)

T5. Topologie complexe:

Au fait, il ne s'agit pas vraiment de systèmes complexes mais ils nécessitent simplement une petite maîtrise des axiomes de probabilités. L'exemple particulier qui va nous intéresser est le suivant (typiquement filtre RLC en cascade):

equation
Figure: 74.24 - Topologie complexe

dénommé "réseau avec bridge".

Et nous devinons que ce qui rend le système complexe est le composant 5. Nous pouvons alors considérer une première approche qui est de décomposer le problème.

Le système par rapport au composant 5 sera soit dans l'état:

equation
Figure: 74.25 - Décomposition du système (première étape)

s'il est défectueux avec une loi de densité probabilité:

equation   (74.257)

et ayant lui-même une fiabilité de:

equation   (74.258)

selon nos résultats précédents du système complexe série/parallèle.

Soit dans l'état suivant s'il est fonctionnel avec une loi de densité probabilité equation:

equation
Figure: 74.26 - Décomposition du système (deuxième et dernière étape)

et ayant lui-même une fiabilité de:

equation   (74.259)

selon nos résultats précédents du système complexe parallèle/série.

Comme le système ne peut pas être dans les deux états en même temps, nous avons affaire à une probabilité disjointe (cf. chapitre de Probabilités) soit la somme des densités auxquelles nous devons associer les autres composants. Dès lors nous avons:

equation   (74.260)

Nous pouvons alors à l'aide de l'ensemble des 5 topologies précédentes faire une évaluation de la fiabilité d'un système quelconque!

Une autre stratégie pour les systèmes complexes consiste à les décomposer en système séries ou parallèles simples. Si cela n'est pas possible, nous pouvons calculer la fiabilité de chaque configuration du système qui est considérée comme fonctionnant et faire ensuite la somme des probabilités de fonctionnement de chaque configuration.

Faisons un exemple en considérant le cas particulier suivant:

equation
Figure: 74.27 - Cas particulier de système supposé comme complexe

Et considérons la table de vérité suivante avec les equation configurations possibles:

État n°

Bloc 1

Bloc 2

Bloc 3

Sortie

1

0

0

0

0

2

1

0

0

0

3

0

1

0

0

4

1

0

1

1

5

0

1

1

1

6

1

1

1

1

7

1

1

0

0

8

0

0

1

0

Tableau: 74.9 - Table de vérité d'un système de maintenance préventive

Le principe (il faut le savoir...) consiste à dire qu'un état UP (valant donc: 1) est affecté à la valeur equation du bloc i concerné et que l'état DOWN (valant donc: 0) est affecté à la valeur equation du bloc i. Chaque valeur sera multipliée avec les autres pour obtenir la fiabilité totale du système à un état donné.

Ainsi, dans l'exemple précédent, nous avons donc que 3 états qui permettent au système de fonctionner. Calculons leur fiabilité respective. Les états n°4 et n°5 donnent donc par définition:

equation   (74.261)

L'état n°6 donne lui par définition:

equation   (74.262)

et nous sommons le tout comme indiqué ultérieurement:

equation   (74.263)

Et nous pouvons vérifier que cette approche est effectivement correcte en prenant la relation générale d'un tel système démontrée plus haut:

equation   (74.264)

ce qui montre que nous avons bien le même résultat et que l'approche par décomposition fonctionne aussi.

Enfin, signalons pour terminer que lorsque nous incluons dans les systèmes des éléments qui permettent de tolérer ou d'accepter certaines erreurs, nous parlons alors de "tolérance aux fautes" et nous en distinguons principalement de trois types:

- Redondance active: Dans ce cas tous les composants redondants fonctionnent en même temps.

- Redondance passive: Un seul élément redondant fonctionne, les autres sont en attente, ce qui a pour avantage de diminuer ou de supprimer le vieillissement des éléments redondants, mais en contrepartie nécessite l'insertion d'un composant de détection de panne et de commutation.

- Redondance majoritaire: Cette redondance concerne surtout des signaux. Le signal de sorite sera celui de la majorité des composants redondants.

ARBRES DE DÉFAILLANCES PROBABILISTES

Un arbre de défaillances (aussi appelée arbre de pannes ou arbre de fautes) ou "fault tree analysis" en anglais est une technique d'ingénierie très utilisée dans les études de sécurité et de fiabilité des systèmes consistant à représenter graphiquement les combinaisons possibles d’événements qui permettent la réalisation d’un événement indésirable prédéfini. Une telle représentation graphique met donc en évidence les relations de cause à effet. Cette technique est complétée par un traitement mathématique qui permet la combinaison de défaillances simples ainsi que de leur probabilité d'apparition. Elle permet ainsi de quantifier la probabilité d'occurrence d'un événement indésirable.

Le principe est très simple tant que l'on fait appel à des probabilités binaires, par contre dès qu'il faut utiliser des fonctions de distributions continues (cas le plus fréquent dans la pratique), il faut passer par des simulations de Monte-Carlo (cf. chapitre de Méthodes Numériques) avec typiquement des logiciels comme Weibull++.

Considérons l'arbre de défaillance ci-dessous qui comporte donc 5 événements primitifs et 3 événements combinés avec les probabilités des événtements primites supposés connus:

equation
Figure: 74.28 - Arbre de défaillance simple à probabilités binaires et portes ET/OU seules

Nous avons alors pour l'événement E6 la probabilité suivante puisqu'il s'agit d'une porte ET (assimilable à un système parallèle):

equation   (74.265)

et pour l'événement E7 puisqu'il s'agit d'une porte OU (assimilable à un système série), nous avons.

equation   (74.266)

Et donc au final:

equation   (74.267)

Ainsi, la probabilité d'avoir la chambre de travail sans lumière est de 14.24%.

MÉTHODE DU MAXIMUM DE VRAISEMBLANCE

Nous avons étudié dans le chapitre de Statistiques que l'utilisation de la technique du maximum de vraisemblance permettait d'estimer la valeur maximale ou minimale des paramètres d'une loi statistiques sous les hypothèses d'indépendance des événements.

Cette technique,bien qu'empirique et tout à fait discutable, peut être utilisée dans le domaine de la fiabilité. Comme la théorie a déjà été développée dans le chapitre de Statistiques, voyons de suite des cas pratiques.

exempleExemples:

E1. Considérons un système dont les intervalles de temps entre deux pannes est distribué selon un loi exponentielle:

equation   (74.268)

de paramètre equation inconnu et où nous considérerons (comme toujours...) que chaque panne est indépendante. Des observations nous ont donné le nombre de mois suivants entre chaque panne: 10, 5, 11, 12, 15.

En utilisant alors le maximum de vraisemblance qui consiste donc à maximiser la propabilité totale d'événements indépendants (donc il faut multiplier), nous avons:

equation   (74.269)

Donc déterminer le taux de défaillance qui maiximise la vraisemblance consiste à calculer quand la dérivée s'annule:

equation   (74.270)

Nous avons alors deux racines triviales qui sont:

equation   (74.271)

et évidemment nous allons conserver la deuxième racine comme taux de défaillance de notre système.

E2. Nous considérons les mêmes données qu'avant mais avec cette fois-ci une loi de Weibull avec la notation simplifiée suivante:

equation   (74.272)

et donc:

equation   (74.273)

Pour cherche à maximiser ce genre de fonction formellement il n'existe pas de méthodes connue (du moins à ma connaissance...). Par contre, un tableur comme MS Excel avec son solveur permet de trouver les deux paramètres de cette loi de Weibull en trois clics!

E3. Nous supposons que nous mettons sous observation 10 éléments de fabrication identique. Parmi les 10, nous avons observé un arrêt de 4 d'entre eux après 700, 800, 900 et 950 heures. Les 6 éléments restants seront considérés comme dépassant les 1'000 heures mains nous arrêtons l'observation à partir de cette valeur. En supposant que la loi de défaillance est à nouveau exponentielle, nous avons alors (l'idée est subtile mais simple):

equation   (74.274)

Il vient alors:

equation   (74.275)

Nous avons alors deux racines triviales qui sont:

equation   (74.276)

et évidemment nous allons conserver la deuxième racine comme taux de défaillance de notre système.

MODÈLE DE SURVIE DE KAPLAN-MEIER

Dans des domaines comme l'industrie, la médecine ou en biologie, nous intéressons souvent aux:

- Durée de survie après un événement grave

- Durée de rémission après un traitement ou une opération

- Durée d'un symptôme après une anomalie

- Durée d'une infection sans symptôme

Nous cherchons très souvent à distinguer au moins "l'événement d'intérêt":

- Arrêt du système après l'événement grave

- Fin de la rémission

- Fin d'un symptôme après anomalie

- Début d'un symptôme lors d'une infection

de la variable a expliquer "durée avant l'apparition de l'événement d'intérêt":

- Temps écoulé avant l'arrêt du système

- Temps écoulé avant la fin de la rémission

- Temps écoulé avant la fin du symptôme

- Temps écoulé sans symptôme

Définitions:

D1.  Nous appelons "rémission", la diminution d'une maladie ou d'un dysfonctionnement de façon temporaire.

D2. La "durée de survie" ou "durée de vie" T désigne le temps qui s'écoule depuis un instant initial (début d'un traitement, diagnostic, panne, etc.) jusqu'à la survenue d'un événement d'intérêt final (décès du patient, rechute, rémission, guérison, réparation, etc.). Nous disons que l'objet de l'étude "survit au temps t" si, à cet instant l'évènement d'intérêt final n'a pas encore eu lieu.

Remarque: Bien que ce type d'étude puisse être associé à la maintenance préventive, les statisticiens l'associent plutôt au domaine de "l'analyse de la survie".

Nous nous intéresserons dans le cas présent à un cadre particulier mais qui peut être facilement généralisé:

- Cohorte/Essai clinique où nous étudions la durée de survie de chaque patient (machine).

- Tous les patients (machines) n'ont pas la même durée d'observation (instants différents d'entrée dans l'étude).

- Nous avons des informations sur le temps de survie de chaque patient (machine) mais nous ne savons pas quand il arrive exactement.

Des deux derniers points, nous concluons que le temps de survie peut être censuré. Donc les techniques statistiques habituelles ne s'appliquent pas directement car les données censurées demandent un traitement particulier (bien évidemment, nous enlevons les données censurées nous perdons de l'information). Il va sans dire que ce type de situation est extrêmement fréquent et donc l'étude de l'estimation de Kaplan-Meier est très importante.

Définition: La durée T est dite censurée si la durée n'est pas intégralement observée. Les différents types de censures sont:

- La censure de type I: fixée à droite. Dans cette situation, la durée n'est pas observable au-delà d'une durée maximale, fixe appelée "censure fixe" et imposée. Donc, soit nous avons l'opportunité d'observer la vraie durée de l'événement d'intérêt pour l'élément s'il a lieu avant la censure fixe, soit nous nous contenterons de la durée de la censure fixe s'il l'événement d'intérêt n'a pas eu lieu avant.

- La censure de type I: fixée à gauche. Dans cette situation, la durée d'étude n'est pas observable avant une date connue appelée "censure d'attente" et imposée. Donc soit, l'événement d'intérêt a lieu au moment de la censure d'attente, soit après. S'il y a lieu après, nous considérerons la durée entre la date de la censure et la date de l'événement d'intérêt.

- La censure de type II: attente. Dans cette situation, nous observons les durées de vie de n individus jusqu'à ce que m individus aient vu l'évènement se produire (décédés). La durée considérée est donc celle du début de l'expérience jusqu'à l'événement d'intérêt pour le m-ème.

- La censure de type III: aléatoire à gauche. Dans cette situation, nous ne connaissons pas quand l'événement d'intérêt a eu lieu (car nous avons commencé à observer le sujet d'étude trop tard). Nous ne pouvons alors pas traiter des "durées" dans le sens mesurable du terme et il nous faudra nous limite à un simple comptage.

- La censure de type III: aléatoire à droite. Dans cette situation, nous ne connaissons pas quand l'événement aura lieu (car nous avons arrêté  d'observer le sujet avant qu'il y ait lieu pour une raison quelconque). Nous ne pouvons alors pas traiter des "durées" dans le sens mesurable du terme et il nous faudra nous limite à un simple comptage.

- La censure de type IV: aléatoire par intervalle. Dans cette situation, nous avons un mélange de la censure aléatoire à gauche et à droite. C'est-à-dire que pour certains sujets d'étude, nous ne savons pas quand l'événement d'intérêt a commencé, et pour d'autres, nous ne savons pas quand il aura lieu (s'il a lieu....).

Dans l'industrie des machines, nous savons souvent affaire à la censure de type I: fixée  droite. Dans le domaine médical, lors d'essais cliniques, nous avons souvent affaire à une censure aléatoire à droite. Dans le cas des pandémies, nous avons affaire à des censure de type aléatoire à gauche.

Supposons que l'étude soit un essai clinique portant sur deux groupes de patients recevant deux types de traitements. Deux questions importantes se posent aux médecins:

Q1. L'un des deux traitements est-il plus efficace que l'autre en matière d'amélioration de la survie des patients?

Q2. Peut-on mettre en évidence des facteurs prognostiques, c'est-à-dire qui améliorent/détériorent la survie?

Pour répondre à la question Q1 nous pouvons mettre en place des méthodes statistiques qui vont permettre de comparer les deux groupes de patients qui reçoivent les deux types de traitement.

Pour répondre à la question Q2 nous pouvons proposer un modèle qui relie la durée de survie des patients à des variables explicatives et mettre en évidence des facteurs pronostiques.

Accompagnons la théorie directement d'un exemple et considérons le tableau suivant où deux cohortes de patients (nous passons de l'ingénierie mécanique à l'ingénierie humaine...) de même taille initiale atteints de leucémie aiguë testent un médicament (6-MP) contre un placebo de façon bien évidemment aveugle.

Nous avons les durées de rémission suivantes pour 21 patients (le tableau de 21 lignes indique donc le nombre de semaines pendant lesquelles un patient est considéré comme guéri après traitement avant de rechuter):

6-mercaptopurine (6-MP)

Placebo

6

1

6

1

6

2

6+

2

7

3

9+

4

10

4

10+

5

11+

5

13

8

16

8

17+

8

19+

8

20+

11

22

11

23

12

25

12

32+

15

32+

17

34+

22

35+

23

Tableau: 74.10 - Analyse de survie de deux cohortes avec censure à droite

Le signe + correspond à des patients qui ont quitté l'étude à la semaine considérée. Ils sont donc censurés. Par exemple, le 4ème patient est perdu de vue pour une raison quelconque au bout de 6 semaines de traitement avec le 6-MP: il a donc une durée de rémission supérieure à 6 semaines. Donc dans l'étude 6-MP, il y a 21 patients avec et 12 données censurées.

Remarque: Le modèle théorique suppose que la censure est indépendant du temps de survie (censure non informative). Mais si la censure est du à l'arrêt du traitement, l'hypothèse d'indépendance n'est pas valide.

Pour le groupe placebo il est simple de faire une courbe de survie. Il suffit de produire le tableau suivant (pour les semaines omises, on impose bien évidemment le nombre de rémission comme constantes):

Semaine i

Nombre de rémission
à la semaine i

Proportion (probabilité)
de rémission à la semaine i

0

21

100%

1

19

19/21=90%

2

17

17/21=81%

3

16

16/21=76%

4

14

14/21=67%

5

12

12/21=57%

8

8

8/21=38%

11

6

6/21=29%

12

4

4/21=19%

15

3

3/21=14%

17

2

2/21=10%

22

1

1/20=0.05%

23

0

0

Donc si les données ne sont pas censurées, la survie equation peut être estimée par la proportion d'individus ayant survécu à l'instant t, qu'il est d'usage d'écrire sous la forme mathématique suivante:

equation   (74.277)

L'idée est donc d'estimer:

equation   (74.278)

 par la la proportion de patients ayant survécu jusqu'au temps t.

Si les données sont censurées, l'estimation de la fonction de survie nécessite des outils spécifiques. Kaplan et Meier ont proposé dans ce cas particulier le calcul suivant:

equation
  (74.279)

Voyons cela sous une forme un peu plus mathématique. Si nous notons equation les instants (ordonnées) où un évènement s'est produit (décès ou censure), nous avons alors:

equation   (74.280)

Avec bien évidemment:

equation   (74.281)

Nous estimons:

equation   (74.282)

equation est le nombre de décès observé au temps correspondant à l'événement equation et equation est le nombre d'individus à risque (exposés au risque de décès) juste avant equation.

Nous définissons l'estimateur de Kaplan-Meier pour tout equation:

equation

Durée de rémission
(non censurées) observées

Sujets en rémission au début de k

Probabilité de ne pas rechuter à k sachant qu'on est en rémission à k-1

Probabilité de survie de
Kaplan-Meier

0

21

21/21=100%

100%

6

21

18/21=85.7%

100%*85.7%=85.7%

7

17

16/17=94.1%

85.7%*94.1%=80.7%

10

15

14/15=93.3%

80.7%*93.3%=75.3%

13

12

11/12=91.7%

75.3%*91.7%=69%

16

11

10/11=90.9%

69%*90.9%=62.7%

22

7

6/7=85.7%

62.7%*85.7%=53.8%

23

6

5/6=83.3%

53.8%*83.3%=44.8%

Nous retrouvons donc les mêmes valeurs que celles données par exemple par le logiciel de statistiques Minitab 15.1.1.

MÉTHODE ABC

Dans une entreprise, les tâches sont nombreuses et les équipes d'entretien et de maintenance sont systématiquement réduites à leur minimum par les temps qui courent. De plus, les technologies les plus évoluées en matière de maintenance coûtent cher ou peuvent coûter très cher, et ne doivent pas être appliquées sans discernement.

Il convient par conséquent de s'organiser de façon efficace et rationnelle. L'analyse ABC (on devrait dire en toute rigueur "objectif ABC"), utilisant implicitement la loi de probabilité cumulée de Pareto (cf. chapitre de Statistiques), permet d'y remédier relativement bien. Ainsi, un classement des coûts par rapport aux types de panne donne des priorités sur les interventions à mener (cette méthode empirique est aussi utilisée dans de nombreux autres domaines dont un qui est très connu: la gestion de stocks).

L'idée consiste dans un premier temps comme pour l'analyse de Pareto (cf. chapitre de Techniques de Gestion) de classer les pannes par ordre croissant de coût de maintenance (ou de coût d'impact en cas de panne) chaque panne se rapportant un système simple ou complexe et à établir un graphique faisant correspondre les pourcentages de coûts cumulées aux pourcentages de type de panne cumulés.

Ensuite, nous distinguons par tradition dans l'industrie trois zones:

- Zone A: Dans la majorité des cas, environ 20% des pannes représentent 80% des coûts et il s'agit donc de la zone prioritaire.

- Zone B: Dans cette tranche, les 30% de pannes suivantes coûtent 15% supplémentaires.

- Zone C: 50% des pannes restantes ne revient qu'à 5% des coûts.

Le domaine du web participatif considère lui des zones (objectifs) de respectivement 90-9-1 pourcents donc on trouve vraiemnt de tout et n'importe quoi...

Voyons un exemple en considérant que les données suivantes ont été recueillies et que nous aimerions faire une analyse du % de machines sur lesquelles il faudrait que nous nous concentrions pour diminuer le coût d'heures de pannes d'environ 80% (dans la réalité on s'intéressera plus au % du coût financier!).

N° de Machine

Heures d'arrêt

Nb. de pannes

Machine n°1

100

4

Machine n°2

32

15

Machine n°3

50

4

Machine n°4

19

14

Machine n°5

4

3

Machine n°6

30

8

Machine n°7

40

12

Machine n°8

80

2

Machine n°9

55

3

Machine n°10

150

5

Machine n°11

160

4

Machine n°12

5

3

Machine n°13

10

8

Machine n°14

20

8

Tableau: 74.11  - Analyse ABC sur pannes machines

Ensuite, dans un tableur comme Microsoft Excel ou autre... nous pouvons aisément établir le tableau suivant:

Machine

Arrêt [h.]

Cumul [h.]

%Cumulé

Pannes

Cumul pannes

%Cumulé

11

160

160

21.19%

4

4

4.30%

10

150

310

41.06%

5

9

9.68%

1

100

410

54.30%

4

13

13.98%

8

80

490

64.90%

2

15

16.13%

9

55

545

72.19%

3

18

19.35%

3

50

595

78.81%

4

22

23.66%

7

40

635

84.11%

12

34

36.56%

2

32

667

88.34%

15

49

52.69%

6

30

697

92.32%

8

57

61.29%

14

20

717

94.97%

8

65

69.89%

4

19

736

97.48%

14

79

84.95%

13

10

746

98.81%

8

87

93.55%

12

5

751

99.47%

3

90

96.77%

5

4

755

100.00%

3

93

100.00%

Tableau: 74.12  - Normalisation des données pour analyse ABC

Nous avons alors graphiquement:

equation
Figure: 74.29 - Graphique de la méthode ABC

où les zones A, B et C sont arrondies à des points existants. Ainsi, la zone critique A compte les machines 11, 10, 1, 8, 9 et 3. Une amélioration de la fiabilité de ces machines peut donc procurer jusqu'à 78.8% de gain de temps sur les pannes.

Maintenant déterminons les paramètres de la loi de répartition de Pareto:

equation   (74.283)

Nous devons déterminer equation et k les autres paramètres nous sont donnés par nos mesures (le tableau).

Nous pouvons jouer de la manière suivante:

equation   (74.284)

d'où:

equation   (74.285)

Donc à l'aide de:

equation   (74.286)

on doit pouvoir déterminer les deux paramètres recherchés en considérant l'expression comme l'équation d'une droite dont k est la pente et equation l'ordonnée à l'origine:

equation   (74.287)

Une régression linéaire simple (cf. chapitre de Méthodes Numériques) nous donne:

equation et equation   (74.288)

donc:

equation   (74.289)

Nous avons donc au final:

equation   (74.290)

Ce qui donne alors le tableau suivant (les xi de la loi de Pareto sont les %Cumulé de panne):

Machine

%Cumulé coûts [h.]

%Cumulé panne

%Cumulé loi Pareto

11

21.19%

4.30%

61.76%

10

41.06%

9.68%

78.01%

1

54.30%

13.98%

82.89%

8

64.90%

16.13%

84.48%

9

72.19%

19.35%

86.29%

3

78.81%

23.66%

88.05%

7

84.11%

36.56%

91.12%

2

88.34%

52.69%

93.08%

6

92.32%

61.29%

93.75%

14

94.97%

69.89%

94.29%

4

97.48%

84.95%

95%

13

98.81%

93.55%

95.32%

12

99.47%

96.77%

95.43%

5

100.00%

100.00%

95.53%
Tableau: 74.13  - Comparaisons données expérimentales/théoriques

Nous pouvons alors obtenir la vraie courbe de Pareto correspondante facilement dans Microsoft Excel 11.8346:

equation
Figure: 74.30 - Graphique de la méthode ABC associé à une courbe de Pareto

La différence entre la courbe expérimentale est la théorique est non négligeable... Comme k est inférieur à 1, alors comme nous l'avons vu démontré dans le chapitre de Statistiques, la loi de Pareto n'a ni espérance, ni variance.

Il faut faire attention au fait que dans le domaine de la gestion, la loi de Pareto est utilisée un peu à tort et à travers alors qu'une autre loi de probabilité pourrait être beaucoup plus adaptée.

Par ailleurs, un simple test d'ajustement du Khi-deux (cf. chapitre de Statistiques) nous montre qu'il faut rejeter l'approximation par une loi de Pareto. Par ailleurs, des logiciels spécialisés comme @Risk rejettent l'approximation par Pareto au-delà des 20 meilleurs ajustements, le meilleur ajustement étant selon ce même logiciel une loi log-normale.

PLANS D'EXPÉRIENCE

Le comportement ou l'appréciation subjective de produits industriels ou manufacturées est généralement fonction de nombreux phénomènes, souvent dépendants les uns des autres. Pour prévoir ce comportement/appréciation, le produit et les phénomènes sont modélisés, et des simulations sont effectuées. La pertinence des résultats des simulations dépend évidemment de la qualité des modèles.

En particulier, dans le cadre de la conception ou reconception d'un produit, les modèles font généralement intervenir un certain nombre de grandeurs physiques (paramètres) que l'on s'autorise à modifier. Le comportement des produits industriels est généralement fonction de nombreux phénomènes, souvent dépendants les uns des autres. Pour prévoir ce comportement, le produit et les phénomènes sont modélisés, et des simulations sont effectuées.

Or, ces essais sont coûteux, et ce d'autant plus que le nombre de paramètres à faire varier est important. En effet, la modification d'un paramètre peut par exemple exiger un démontage et un remontage du produit, ou bien la fabrication de plusieurs prototypes différents (cas d'une pièce produite en série), ou encore l'interruption de la production pour changer d'outil (cas d'un processus de fabrication)... Le coût d'une étude expérimentale dépend donc du nombre et de l'ordre des essais effectués.

L'idée consiste alors à sélectionner et ordonner les essais afin d'identifier, à moindres coûts, les effets des paramètres sur la réponse du produit. Il s'agit de méthodes statistiques faisant appel à des notions mathématiques simples le plus souvent. La mise en oeuvre de ces méthodes comporte trois étapes (mais mieux vaut se référer à la norme ISO 3534-3:1999 sur le sujet pour être plus rigoureux!):

1. Postuler un modèle de comportement du système (avec des coefficients pouvant être inconnus)

2. Définir un protocole d'expérience, c'est-à-dire une série d'essais ("runs" en anglais) permettant d'identifier les coefficients du modèle

3. Faire les essais, identifier les coefficients ("constrasts" en anglais) et variables influentes

4. Déterminer les valeurs des variables qui permettent d'arriver au plus proche d'un résultat désiré ou ayant une variabilité minimale et conclure.

Les plans d'expériences ("Design of Experiment" (D.O.E.) en anglais abrégés PEX en français) permettent d'organiser au mieux les essais qui accompagnent une recherche scientifique ou des études industrielles. Ils sont applicables à de nombreuses disciplines et à toutes les industries à partir du moment où l'on recherche le lien qui existe entre une grandeur d'intérêt, y (quantité de rebus, défauts, détections, amplitude, etc.), et des variables equation dans un but d'optimisation. Raison pour laquelle il existe des logiciels pour les traiter comme Minitab ou principalement JMP pour ne citer que les plus connus.

Indiquons également que les plans d'expérience sont un des piliers de la chimiométrie (outils mathématiques, en particulier statistiques, pour obtenir le maximum d'informations à partir des données chimiques).

Au cours des dernières années du 20ème siècle, l'application des plans d'expérience s'est développée, particulièrement en raison du fait reconnu que ceux-ci sont essentiels pour l'amélioration de la qualité des biens et des services. Bien que la maîtrise statistique de la qualité, les solutions managériales, les inspections, et autres outils de qualité remplissent également cette fonction, le plan d'expérience représente la méthodologie par excellence dans le cas d'un environnement de paramètres complexes, variables et interactifs. D'un point de vue historique, les plans d'expérience ont évolué et se sont développés dans le secteur de l'agriculture. La médecine a également bénéficié d'une longue histoire de plans d'expérience élaborés avec soin. Actuellement, les environnements industriels témoignent de bénéfices considérables de la méthodologie, en raison de la facilité d'initiation des efforts (logiciels d'application conviviaux), d'une meilleure formation, de défenseurs influents, et des nombreux succès obtenus grâce aux plans d'expérience.

Il existe trois grandes familles de plans d'expériences:

1. Les "plans de criblages": dont l'objectif est de découvrir les facteurs les plus influents sur une réponse donnée en un minimum d'expériences. C'est la plus simple des familles car proche de l'intuition expérimentale (elle est parfois considérée comme une sous-famille de la deuxième famille car elle fait abstraction des interactions des facteurs et se réduit donc à un modèle purement additif).

2. Les "plans de modélisation": dont l'objectif est de trouver la relation mathématique qui lie les réponses mesurées aux variables associées aux facteurs soit via une démarche mathématique analytique ou purement matricielle. Les plans factoriels complets et fractionnaires (2 niveaux par facteurs avec modèles linéaires) ainsi que les plans pour surfaces de réponse (au moins 3 niveaux par facteurs avec modèles du second degré) font partie de cette famille.

3. Les "plans de mélange": dont l'objectif est le même que la deuxième famille, mais où les facteurs ne sont pas indépendants et sont contraints (par exemple leur somme ou leur rapport doit être égale à une certaine constante).

La technique des plans d'expérience a pour objectif d'être scientifiquement plus avantageuse que les techniques consistantes à changer seulement un facteur à la fois (en laissant donc fixes les autres facteurs) car cette dernière ne permet pas de faire faire une étude statistiques approfondie des erreurs et (surtout!) masque complétement les interactions.

Le principe général de la stratégie des plans d'expérience se base sur le fait que l'étude d'un phénomène peut, le plus souvent, être schématisé de la manière suivante: nous nous intéressons à une grandeur, y  qui dépend d'un grand nombre de variables, equation (et leur ordre n'a pas d'influence... ce qui est par contre problématique en chimie...).

La modélisation mathématique consiste à trouver une fonction f telle que:

equation   (74.291)

qui prenne en compte l'influence de chaque facteur seul ou des facteurs combinés (interactions).

Une méthode classique d'étude consiste en la mesure de la réponse y pour plusieurs valeurs de la variable equation tout en laissant fixe la valeur des (n-1) autres variables. Nous itérons alors cette méthode pour chacune des variables.

Ainsi, par exemple, si nous avons 8 variables et si l'on décide de donner 2 valeurs expérimentales à chacune d'elles, nous sommes conduits à effectuer equation expériences.

Ce nombre élevé dépasse les limites de faisabilité tant en temps qu'en coût. Il faut donc réduire le nombre d'expériences à effectuer sans pour autant perdre sur la qualité des résultats recherchés.

L'utilisation d'un plan d'expérience donne alors une stratégie dans le choix des méthodes d'expérimentation. Le succès des plans d'expériences dans la recherche et l'industrie est lié au besoin de compétitivité des entreprises: ils permettent une amélioration de la qualité et une réduction des coûts.

Remarque: La méthode des plans d'expériences a été mise au point au début du siècle, dans les années 1920, par Ronald A. Fisher (celui du Test de Fisher). Elle a pris un essor considérable avec le développement de l'informatique et la puissance de calcul qui l'accompagne.

Le traitement des résultats se fait enfin à l'aide de la régression linéaire simple ou multiple et l'analyse de variance.

Avec les plans d'expériences, le but est donc d'obtenir le maximum de renseignements (mais pas tous!) avec le minimum d'expériences (et donc le minimum de coût) dans le but de modéliser ou d'optimiser des phénomènes étudiés.

Un expérimentateur qui lance une étude s'intéresse à une grandeur qu'il mesure à chaque essai. Cette grandeur s'appelle la "réponse", c'est la grandeur d'intérêt. La valeur de cette grandeur dépend de plusieurs variables. Au lieu du terme "variable" on utilisera le mot "facteur". La valeur donnée à un facteur pour réaliser un essai est appelée "niveau". Lorsque l'on étudie l'influence d'un facteur, en général, on limite ses variations entre deux bornes (oui faut bien s'avoir s'arrêter un jour et être raisonnable...) appelées respectivement: "niveau bas" et "niveau haut".

Bien évidemment, lorsque nous avons  plusieurs facteurs equation ceux-ci représentent un point dans equation appelé alors "espace expérimental".

L'ensemble de toutes les valeurs que peut prendre le facteur entre le niveau bas et le niveau haut, s'appelle le "domaine de variation du facteur" ou plus simplement le "domaine du facteur". Nous avons l'habitude de noter le niveau bas par -1 et le niveau haut par +1 quand tous les facteurs n'ont que deux niveaux, sinon est d'usage de noter les niveaux de 1 à n (nombre de niveaux). Bien évidemment, en fonction de la notation choisie, il faut adapter les expressions du modèle mathématique en conséquence.

Donc par exemple pour un facteur ayant un domaine de variation compris entre un niveau haut de 20 [°C] correspond à +1 et un niveau bas de 5 [°C] correspondant à -1 nous devrons à la fin de notre étude transformer toutes les valeurs expérimentales en "unités centrées réduites" dans lesquelles doivent être utilisées les equation.

Ainsi, nous avons deux points d'entrée (20,5) et deux de sorties (+1,-1). Toute valeur intermédiaire est donnée simplement par l'équation de la droite:

equation
Figure: 74.31 - Principe de construction des unités centrées réduites

La pente est donc triviale à obtenir..., pour déterminer b, nous avons simplement une équation à une inconnue:

equation   (74.292)

ou (ce qui revient au même):

equation   (74.293)

Donc le passage de variables non normalisées, notées x, aux normalisées, notées X, s'écrit alors:

equation   (74.294)

soit dans un cas de sorties (+1,-1):

equation   (74.295)

et inversement...:

equation   (74.296)

soit dans un cas de sorties (+1,-1):

equation   (74.297)

Le regroupement des domaines de tous les facteurs définit le "domaine d'étude". Ce domaine d'étude est la zone de l'espace expérimental choisie par l'expérimentateur pour faire ses essais. Une étude, c'est-à-dire plusieurs expériences bien définies, est représentée par des points répartis dans le domaine d'étude.

Par exemple, pour deux facteurs, le domaine d'étude est une surface et l'espace expérimental est equation:

equation
Figure: 74.32 - Exemple à deux facteurs

Les niveaux equation centrés réduits représentent les coordonnées d'un point expérimental et y est la valeur de la réponse en ce point. On définit un axe orthogonal à l'espace expérimental et on l'attribue à la réponse. La représentation géométrique du plan d'expériences et de la réponse nécessite un espace ayant une dimension de plus que l'espace expérimental. Un plan à deux facteurs utilise un espace à trois dimensions pour être représenté: une dimension pour la réponse, deux dimensions pour les facteurs.

Lorsque nous avons déterminé le modèle mathématique, à chaque point du domaine d'étude correspond un ensemble de réponses qui se localisent sur une surface appelée la "surface de réponse" (raison pour laquelle ce domaine d'étude est parfois appelé: "plans d'expérience pour l'estimation de surfaces de réponse") par exemple avec deux facteurs:

equation
Figure: 74.33 - Deux facteurs avec la surface de réponse

Le nombre et l'emplacement des points d'expériences est le problème fondamental des plans d'expériences. Nous cherchons à obtenir la meilleure précision possible sur la surface de réponse tout en limitant le nombre d'expériences! L'ingénieur va donc rechercher une fonction mathématique continue qui relie la réponse aux facteurs.

Pour cela, nous simplifions le problème en se rappelant (cf. chapitre de Suites et Séries) que toute fonction quelle que soit son nombre de variables, peut être approchée en une somme de série de puissance en un point donné.

Nous prenons alors un développement limité de la série de Taylor:

equation   (74.298)

Soit autour deequation (ce que nous pouvons nous permettre car nous prenons toujours des unités centrées réduites comme vues plus haut!), nous avons la série de Maclaurin au deuxième ordre et en changeant de notation pour equation:

equation
  (74.299)

y est donc la réponse et les equation les facteurs et les equation sont les coefficients du modèle mathématique adopté a priori. Ils ne sont pas connus et doivent être calculés à partir des résultats des expériences.

L'intérêt de modéliser la réponse par un polynôme est de pouvoir calculer ensuite toutes les réponses du domaine d'étude sans être obligé de faire les expériences en passant par un modèle appelé "modèle postulé" ou "modèle a priori".

Deux compléments doivent être apportés au modèle précédemment décrit:

1. Le premier complément est le "manque d'ajustement". Cette expression traduit le fait que le modèle a priori est fort probablement différent (ne serait-ce que par l'approximation de l'approche) du modèle réel qui régit le phénomène étudié. Il y a un écart entre ces deux modèles. Cet écart est le manque d'ajustement ("lack of fit" en anglais).

2. Le second complément est la prise en compte de la nature aléatoire de la réponse (sans que cette dernière soit toutefois stochastique sinon il faut utiliser d'autres outils!). En effet, si l'on mesure plusieurs fois une réponse en un même point expérimental, on n'obtient pas exactement le même résultat. Les résultats sont dispersés. Les dispersions ainsi constatées sont appelées "erreurs expérimentales".

Ces deux écarts, manque d'ajustement et erreur expérimentale, sont souvent réunis dans un seul écart, notée e.

Le modèle utilisé par l'expérimentateur s'écrit alors au deuxième ordre et au premier degré:

equation   (74.300)

et est appelée parfois "modèle synergique".

Remarques:

R1. Si nous prenons en compte les termes du deuxième degré, nous parlons alors de "modèle quadratique complet".

R2. Si nous arrêtons le développement au premier ordre et au premier degré (sans interactions), nous parlons alors de "modèle affine".

Dans la pratique nous notons cette dernière relation (nous enlevons le terme d'erreur):

equation   (74.301)

où nous avons la notation abusive pour ce qui est d'suage d'appeler dans le domaine le "terme rectangle":

equation   (74.302)

Dès lors, il vient que pour 2 facteurs, l'expression contient 4 termes, pour 3 facteurs elle contient 8 termes, pour 4 facteurs, 16 termes, etc. Il s'agit donc toujours de puissances de 2.

Ce modèle sans erreur est souvent appelé "modèle contrôlé avec interactions" (linéaire d'ordre 2). Par exemple, une surface de réponse associée à une relation du type précédente est avec Maple 4.00b:

>plot3d(5+3*x1+2*x2+4*x1*x2,x1=-10..10,x2=-10..10,view=[-10..10,-10..10,-10..10],contours=10,style=PATCHCONTOUR,axes=frame,numpoints=10000);

equation
Figure: 74.34 - Exemple générique d'interaction pour deux facteurs (paraboloïde hyperbolique)

où nous avons représenté les isoclines (lignes dont les réponses de la fonction sont égales quelle que soient les valeurs des variables d'entrée). Ce qui permet de recherche les combinaisons les moins coûteuses pour un résultat égal!

Évidemment, si nous supprimons les termes d'interactions, nous avons simplement un plan:

>plot3d(5+3*x1+2*x2,x1=-10..10,x2=-10..10,view=[-10..10,-10..10,-10..10],contours=10,style=PATCHCONTOUR,axes=frame,numpoints=10000);

equation
Figure: 74.35 - Exemple générique de modèle additif pour deux facteurs (plan)

Évidemment, plus le degré du polynôme utilisé est élevé plus nous avons, théoriquement, de chances d'avoir un modèle proche de la réalité. Mais les polynômes de degré élevé réclament beaucoup de points expérimentaux et leur validité peut vite diverger en dehors du domaine expérimental. Si l'étude l'exige, nous préférons utiliser des fonctions mathématiques particulières pour mieux ajuster le modèle aux résultats expérimentaux.

Cependant, en pratique, les interactions d'ordre élevé ont souvent une influence très faible sur la réponse (bon cette affirmation dépend fortement du domaine d'activité...!). Il est donc possible de ne pas les inclure dans le modèle, ce qui conduit à faire moins d'essais. Ce principe est utilisé dans la construction de nombreux plans d'expériences, comme nous le verrons dans la partie suivante. Dans de nombreuses applications, on obtient des résultats tout à fait satisfaisants en se limitant aux interactions doubles.

Pourquoi nous satisfaisons-nous de cette relation approchée de quatre termes? Pour la simple raison que:

1. La réponse peut être non nulle lorsque tous les facteurs sont nuls (c'est le premier coefficient equation)

2. La réponse dépend trivialement (intuitivement) de la somme des effets du premier et deuxième facteurs equationde manière indépendante (coefficients equation).

3. La réponse dépend aussi des interactions entre les deux facteurs equation (coefficients equation).

Chaque point expérimental dont les equation sont données  permet alors d'obtenir une valeur de la réponse y. Cette réponse est modélisée par un polynôme dont les coefficients sont les inconnues qu'il faut déterminer.

PLANS FACTORIELS COMPLETS

Donc dans un plan d'expérience de 2 facteurs à 2 niveaux, nous avons besoin d'au moins (et au plus pour des raisons de coûts!) de 4 mesures pour avoir un système de quatre équations à quatre inconnues qui sont les coefficients equation.

Remarque: Pour une étude de 2 facteurs à 3 niveaux, nous ne pouvons plus prendre le modèle linéaire. Il nous faut alors prendre les termes quadratiques du développement de Taylor.

Puisque pour chacun des facteurs nous devons nous fixer un niveau bas et un niveau haut pour pouvoir travailler raisonnablement... alors si nous avons deux facteurs, nous avons un espace expérimental défini par 4 points {(haut, haut), (bas, bas), (haut, bas), (bas,haut)}, correspondant aux 2 fois 2 niveaux (equation), qui nous suffit pour obtenir alors nos 4 équations à 4 inconnues et alors de déterminer les 4 coefficients.

Ainsi, les points à prendre pour notre expérience correspondent naturellement aux sommets (géométriquement parlant) de l'espace expérimental.

Nous avons alors le système d'équations (rappelons que cette approche ne fonctionne que pour des facteurs ayant 2 niveaux, le cas à trois niveaux étant traité bien plus loin avec un exemple):

equation   (74.303)

ou explicitement écrit:

equation   (74.304)

Comme, nous nous intéressons aux coefficients (et que les variables sont connues!), il s'agit en fait simplement de résoudre un système linéaire (cf. chapitre d'Algèbre Linéaire).

Si les variables n'étaient pas codées, nous aurions par exemple pour un plan factoriel complet à deux niveaux avec une variable (vitesse du véhicule) ayant pour valeur basse 40 [km/h] et pour valeur haute 50 [km/h], ainsi qu'une deuxième variable (pression de pneus) ayant pour valeur basse 1.5 [Pa] et pour valeur haute 3 [Pa] le système suivant à résoudre sachant que nous avons obtenu respectivement pour chaque combinaison les distances parcourues suivantes 32'700, 32'680, 31'710
33'220 [km]:

equation   (74.305)

Soit sous forme matricielle:

equation   (74.306)

En résolvant ce système à la main (cf. chapitre d'Algèbre Linéaire), ou avec un logiciel de calcul (tableur ou logiciel de statistiques), nous obtenons:

equation
Figure: 74.36 - Mise en équation et résolution implicite sous la version anglaise de Microsoft Excel 14.0.6123

soit explicitement:

equation
Figure: 74.37 - Mise en équation et résolution explicite sous la version anglaise de Microsoft Excel 14.0.6123

Donc la fonction est finalement:

equation   (74.307)

soit exactement les mêmes coefficients que ce que nous donne un logiciel spécalisé comme Minitab 15.1.1.

Pour en revenir à notre système avec les variable codées, il vient alors en résolvant le système algébriquement (relations valables que si et seulement si les variables sont codées!):

equation   (74.308)

qui peut s'écrire sous la forme matricielle suivante:

equation   (74.309)

Ce qui s'écrit de manière générale pour des modèles linéaires du deuxième ordre sous la forme générale (cf. chapitre d'Algèbre Linéaire):

equation   (74.310)

La matrice X contenant equation lignes est appelée "plan factoriel complet (PFC) 2n avec interactions" (le terme "factoriel" venant du fait que tous les facteurs varient simultanément).

La matrice X dans la pratique est appelée "matrice d'expérimentation" ou encore "matrice des effets" et est souvent représentée de la manière suivante dans le cas particulier précédent:

Essai n°

Repos

Facteur 1

Facteur 2

Facteur 12

Réponse

1

+1

-1

-1

+1

equation

2

+1

+1

-1

-1

equation

3

+1

-1

+1

-1

equation

4

+1

+1

+1

+1

equation

Tableau: 74.14  - Matrice d'expérimentation

Mais l'on voit tout de suite que dans la pratique, la deuxième colonne (Repos) est inutile, car elle vaut toujours +1 et elle est implicitement implémentée dans les logiciels.

Il en est de même pour la cinquième colonne (Facteur 12), car elle se déduit automatiquement de la troisième et quatrième colonnes (c'est la multiplication des termes ligne par ligne... ce que certains appellent la "multiplication de Box").

Le lecteur remarquera aussi qu'en passant d'une colonne à l'autre ou d'une ligne à l'autre, il y a toujours deux facteurs qui changent de niveau! Par contre, si nous nous concentrons uniquement sur les colonnes Facteur 1 et Facteur 2, nous voyons qu'en passant d'une ligne à l'autre, il n'y a qu'un facteur qui change à la fois.

Remarque: Observez donc que la première colonne vaut toujours +1 et il y a toujours aussi une ligne avec uniquement des +1!

Ainsi, dans la pratique (logiciels) et dans de nombreux ouvrages, on représente à juste titre uniquement le tableau suivant (ce qui masque le fait que nous avons affaire à une matrice carrée):

Essai n°

Facteur 1

Facteur 2

Réponse

1

-1

-1

equation

2

+1

-1

equation

3

-1

+1

equation

4

+1

+1

equation

Tableau: 74.15  - Matrice d'expérimentation simplifiée

pour un plan d'expérience de 2 facteurs à 2 niveaux avec interactions en modèle linéaire (sans erreur) nous avons encore plus extrême ("notation de Yates")... en termes d'écriture:

Essai n°

Facteur 1

Facteur 2

Réponse

1

-

-

equation

2

+

-

equation

3

-

+

equation

4

+

+

equation

Tableau: 74.16  - Matrice d'expérimentation avec notation de Yates

Nous voyons que dans cette forme d'écriture qu'outre le fait que les deux colonnes Facteur 1 et Facteur 2 sont orthogonales (la norme ISO 3534-3:1999 parle de "contraste orthogonal"), elles sont aussi "balancées", dans le sens qu'il y a autant de + et de - dans chacune des colonnes.

Remarque: Par défaut, la majorité des logiciels randomise l'ordre des essais du plan (qu'il soit complet, fractionnaire, factoriel ou non). En règle générale, il est recommandé de randomiser l'ordre des essais pour atténuer les effets des facteurs qui ne sont pas inclus dans l'étude et qui parasitent cette dernière, notamment les effets liés au temps. Cependant, dans certains cas, la randomisation ne produit pas un ordre des essais intéressant et peut être même dangereux car elle peut masquer certaines sources d'erreurs systématiques qui n'avaient pas été identifiées avant l'expérience. Par exemple, dans les applications industrielles, la modification des niveaux de facteurs peut s'avérer difficile ou coûteuse. Il est également possible qu'une fois la modification effectuée, le retour du système à un état constant prenne beaucoup de temps. En pareil cas, il peut être souhaitable de ne pas randomiser le plan afin de limiter au maximum les modifications de niveau.

Les praticiens apprécient de calculer la moyenne des réponses et l'effet moyen d'un facteur donné puisque le système est linéaire. Ainsi, au niveau +1 pour le facteur equation, en nous basant toujours sur le système linéaire:

equation   (74.311)

nous pouvons alors construire et définir la "moyenne des réponses" donnée par:

equation   (74.312)

et il vient de même au niveau -1 toujours pour le même facteur:

equation   (74.313)

Nous avons alors "l'effet global" du facteur equationqui sera donné par :

equation   (74.314)

et "effet moyen" du facteur equation qui est alors défini par la demi-différence entre la moyenne des réponses au niveau haut du facteur equation et la moyenne des réponses au niveau bas du même facteur:

equation   (74.315)

or après quelques simplification d'algèbre élémentaire, il vient très rapidement que:

equation   (74.316)

Il est évident que si l'effet global (et in extenso l'effet moyen) est non nul, nous pouvons nous douter qu'il y a une interaction entre les facteurs puisque la variation d'amplitude de la réponse n'est pas identique en fonction de la valeur du niveau de l'autre facteur (voir l'étude de l'analyse de la variance à deux facteurs dans le chapitre de Statistiques pour plus de détails). Évidemment, dans la pratique, l'étude des interactions se fera en tout rigueur comme souvent pour l'ANOVA: avec des graphiques.

La moyenne de toutes les réponses donne donc la valeur de la réponse au centre du domaine expérimental:

equation   (74.317)

En faisant un peu d'alèbre élémentaire, que le plan soit écrit sous forme normalisée et centrée ou non, cette dernière expression se réduit à:

equation   (74.318)

Évidemment, nous pouvons résumer ce cas simple sous forme graphiqu si cela peut aider le lecteur:

equation
Figure: 74.38 - Deux facteurs avec la surface de réponse

et avec la figure ci-dessus, la variations n'étant pas très parallèles lorsqu'un facteur est fixé, nous pouvons supposer qu'il y a interaction entre les facteurs qui nécessiteront l'utilisation d'une ANOVA.

Lorsque le nombre de facteurs est grand, il n'est pas toujours facile pour tout le monde de poser rapidement les facteurs +, - sans l'aide d'un logiciel. Alors, il existe une petite marche à suivre appelée "algorithme de Yates" ou "algorithme de Yates et Hunter" qui permet vite d'arriver au résultat voulu pour les plans factoriels (dont les facteurs ont deux niveaux) dont le nombre de facteurs est une puissance de 2:

D'abord, nous commençons toutes les colonnes par -1 et nous alternons les -1 et les +1 toutes les equation lignes pour la j-ème colonne.

Remarques:

R1. Si le type de tableau précédent contient des valeurs codées, nous parlons de "plan d'expérience" sinon avec les unités physiques habituelles nous parlons de "tableau d'expérimentation".

R2. Dans le cas des tableaux codés, il est d'usage d'indiquer sous le tableau un deuxième tableau avec les correspondances entre les unités codées et les unités physiques.

Insistons sur une chose importante: C'est que si nous avions 3 facteurs à 2 niveaux, alors nous avons equation possibilités d'expériences (soit 8). Or, huit correspond exactement au nombre de coefficients que nous avons également dans le modèle linéaire avec interactions d'une réponse à trois variables:

equation   (74.319)

ce qui correspond aussi aux termes seulement linéaires et sous forme condensée du développement en série de Maclaurin d'une fonction f de trois variables.

Et ainsi de suite... pour n facteurs à deux niveaux. C'est la raison pour laquelle les plans factoriels complets linéaires equation sont traditionnellement les plus utilisés car ils sont mathématiquement intuitifs et simples à démontrer.

Par ailleurs, il est important de remarquer que tous ces plans linéaires complets approximés au deuxième ordre sont sous forme matricielles des matrices carrées equation orthogonales et donc bien évidemment inversibles (cf. chapitre d'Algèbre Linéaire)!

Cependant les matrices précédentes ne satisfont pas la relation suivante vue dans le chapitre d'Algèbre Linéaire (produit scalaires des colonnes-bases avec elles-mêmes et de vecteurs orthogonaux):

equation   (74.320)

mais ont pour particularité pour tout plan d'expérience complet de satisfaire la relation:

equation   (74.321)

Donc contrairement aux matrices orthogonales qui par définition ont toutes les colonnes (ou lignes) qui forment une base orthonormée (norme unitaire), les matrices des plans d'expérience ont pour différence de ne pas avoir les normes de la base orthogonale à l'unité.

Ainsi, nous définissons la matriceA dont les coefficients sont tous des +1 ou des -1 ET satisfaisant la relation précédente comme étant une "matrice de Hadamard". Cette dernière a par ailleurs pour propriété d'exister que pour les ordres 1, 2, 4, 8, 12, 16, 20, 24, ... C'est-à-dire uniquement pour les ordres multiple de 4 (si nous omettons l'ordre 1 et 2).

Démonstration:

Sachant que les cas d'ordre 1 et 2 sont triviaux et que les cas impairs sont à éliminer intuitivement immédiatement (essayez et vous verrez très vite...), faisons la démonstration pour equation .

Puisque toutes les colonnes doivent être obligatoirement orthogonales (pour que la matrice soit inversible et donc le système résoluble), nous pouvons toujours écrire le problème sous la forme (forme particulière pour n valant 4 mais facilement généralisable):

equation   (74.322)

et si nous notons n comme étant l'ordre de la matrice. Alors nous avons par sommation de toutes les lignes:

equation   (74.323)

donc n doit être divisible par 4 pour equation pour que toutes les colonnes soient orthogonales et donc que la matrice soit de Hadamard sachant que x, y, z, w ont pour valeur 1.

Pour les lecteurs qui doutent concernant les valeurs paires: 6, 10, 14, 18, etc. Essayez de trouver une matrice de Hadamard à la main dont tous les vecteurs sont orthogonaux deux à deux... vous verrez très vite que vous allez coincer.

equation C.Q.F.D.

Il s'ensuit alors trivialement la relation suivante (avec une notation très abusive car on omet la notation de la matrice unité):

equation   (74.324)

Cependant, nous verrons un tout petit peu plus loin lors de notre étude des plans factoriels fractionnaires que les matrices d'Hadamard d'ordre 1, 4, 8, 16, 32, ..., 2n ne sont quasiment jamais utilisées sous l'expression de "matrices d'Hadamard" car elles se confondent avec les plans factoriels fractionnaires.

Par contre, il est intéressant de constater que nous avons des plans d'expérience possibles avec 12, 20, 24, 28, ... essais qui ont un intérêt certain lorsque le nombre de facteurs est supérieur ou égal 4 (certains logiciels comme JMP ne les proposent pas cependant si le nombre de facteurs est inférieur à cinq). Ces plans sont appelés "plans de Plackett-Burman" et parfois "plans irréguliers de Plackett-Burman" ou encore plus rarement "plans non-géométriques de Plackett-Burman" (un logiciel comme Minitab propose cependant arbitrairement - et l'indique explicitement ainsi dans l'aide du logiciel - un plan de Plackett-Burman d'ordre 32 et des plans de Plackett-Burman même pour 2 ou 3 facteurs).

Plackett et Burman ont cherché avec des algorithmes et par tatonnement l'expression des matrices d'expériences correspondant aux plans qui portent leur nom et qui contiennent donc 12, 20, 24, 28, etc. essais. Ils ont proposé une astuce fort utile pour que les praticiens puissent faire usage de ces plans sans logiciels. Faisons l'exemple pour commencer avec une matrice de Hadamard d'ordre 12 (sans s'occupper pour l'instant du nombre de facteurs que nous allons utiliser). Les tables de Plackett-Burman (ou les logiciels) donnent uniquement la première ligne:

+ + - + + + - - - + -

Ensuite, nous construisont la table d'expérience suivante en suivant l'algorithme proposé par Plackett et Burman (les logiciels utilisent le même):

- Première étape, nous mettons la première ligne sous forme de colonne dans un tableau de 12 par 12:

+
                     
+
                     
-
                     
+
                     
+
                     
+
                     
-
                     
-
                     
-
                     
+
                     
-
                     
                       
Tableau: 74.17 - Première étape de construction du plan de Plackett- Burman

- Deuxième étape, nous déduisons la deuxième colonne à partir de cette première colonne en décalant les signes d'un cran vers la bas, le dernier signe "-" étant, lui, remonté au sommet de la deuxième colonne (il s'agit donc d'une permutation circulaire):

+
-
                   
+
+
                   
-
+
                   
+
-
                   
+
+
                   
+
+
                   
-
+
                   
-
-
                 
-
-
                 
+
-
                 
-
+
                 
 
Tableau: 74.18 - Deuxième étape de construction du plan de Plackett-Burman

et ainsi de suite jusqu'à la 11ème colonne:

+
-
+
-
-
-
+
+
+
-
+
 
+
+
-
+
-
-
-
+
+
+
-
 
-
+
+
-
+
-
-
-
+
+
+
 
+
-
+
+
-
+
-
-
-
+
+
 
+
+
-
+
+
-
+
-
-
-
+
 
+
+
+
-
+
+
-
+
-
-
-
 
-
+
+
+
-
+
+
-
+
-
-
 
-
-
+
+
+
-
+
+
-
+
-
-
-
-
+
+
+
-
+
+
-
+
+
-
-
-
+
+
+
-
+
+
-
-
+
-
-
-
+
+
+
-
+
+
 
Tableau: 74.19 - 3ème à 11ème étape de construction du plan de Plackett-Burman

- Dernière étape, nous ajoutons une rangée et une colonne de signes "-":

+
-
+
-
-
-
+
+
+
-
+
-
+
+
-
+
-
-
-
+
+
+
-
-
-
+
+
-
+
-
-
-
+
+
+
-
+
-
+
+
-
+
-
-
-
+
+
-
+
+
-
+
+
-
+
-
-
-
+
-
+
+
+
-
+
+
-
+
-
-
-
-
-
+
+
+
-
+
+
-
+
-
-
-
-
-
+
+
+
-
+
+
-
+
-
-
-
-
-
+
+
+
-
+
+
-
+
-
+
-
-
-
+
+
+
-
+
+
-
-
-
+
-
-
-
+
+
+
-
+
+
-
-
-
-
-
-
-
-
-
-
-
-
-
Tableau: 74.20 - Dernière étape de construction du plan de Plackett-Burman

Le lecteur pourra facilement vérifier que chaque ligne ou chaque colonne prises deux à deux sont bien orthogonales.

Maintenant se pose à la question de savoir si nous choisissons d'associer par exemple ce plan d'expérience à un plan à 4 facteurs (sous-entendu centrés réduits bien évidemment!):

equation   (74.325)

pour réduire le nombre d'essais de 16 à 12 à quelle colonne devons nous associer à quoi? Ou encore en allant plus loin: pour combien de facteurs pouvons nous associer ce type de plan à 12 essais pour des facteurs à deux niveaux?

Eh bien il y a deux grandes religions (maisons) suivant les ingénieurs.

- La première consiste à dire que les plans de Plackett-Burman d'ordre n ne doivent être utilisés que pour l'étude des effets principaux (donc aucune interaction ne sera prise en compte) de n-1 facteurs. Ainsi, un plan de Plackett & Burmann d'ordre 12, sera réservé pour une étude de 11 facteurs et uniquement de leurs effets principaux (modèle linéaire purement additif).

- La deuxième consiste à dire que les plans de Plackett- Burman contiennent un concept que nous verrons plus loin et qui s'apelle les "alias" (les plans de Plackett-Burman sont tous des plans de résolution III au deuxième ordre). Par conséquent, il faut utiliser ce type de plan que lorsque nous sommes prêts à considérer dans un premier temps que les interactions à deux facteurs sont très négligeables.

La complexité des alias avec les plans de Plackett- Burmann fait que dans la pratique, ils sont finalement plutôt utilisé selon la première religion... par les débutants et selon la seconde par les consultants.

Remarque: Un logiciel comme Minitab 15.1.1 n'affiche pas du tous les alias utilisés lors de l'application de plans de Placket et Burmann.

Pour clore cette partie, résumons un constat simple:

Plan

Facteurs

Interactions

Somme

equation

2

1

3

equation

3

4

7

equation

4

11

15

equation

5

26

31

equation

6

57

63

equation

7

120

127

...

...

...

...

Tableau: 74.21 - Types de plans avec facteurs & interactions

Donc en utilisant les plans factoriels complets, l'utilisateur est sûr d'avoir la procédure expérimentale optimale puisque ces plans sont basés sur des matrices d'Hadamard et qu'il a été démontré que nous ne pouvions pas faire mieux.

PLANS FACTORIELS FRACTIONNAIRES

En pratique, les plans complets ne sont utilisables que sur des systèmes avec très peu de facteurs, ou lorsque chaque essai prend très peu de temps. Lorsque n est plus grand ou égal 3 alors les coûts des expériences peut très vite devenir onéreux.

Le plus petit cas où il est intéressant d'optimiser le nombre d'essais et celui consistant en 3 facteurs à 2 niveaux. Nous avons alors l'équation et le tableau d'expérience suivant:

equation

Essai n°

Facteur 1

Facteur 2

Facteur 3

Réponse

1

-

-

-

equation

2

+

-

-

equation

3

-

+

-

equation

4

+

+

-

equation

5

-

-

+

equation

6

+

-

+

equation

7

-

+

+

equation

8

+

+

+

equation

Tableau: 74.22  - Plan d'expérience à 3 facteurs complet sous forme de Yates

Soit sous forme de tableau d'expérience complet:

Essai n°

Repos

F 1

F 2

F 3

F 12

F 13

F 23

F 123

Réponse

1

+

-

-

-

+

+

+

-

equation

2

+

+

-

-

-

-

+

+

equation

3

+

-

+

-

-

+

-

+

equation

4

+

+

+

-

+

-

-

-

equation

5

+

-

-

+

+

-

-

+

equation

6

+

+

-

+

-

+

-

-

equation

7

+

-

+

+

-

-

+

-

equation

8

+

+

+

+

+

+

+

+

equation

Tableau: 74.23  - Plan d'expérience à 3 facteurs et interactions complet sous forme de Yates

ou de matrice d'expérience complète:

equation   (74.326)

où à nouveau il est facile de contrôler que toutes les colonnes sont orthogonales et balancées (même nombre de + ou de - dans chaque colonne ou autrement dit la somme de leurs colonnes est nulle) et que la matrice est bien de type Hadamard. Ainsi, un plan factoriel complet pour 3 facteurs implique 8 essais.

Nous pouvons également représenter tout cela sous forme graphique:

equation
Figure: 74.39 - Représentation traditionnelle d'un plan factoriel fractionnaire complet à 3 facteurs

Les plans réduits (plans factoriels fractionnaires) ou "plans de screening" (selon la norme ISO 3534-3:1999), consistant à sélectionner certaines combinaisons, ont donc été proposés. Ils permettent naturellement de réduire les coûts, mais diminuent également l'information disponible sur le comportement du système! Il faut donc s'assurer de la pertinence de la sélection par rapport au modèle à identifier.

Une première méthode élémentaire est par exemple de faire l'hypothèse qu'il n'y a aucune interaction. Dès lors, notre fonction se réduit à un modèle purement additif:

equation   (74.327)

et pour résoudre ce système, il nous suffit d'avoir 4 essais. Nous passons ainsi de 8 à 4 essais en supposant qu'il n'y a pas d'interactions et nous nous retrouvons avec un simple plan de criblage.

Pour réduire les coûts d'expérimentation tout en gardant les interactions implicitement, nous pouvons jouer avec la mathématique. D'abord reprenons le problème actuel avec un plan factoriel de 3 facteurs complet sous forme explicite:

equation   (74.328)

Pouvons-nous en réduire l'écriture afin de minimiser le nombre d'expériences à faire? La réponse est: Oui mais en contre partie nous allons perdre la mesure des effets purs (nous parlons alors parfois de "confusion").

L'écriture inférieure la plus proche est une matrice de Hadamard d'ordre 4. Ce qui signifie bien évidemment que nous ne devons conserver 4 lignes sur les 8 et que celles-ci doivent rester orthogonales, balancées et satisfaire la relation:

equation   (74.329)

L'idée, appelée "méthode de Box et Hunter" et qui ne marche que pour les plans avec des facteurs ayant deux niveaux, est alors dans un premier temps de rassembler les facteurs d'influence (en indices) tel que (développements similaires pour tout n):

equation   (74.330)

Le choix du regroupement est aussi fait en sorte que les coefficients des interactions supposeés négligeables de par la normalisation centrée réduite se retrouvent avec un coefficient d'un facteur principal supposé comme non négligeable. Dès lors, il est aussi logique que dans chaque regroupement, on ne retrouve jamais en indice le numéro du facteur principal.

Nous disons alors que nous avons une structure d'alias (la norme ISO 3534-3:1999 appelle cela une "concomitance" lorsque c'est l'expérimentateur qui force le regroupement et "alias" si la confusion est due à la nature de l'expérience) du type:

0+123;1+23;2+13;3+12

et si nous notons cela comme le font de nombreux logiciels de statistiques, cela donne (c'est exactement les alias que donne un logiciel comme Minitab 15.1.1):

I+ABC;A+BC;B+AC;C+AB

Ou certains notent cela (car I doit toujours avoir un signe positif):

I=ABC;A+BC;B+AC;C+AB

Écrivons cela de la manière suivante:

equation   (74.331)

Changeons de notation:

equation   (74.332)

Tout naturellement, si nous considérons cette nouvelle notation comme des variables propres, ce système unique se sépare maintenant en deux sous-systèmes (les regroupements étant respectivement appelés des "contrastes" dans le domaine mais cela n'est pas conforme à la définition de la norme ISO 3534-3) pour être résoluble:

equation    et    equation   (74.333)

ce qui permet de diviser le nombre d'essais par deux par rapport à un plan complet. En résolvant un de ces deux systèmes, nous disons que les interactions sont "aliasées" (dit aussi en "confusion") avec les effets purs en négatif ou en positif (dans le cas présent, certains effets principaux sont confondus avec des interactionsà deux facteurs).

Il est ensuite de tradition de garder que le système aliasé positivement:

equation   (74.334)

car si les interactions sont nulles, nous retrouvons à l'identique la matrice d'expérience d'un plan factoriel complet equation! La démarche conduit donc à ne sélectionner que les essais 2, 3, 5 et 8, ce qui permet de diviser le nombre d'essais par deux par rapport à un plan complet. Ainsi, un plan factoriel fractionnaire d'une expérience à 3 facteurs peut être réduit à 4 essais avec cette méthode. Le plan factoriel fractionnaire ci-dessus sera représenté naturellement par la matrice d'expérience suivante:

Essai n°

Facteur 1

Facteur 2

Facteur 3

Réponse

2

+

-

-

equation

3

-

+

-

equation

5

-

-

+

equation

8

+

+

+

equation

Tableau: 74.24 - Plan d'expérience fractionnaire à 3 facteurs complet sous forme de Yates

Il y a cependant un problème : Même si l'interaction triple est réellement nulle, il peut rester jusqu'à 7 autres coefficients dans le modèle, alors que l'on ne dispose que de 4 résultats d'essais pour les identifier. Autrement dit, à moins que l'on sache a priori qu'au moins 3 de ces coefficients sont nuls (afin de se ramener à quatre équations avec 4 inconnues), on n'obtiendra au mieux que des relations entre les coefficients et l'identification rigoureuse sera impossible. Ainsi, il n'est pas possible de réduire indéfiniment le coût d'une étude expérimentale sans en dégrader la robustesse.

Il est important d'observer que dans la plan factoriel fractionnaire ci-dessus, le troisième facteur est confondu (peut être assimilé) avec l'interaction 12 des facteurs 1 et 2. Nous appelons cela "l'alias initiale" ou le "générateur" et nous pouvons remarquer en réitérant les calculs pour des plans factoriels à 4, 5, 6 ... facteurs que les générateurs permettent d'identifier immédiatement les essais à préserver (par ailleurs vous pouvez contrôler que lorsque les logiciels Minitab ou JMP vous imposent les générateurs, ils prennent par défaut les théoriques). Par exemple, le générateur ("alias" ou "confusion") du tableau ci-dessus s'écrira selon la tradition:

C = AB

Cela ne signifie cependant pas que les coefficient du modèle seront égaux mais que simplement le plan est incapable de dissocier l'analyse des ces deux entités. Il faudra donc faire particulièrement attention à l'interprétation des coefficients respectifs.

Nous venons donc de voir qu'un plan 2(3-1) présente le sérieux inconvénient de confondre un facteur principal avec une interaction d'ordre 2. Un plan 2(4-1) présente seulement l'inconvénient de confondre un facteur principal avec une interaction d'ordre 3 et deux interactions d'ordre 2 entre elles. Un plan 2(5-1) présente des inconvénients encore moindres. C'est pour cette raison que la théorie des plans factoriels utilise la notion de résolution. Plus la résolution est grande, plus le plan
est précis.

Définitions:

D1. Lorsqu'aucun effet principal ne possède d'alias avec un autre effet principal, mais les effets principaux possèdent des alias avec des interactions à 2 facteurs, nous parlons de "plan de résolution III". D'un point de vue pratique les plans de résolution III ont surtout pour but de permettre des recherches exploratoires car ils permettent d'explorer un grand nombre de facteurs avec une économie certaine. À défaut d'obtenir un modèle suffisamment précis ils permettent éventuellement d'éliminer un grand nombre de facteurs dans un premier temps.

D2. Lorsqu'aucun effet principal ne possède d'alias avec un autre effet principal ou une autre interaction à 2 facteurs, mais certaines des interactions à 2 facteurs possèdent des alias avec d'autres interactions à 2 facteurs et des effets principaux possèdent des alias avec des interactions à 3 facteurs, nous parlons de "plan de résolution IV".

D3. Lorsqu'aucun effet principal ou aucune interaction à 2 facteurs ne possède d'alias avec un autre effet principal ou une autre interaction à 2 facteurs, mais des interactions à 2 facteurs possèdent des alias avec des interactions à 3 facteurs et des effets principaux possèdent des alias avec des interactions à 4 facteurs, nous parlons de "plan de résolution V".

et ainsi de suite...

Ce concept de résolution est important. Nous le retrouvons dans des logiciels comme Minitab 15.1.1 lors de sélection de plans factoriels fractionnaires avec les alias les plus fréquents connus sous le nom de "plans d'expériences avec abérration minimale" ("minimum aberration designs" en anglais):

equation
Figure: 74.40 - Affichage des choix de résolutions de plans factoriels fractionnaires dans Minitab 15.1.1

ou encore avec le logiciel Design Experts (partie du tableau mais qui est plus explicite que Minitab 15.1.1):

equation
Figure: 74.41 - Affichage des choix de résolutions de plans factoriels fractionnaires dans Design Experts

Ainsi, le lecteur pourra observer qu'un plan completer de 5 facteurs à 32 essais peut être réduit à 16 essais en rassemblant les facteurs d'influence par paires ou 2-uplets (d'où la division par deux du nombre d'essais), ou encore à 8 essais en rassemblant les facteurs d'influence par 4-uplets.

Ensuite, c'est à l'expérimentateur de bien connaître son analyse et de savoir si:

1. Parmi les facteurs aliasés s'il y a des interactions ou non!

2. Dans le facteur aliasé l'influence forte sur la réponse vient de l'interaction ou de l'effet pur seul!

Une fois les coefficients déterminés, sous l'hypothèse que chacun des facteurs ou interactions est indépendant (hypothèse limite acceptable...) certains ingénieurs font une analyse de la variance de la droite de régression obtenue au final ou déterminent le coefficient de corrélation afin de déterminer si l'approximation linéaire du modèle est acceptable dans le domaine d'étude et d'application.

Concernant les générateurs des plans factoriels fractionnaires voici un petit tableau récapitulatif non exhaustif:

Facteurs

Essais

Résolution

Réduction

Générateurs

Alias

3

4

III

2(3-1)

C=AB

I+ABC,A+BC, B+AC, C+AB

4

8

IV

2(4-1)

D=ABC

I+ABCD, A+BCD, B+ACD, C+ABD, D+ABC, AB+CD, AC+BD, AD+BC

5

8

III

2(5-2)

D=AB, E=AC

I+ABD+ACE+BCDE
A+BD+CE+ABCDE
B+AD+CDE+ABCE
C+AE+BDE+ABCD
D+AB+BCE+ACDE
E+AC+BCD+ABDE
BC+DE+ABE+ACD
BE+CD+ABC+ADE

 

16

V

2(5-1)

E=ABCD

A+BCDE
B+ACDE
C+ABDE
D+ABCE
E+ABCD
AB+CDE
AC+BDE
AD+BCE
AE+BCD
BC+ADE
BD+ACE
BE+ACD
CD+ABE
CE+ABD
DE+ABC

...
 
 

 

Tableau: 74.25 - Quelques plans factoriels fractionnaies avec générateurs et alias

Bien évidemment, utiliser des plas fractionnaires est un pari économique (et temporel). Si les conclusions sont claires, nous avons alors gagné du temps et réduit notre effort. Mais il arrive que l'on perde le pari. Nous pouvons dès lors utiliser un "plan complémtenaire" qui consiste à ajouter de manière pertinente suffisamment de lignes au plan initiale pour désaliaser les coefficients désirés sur la base du choix du générateur d'alias.

Avant de passer à un autre type de plan, revenons juste sur le plan factoriel fractionnaire à 3 facteurs donc avec 4 essais pour des raisons pédagogiques. Considérons que nous avons fait ces 4 essais et que pour chacun, nous avons obtenu une mesure donnée dans la figure ci-dessous:

equation
Figure: 74.42 - Représentation d'un plan factoriel fractionnaire réél à 3 facteurs

Nous voulons montrer au lecteur non pas comment déterminer le calcul des coefficients (résolution d'un simple système linéaire et puis il y aura un exemple à ce propos un peu plus loin) mais comment calculer les effets dans le cadre de ce cas particulier.

Ainsi, l'effet de equation est:

equation   (74.335)

et celui de equation est:

equation   (74.336)

et celui de equation est:

equation   (74.337)

L'effet des interactions est un peu subtile dans le cas de 3 facteurs en utilisant la figure ci-dessous (nous verrons dans l'exemple plus bas qu'avec un tableau c'est beaucoup plus intuitif). Ainsi, nous avons pour l'interaction equation:

equation   (74.338)

et pour equation:

equation   (74.339)

et pour equation:

equation   (74.340)

Pour l'interaction triple equation avec la figure ci-dessous ce n'est pas non plus trivial (cela l'est un peu plus avec un table comme nous le verrons dans l'exemple plus bas). Nous avons:

equation   (74.341)

PLANS ET NOMENCLATURE DE TAGUCHI

Les plans de Taguchi ne sont qu'une technique particulière pour retrouver des plans factoriels ou multifactoriels complets ou fractionnaires (à partir d'une matrice, d'une table triangulaire et d'un graphe linéaire. Avec les logiciels qui génèrent automatiquement les tables, cette technique est devenue un peu désuette mais elle avait l'avantage à l'époque de son utilisation de proposer une liste de plus d'une centaine de tables avec des facteurs multiples à 2 ou plusieurs niveaux avec ou sans interactions. Voyons en quelques exemples classiques pour la culture générale (car cela fait bien de les connaître et en plus c'est joli).

Taguchi proposa d'organiser les expériences selon des tables et des graphes qu'il appelle equation où L signifie "Level" et correspond aux nombres d'essais d'une expérience associés à des graphes permettant d'identifier les interactions (les tables de Taguchi incluent certains plans de Plackett-Burman).

Commençons l'exemple avec une table que nous connaissons bien, la table equation. Chez Taguchi cette table peut être lue comme la table d'un plan factoriel fractionnaire de 7 facteurs (donc sans interactions) où comme la table d'un plan factoriel complet pour 3 facteurs. Raison pour laquelle est notée equation tantôt equation:

Essais

1

2

3

4

5

6

7

1

1

1

1

1

1

1

1

2

1

1

1

2

2

2

2

3

1

2

2

1

1

2

2

4

1

2

2

2

2

1

1

5

2

1

2

1

2

1

2

6

2

1

2

2

1

2

1

7

2

2

1

1

2

2

1

8

2

2

1

2

1

1

2

Tableau: 74.26 - Table L8 avec notation factorielle d'usage et graphes linéaires correspondants

equationequation

Nous allons voir si vraiment elle diffère de ce que nous connaissons déjà. D'abord, chaque facteur ne prend aussi que deux niveaux dans ce tableau, nous pouvons donc remplacer la notation de Taguchi avec notre notation d'usage pour les plans factoriels en remplaçant les 1 par des "+" et les "2" par des "-":

Essais

1

2

3

4

5

6

7

1

+

+

+

+

+

+

+

2

+

+

+

-

-

-

-

3

+

-

-

+

+

-

-

4

+

-

-

-

-

+

+

5

-

+

-

+

-

+

-

6

-

+

-

-

+

-

+

7

-

-

+

+

-

-

+

8

-

-

+

-

+

+

-

Tableau: 74.27 - Table L8 avec notation factorielle d'usage

Nous voyons déjà beaucoup mieux que toutes les lignes et colonnes sont orthogonales prises deux à deux (matrice d'Hadamard). Nous ajoutons une colonne de "+":

Essais

1

2

3

4

5

6

7

Repos

1

+

+

+

+

+

+

+

+

2

+

+

+

-

-

-

-

+

3

+

-

-

+

+

-

-

+

4

+

-

-

-

-

+

+

+

5

-

+

-

+

-

+

-

+

6

-

+

-

-

+

-

+

+

7

-

-

+

+

-

-

+

+

8

-

-

+

-

+

+

-

+

Tableau: 74.28 - Table L8 avec notation factorielle d'usage avec colonne supplémentaire manquante

et nous remarquons que nous retrouvons le plan factoriel complet de 3 facteurs à deux niveaux si nous renotons la ligne de titre des colonnes de la manière suivante:

Essais

F3

F2

F23

F1

F13

F12

F123

Repos

1

+

+

+

+

+

+

+

+

2

+

+

+

-

-

-

-

+

3

+

-

-

+

+

-

-

+

4

+

-

-

-

-

+

+

+

5

-

+

-

+

-

+

-

+

6

-

+

-

-

+

-

+

+

7

-

-

+

+

-

-

+

+

8

-

-

+

-

+

+

-

+

Tableau: 74.29 - Tableau précédent avec notation traditionelle pour la ligne de titre

et que cela correspond aussi au plan factoriel fractionnaire d'un plan d'expérience de 7 facteurs à deux niveaux (sans aucune interaction).

La question que se posera bien évidemment le lecteur, c'est comment aurions nous fait pour identifier quel facteur appartenait à quelle colonne dans le cadre d'un plan factoriel complet à 3 facteurs si nous ne connaissions pas le tableau établi avec les techniques vues plus haut? Eh bien en utilisant le graphe linéaire suivant:

equation
Figure: 74.43 - Graphe linéaire de Taguchi L8

qui indique les facteurs principaux dans les sommets du graphe (donc les colonnes 1, 2 et 4 sont des facteurs principaux). La colonne 3 est l'interaction entre les colonnes 1 et 2 (d'où le fait qu'elle se trouve sur l'arête qui sépare les deux sommets), la colonne 5 est l'interaction entre les colonnes 1 et 4 (d'où le fait qu'elle se trouve sur l'arête qui sépare les deux sommets), et la colonne 6 est l'interaction entre les colonnes 2 et 4 (d'où le fait qu'elle se trouve sur l'arête qui sépare les deux sommets). Le fait que le 7 soit à l'extérieur, c'est parce qu'une triple interaction ne peut pas être représentée avec cette technique de graphe planaire. On utilise alors les symboles des sommets pour signifier que c'est la superposition du sommet 1, 2 et 4 (cercle+anneau+disque).

Le deuxième graphe linéaire associé à cette table permet de mettre en évidence un autre usage possible:

equation
Figure: 74.44 - Graphe linéaire de Taguchi L8

C'est-à-dire d'en faire usage pour une analyse de 4 facteurs (toujours à deux modalités dans le cas présent) représentées par les colonnes 1, 2, 4, 7 (le lecteur pourra effectivement vérifier que ces quatre colonnes correspondent bien à un plan factoriel fractionnaire avec pour générateur 12 pour 4 facteurs soit à la main, soit avec un logiciel) dont 3 interactions (1 et 2; 1 et 4; 1 et 7).

Remarque: Il faut faire attention car il y a donc par exemple une table de Taguchi notée donc equation pour 3 facteurs à 2 niveaux complète et 7 facteurs à 2 niveaux sans interactions comme nous venons de le voir (donc avec 7 colonnes), mais il y a aussi des tables equation pour 5 facteurs décomposés en 4 facteurs à 3 niveaux et 1 facteur à 4 niveaux (sans interactions) mais seulement avec 5 colonnes. Raison pour laquelle les livres listant les tables de Taguchi spécifient normalement explicitement le cadre d'application des tables.

Voyons quelques autres tables (une infime partie de la liste complète)

- Table equation:

Essais

F1

F2

F3

1

1

1

1

2

1

2

2

3

2

1

2

4

2

2

1

Tableau: 74.30 - Table L4 de Taguchi

equation

- Table equation:

Essais

F1

F2

F3

F4

1

1

1

1

1

2

1

2

2

2

3

1

3

3

3

4

2

1

2

3

5

2

2

3

1

6

2

3

1

2

7

3

1

3

2

8

3

2

1

3

9

3

3

2

1

Tableau: 74.31 - Table L9 de Taguchi

equation

- Table equation:

Essais

F1

F2

F3

F4

F5

F6

F7

F8

F9

F10

F11

F12

F13

F14

F15

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

1

2

1

1

1

1

1

1

1

2

2

2

2

2

2

2

2

3

1

1

1

2

2

2

2

1

1

1

1

2

2

2

2

4

1

1

1

2

2

2

2

2

2

2

2

1

1

1

1

5

1

2

2

1

1

2

2

1

1

2

2

1

1

2

2

6

1

2

2

1

1

2

2

2

2

1

1

2

2

1

1

7

1

2

2

2

2

1

1

1

1

2

2

2

2

1

1

8

1

2

2

2

2

1

1

2

2

1

1

1

1

2

2

9

2

1

2

1

2

1

2

1

2

1

2

1

2

1

2

10

2

1

2

1

2

1

2

2

1

2

1

2

1

2

1

11

2

1

2

2

1

2

1

1

2

1

2

2

1

2

1

12

2

1

2

2

1

2

1

2

1

2

1

1

2

1

2

13

2

2

1

1

2

2

1

1

2

2

1

1

2

2

1

14

2

2

1

1

2

2

1

2

1

1

2

2

1

1

2

15

2

2

1

2

1

1

2

1

2

2

1

2

1

1

2

16

2

2

1

2

1

1

2

2

1

1

2

1

2

2

1

Tableau: 74.32 - Table L16 de Taguchi

equation

- Table equation:

Essais

F1

F2

F3

F4

F5

1

1

1

1

1

1

2

1

2

2

2

2

3

1

3

3

3

3

4

1

4

4

4

4

5

2

1

2

3

4

6

2

2

1

4

3

7

2

3

4

1

2

8

2

4

3

2

1

9

3

1

3

4

2

10

3

2

4

3

1

11

3

3

1

2

4

12

3

4

2

1

3

13

4

1

4

2

3

14

4

2

3

1

4

15

4

3

2

4

1

16

4

4

1

3

2

Tableau: 74.33 - Table L16 de Taguchi

equation

etc.

Les tables de Taguchi accompagnées de leurs graphes sont donc des plans factoriels fractionnaires ou complets avec tous leurs avantages. Le mérite de Taguchi est d'avoir essayé de simplifier l'utilisation des plans factoriels pour les rendre accessibles à un grand nombre d'expérimentateurs.

Enfin résumons ce que nous avons vu jusqu'à maintenant avec les noms respectifs (à vérifier car il n'y a priori pas de norme claire à notre connaissance concernant ces définitions) dans l'ordre de généralisation:

- les plans qui contiennent uniquement des facteurs à deux niveaux, sont désignés sous le nom de "plans factoriels" qu'ils soient avec un modèle linéaire ou non-linéaire, additif ou non.

- les plans factoriels qui permettent uniquement de déterminer les coefficients des facteurs principaux (donc modèle additif: sans interactions) sont désignés sous le nom de "plans de Koshal" ou "plans de criblage" (appelés aussi "plans un à la fois" car comme la technique du "un à la fois" il ne permettent d'analyser aucune interaction mais le comparaison s'arrête là!).

- les plans factoriels où toutes les interactions d'ordre trois et supérieures sont négligées sont désignés sous le nom de "plans de Rechtschaffner".

- les plans factoriels où les coefficients ont été aliasés tout en gardant les interactions sont désignés sous le nom de "plans factoriels fractionnaires", ou encore de "plans de Box et Hunter" ou encore sous le nom de "plans basés sur la matrice d'Hadamard". Avec les plans factoriels fractionnaires, il convient de préciser aussi la résolution.

- les plans factoriels dont l'ordre est un multiple de quatre mais pas une puissance de deux (donc 12, 16, 20, 24, etc.) sont sont désignés sous lenom de "plans de Plackett-Burman".

- les plans avec un nombre quelconque de facteurs, d'interactions d'ordre quelconque et à un nombre de niveaux quelconque sont désignés sous le nom de "plans de Fisher" (en hommage au créateur d'origine du concept de plan d'expérience).

- les plans qui contiennent autant d'essais que de coefficients à déterminer sont désignés sous le nom de "plans saturés".

- les plans qui contiennent moins d'essais que de coefficients à déterminer sont désignés sous le nom de "plans sursaturés".

Un aspect mérite encore d'être précisé: c'est la vérification de la validité du modèle mathématique du premier degré. Or aucun de ces plans ne prévoit un tel test de validité utilisant des statistiques élaborées. C'est pourquoi il est préconisé de toujours ajouter au moins un point expérimental au centre du domaine expérimental. La valeur de la réponse en ce point sera comparée à la valeur déduite des autres points expérimentaux grâce au modèle mathématique. Si les deux valeurs sont semblables, le modèle mathématique sera adopté, si elles ne le sont pas nous devrons rejeter ce modèle et compléter les résultats déjà obtenus par des expériences permettant de passer au second degré.

Enfin, pour terminer, faisons un exemple particulier et relativement complet d'un plan factoriel complet général avec des facteurs à 3 niveaux.

exempleExemple:

Dans le cadre de l'étude de pneus, le critère retenu sera la longévité (nombre de kilomètres parcourus avant que le pneu soit usé) et les facteurs pourront être l'usage (ville ou route), la vitesse moyenne (40 [km/h] ou 50 [km/h]) et la pression de gonflage (1.5 ou 2 ou 2.5 [kg]).

La deuxième étape est la création du plan d'expérience. Dans un plan factoriel complet, nous croisons les différents niveaux de tous les facteurs de façon à tester chaque combinaison. Par exemple pour les pneus, nous serons amenés à réaliser equation expériences au minimum si nous voulons travailler avec un plan complet. Par ailleurs, il est plus sain de répéter les expériences (pour analyser la dispersion des valeurs), donc d'en faire 24, 36, etc.

Nous noterons comme à l'habitude y la variable étudiée et dans le cas présent equation les variables facteurs. Nous recherchons un modèle simple sous la forme:

equation   (74.342)

Comme chacun des facteurs peut avoir plusieurs niveau, nous aurons par exemple la valeur y au niveau 2 du facteur 1 et au niveau 1 du facteur 2 et au niveau 3 du facteur 3 qui sera noté:

equation   (74.343)

Le plan factoriel complet est l'exposé des types d'expériences suivant les niveaux. Par exemple, pour l'étude des pneus nous aurons:

- Pour le facteur 1 equation lieu: ville = 1, route = 2 

- Pour le facteur 2 equation vitesse: 40 [km/h] = 1, 50 [km/h] = 2

- Pour le facteur 3 equation pression de pneus: 1.5 [kg] =1, 2 [kg] = 2, 2.5 [kg] = 3

La matrice d'expérimentation sera alors (c'est exactement la même que celle que l'on obtient en général avec Minitab un plan factoriel complet pour 3 facteurs avec 2 à deux niveaux et 1 un trois niveaux sans randomisation):

Essai N°

equation

equation

equation

1

1

1

1

2

1

1

2

3

1

1

3

4

1

2

1

5

1

2

2

6

1

2

3

7

2

1

1

8

2

1

2

9

2

1

3

10

2

2

1

11

2

2

2

12

2

2

3

Tableau: 74.34 - Matrice d'expérimentation (ou tableau factoriel/plan d'expérience)

À ce tableau, nous pourrons associer les résultats des expériences. Par exemple, pour les pneus, nous avons fait trois essais (trois "réplications") pour chacune des conditions de niveaux et nous avons obtenu:

N° Essai

equation

equation

equation

Valeurs

de

y

1

1

1

1

32'700

32'750

32'960

2

1

1

2

33'430

33'360

32'910

3

1

1

3

31'710

32'100

32'220

4

1

2

1

32'680

32'270

33'130

5

1

2

2

34'070

33'100

33'610

6

1

2

3

33'220

33'700

33'285

7

2

1

1

33'180

32'160

32'640

8

2

1

2

34'430

34'280

34'460

9

2

1

3

33'570

33'300

32'570

10

2

2

1

33'270

33'080

32'415

11

2

2

2

33'440

33'570

34'204

12

2

2

3

32'840

33'210

32'470

Tableau: 74.35 - Matrice d'expérimentation avec valeurs expérimentales

À l'aide de ces valeurs, nous pouvons calculer les effets des différents facteurs. Nous partons du principe que leur moyenne est nulle pour un facteur donné. Donc la valeur moyenne arithmétique globale (qui peut être calculée comme la moyenne arithmétique si et seulement si les variables sont codées):

equation   (74.344)

est le coefficient constant du modèle:

equation   (74.345)

L'effet de equation au niveau 1 est  la variation de cette moyenne quand on ne considère que les cas où equation est au niveau 1. La moyenne arithmétique devient 32'955.8, donc l'effet est:

equation   (74.346)

Nous noterons cela:

equation   (74.347)

Au niveau 2 de equation, la moyenne devient 33'282.7 donc l'effet de equationau niveau 2 vaut:

equation   (74.348)

Nous remarquons que la somme des effets de equationest nulle, car c'est la somme des écarts à la moyenne de sous-populations de même taille (donc la moyenne globale est la moyenne arithmétique des moyennes des niveaux).

Exactement de la même façon, nous trouvons:

equation   (74.349)

et nous retrouvons aussi que la somme des effets sur une variable est nulle.

Nous modélisons ces résultats sous la forme utilisant la moyenne de réponse (remarquez que la somme de chaque vecteur est donc nulle):

equation   (74.350)

qui donne le modèle trouvé. Fonction que nous pouvons récrire sous la forme d'effet moyen (la forme la plus intéressante mathématiqument parlant):

equation   (74.351)

Résultat intermédiaire à comparer avec une régression linéaire simple qui est (résultat parfaitement identique entre Microsoft Excel 14.0.6117 et Minitab 15.1.1):

equation   (74.352)

mais qui n'a pas de sens puisque la régression linéaire n'est pas construite pour des facteurs à plus de deux niveaux.

De ces résultats, nous tirons déjà la meilleure stratégie d'utilisation des pneus: sur route, à 50 [km/h], et avec un pneu gonflé à 2 [kg], nous pouvons espérer faire:

equation   (74.353)

Remarquons tout de suite que dans certains cas, l'expérimentation a fait mieux, même en ville ou à 40 [km/h]. Ceci relève de la dispersion évidente des résultats. Mais alors, les effets trouvés ne viennent-t-ils pas seulement de cette dispersion? D'autre part nous avons étudié les effets indépendamment les uns des autres. Mais il se pourrait qu'ils se renforcent. Nous allons étudier ces questions dans la suite.

Reprenons nos 36 expériences, en comparant les valeurs obtenues et les prévisions du modèle:

equation

equation

equation

Mesuré

Modèle

Écart

 

equation

equation

equation

Mesuré

Modèle

Écart

1

1

1

32'700

32'527.5

172.5

 

2

1

1

32'160

32'854.3

-694.3

1

1

2

33'430

33'496.6

-66.6

 

2

1

2

34'280

33'823.4

456.6

1

1

3

31'710

32'607.5

-897.5

 

2

1

3

33'300

32'934.3

365.7

1

2

1

32'680

32'684.9

-4.9

 

2

2

1

33'080

33'011.7

68.3

1

2

2

34'070

33'654

416

 

2

2

2

33'570

33'980.8

-410.8

1

2

3

33'220

32'764.9

455.1

 

2

2

3

33'210

33'091.7

118.3

2

1

1

33'180

32'854.3

325.7

 

1

1

1

32'960

32'527.5

432.5

2

1

2

34'430

33'823.4

606.6

 

1

1

2

32'910

33'496.6

-586.6

2

1

3

33'570

32'934.3

635.7

 

1

1

3

32'220

32'607.5

-387.5

2

2

1

33'270

33'011.7

258.3

 

1

2

1

33'130

32'684.9

445.1

2

2

2

33'440

33'980.8

-540.8

 

1

2

2

33'610

33'654

-44

2

2

3

32'840

33'091.7

-251.7

 

1

2

3

33'285

32'764.9

520.1

1

1

1

32'750

32'527.5

222.5

 

2

1

1

32'640

32'854.3

-214.3

1

1

2

33'360

33'496.6

-136.6

 

2

1

2

34'460

33'823.4

636.6

1

1

3

32'100

32'607.5

-507.5

 

2

1

3

32'570

32'934.3

-364.3

1

2

1

32'270

32'684.9

-414.9

 

2

2

1

32'415

33'011.7

-596.7

1

2

2

33'100

33'654

-554

 

2

2

2

34'204

33'980.8

223.2

1

2

3

33'700

32'764.9

935.1

 

2

2

3

32'470

33'091.7

-621.7

Tableau: 74.36 - Matrice d'expérience comparant expérience et modèle

Nous constatons que les écarts au modèle sont parfois importants. Cela peut venir d'une dispersion aléatoire naturelle des valeurs, ou bien d'un modèle inadapté. Cela fait penser à un modèle inadapté, ou bien cela pourrait être dû à ce que des facteurs conjugués ont plus d'effet que séparés. Les effets positifs ou négatifs de 2 facteurs peuvent faire plus que s'additionner (modèle purement additif à rejeter peut-être).

Il y a donc probablement des interactions (les chimistes parlent de "potentialisation"). Pour voir s'il y en a des interactions d'ordre deux, un bon moyen c'est d'étudier tous les facteurs par paires (et faire abstraction de l'existence des autres). Ainsi, si nous commençons avec les facteurs (lieu) equation et  (vitesse) equation en faisant abstraction de la pression des pneus, nous aurons (l'explication se trouve après la première ligne):

Niveaux

Moyenne expérimentale

Effet total

Somme des effets

Effet de l'interaction

equation

32'682.2

-437.1

-242.2

-194.9

equation

33'229.4

110.2

-84.7

194.9

equation

33'398.9

279.6

84.7

194.9

equation

33'166.6

47.3

242.2

-194.9

Tableau: 74.37 - Tableau d'interaction facteurs 1 et 2

Donc, 32'682.2 est la moyenne arithmétique des expériences faites au niveau equation (Ville) et equation (40 [km/h]). En soustrayant la moyenne (toujours 33'119.3), Nous obtenons un effet de -437.1, alors que l'effet de equation (-163.4) plus l'effet de equation (-78.7) ne donne que –242.2.

Il y a donc un surplus de –194.9, dû en grande partie à l'interaction equation (notez que c'est la même pour equation, et l'opposée pour equation et equation). Notons tout de suite que l'interaction equation a un effet bien supérieur aux effets de equation et de equation!

Voyons les deux autres interactions possibles:

Niveaux

Moyenne expérimentale

Effet total

Somme des effets

Effet de l'interaction

equation

32'748.3

-370.9

-513.1

142.2

equation

33'413.3

294.1

455.9

-161.9

equation

32'705.8

-413.4

-433.1

19.7

equation

32'790.8

-328.4

-186.3

-142.2

equation

34'064.0

944.7

782.8

161.9

equation

32'993.3

-125.9

-106.3

-19.7

Tableau: 74.38 - Tableau d'interaction facteurs 1 et 3

Niveaux

Moyenne expérimentale

Effet total

Somme des effets

Effet de l'interaction

equation

32'731.7

-387.6

-428.4

40.8

equation

33'811.7

692.4

540.7

151.7

equation

32'578.3

-540.9

-348.4

-192.5

equation

32'807.5

-311.8

-271.0

-40.8

equation

33'665.7

546.4

698.1

-151.7

equation

33'120.8

1.6

-191.0

192.5

Tableau: 74.39 - Tableau d'interaction facteurs 2 et 3

Nous pouvons représenter les interactions différemment, en croisant les facteurs:

 

equation

equation

equation

-194.9

194.9

equation

194.9

-194.9


 

equation

equation

equation

equation

142.2

-161.9

19.7

equation

-142.2

161.9

-19.7


 

equation

equation

equation

equation

40.8

151.7

-192.5

equation

-40.8

-151.7

192.5

Nous remarquons alors que chaque ligne ou chaque colonne a un total nul. Nous voyons aussi que, dans ce cas, il est difficile de négliger les interactions, et que equation (par exemple) intervient plus par ses interactions que par son effet propre!

Nous pouvons encore essayer de vérifier si l'interaction des trois facteurs a un effet notable. L'expérience ayant été répétée 3 fois à chaque niveau (nous parlons alors de "trois blocs"), nous pouvons calculer la moyenne de y, et lui soustraire le modèle avec les interactions calculé ci-dessus (remarquez que la somme de chaque vecteur est nulle):

equation   (74.354)

qu'il est d'usage d'écrire par souci de simplification évidente (remarquez que la somme de chaque vecteur est nulle):

equation   (74.355)

Remarque: Il suffit de savoir que pour les coefficients d'interaction les effets manquants (non signalés) sont opposés en signe.

Certains logiciels de statistiques vont plus loin dans la simplification d'écriture (toujours dans la même idée que les autres coefficients sont opposés) et écrivent:

equation   (74.356)

et d'autres logiciels (comme Minitab 15.1.1 par exemple) vont encore plus loin en écrivant:

equation   (74.357)

car les valeurs manquantes s'obtiennent par addition et en inversant le signe (encore faut-il le savoir... à partir du fait que la somme de chaque vecteur doit être nulle). Nous ne pouvons donc pas à cause de la présence du facteur à 3 niveaux réduire rigoureusement le modèle mathématique à une simple fonction. Raison pour laquelle, nous nous retrouvons avec la symbolique visible dans la relation précédente.

Nous pouvons alors résumer ces résultats sous la forme:

N° Essai

equation

equation

equation

Valeurs

de

y

Moyenne

Modèle

Écart

1

1

1

1

32'700

32'750

32'960

32'803.3

32'515.6

287.8

2

1

1

2

33'430

33'360

32'910

33'233.3

33'291.5

-58.1

3

1

1

3

31'710

32'100

32'220

32'010.0

32'239.8

-229.8

4

1

2

1

32'680

32'270

33'130

32'693.3

32'981.2

-287.8

5

1

2

2

34'070

33'100

33'610

33'593.3

33'535.3

58.1

6

1

2

3

33'220

33'700

33'285

33'401.7

33'172.0

229.7

7

2

1

1

33'180

32'160

32'640

32'660.0

32'947.8

-287.8

8

2

1

2

34'430

34'280

34'460

34'390.0

34'331.9

58.1

9

2

1

3

33'570

33'300

32'570

33'146.7

32'917.0

229.7

10

2

2

1

33'270

33'080

32'415

32'921.7

32'633.8

287.9

11

2

2

2

33'440

33'570

34'204

33'738.0

33'796.1

-58.1

12

2

2

3

32'840

33'210

32'470

32'840.0

33'069.6

-229.6

Tableau: 74.40 - Matrice d'expérience avec mesures, moyenne, modèle et écart

Nous nous apercevons alors que les valeurs du modèle s'écartent toujours assez nettement des valeurs moyennes, ce qui peut s'interpréter soit par le fait que les effets ne sont pas linéaires, soit par une interaction entre les trois facteurs.

Il conviendrait alors de refaire les calculs effectués plus haut avec l'interaction des trois facteurs. Mais comme c'est toujours le même principe, nous le ferons que si un lecteur ne nous le demande explicitement.

Mais il existe encore une cause d'erreur dans le modèle, c'est de tenir compte d'effets qui n'interviennent pas en réalité. Pour être sûr que l'effet calculé sur une variable ou sur une interaction est réel, nous utiliserons pour commencer l'analyse de la variance à une voie (ANOVA) que nous avons étudié en détails dans le chapitre de Statistiques. Pour cela, il est important d'avoir répété les expériences, de façon à pouvoir mettre en évidence la dispersion due aux facteurs non contrôlés.

Par exemple, le facteur equation a un effet plutôt faible. A-t-il une influence véritable? Pour cela, nous séparons les 36 expériences en deux échantillons (niveau equation et niveau equation), et nous calculons les sommes de carrés et les degrés de liberté (nous pouvons détailler les calculs ci-dessous sur demande):

sommes de carrés

ddl

variances

contrôlée

223'098.78

1

223'099

calculé:

0.485

résiduelle

15'645'288.44

34

460'156

limite (5%):

4.13

totale

15'868'387.22

35

 

test réussi

Tableau: 74.41 - Tableau d'ANOVA

Ce qui donne avec Minitab 15.1.1 (nous pouvons y constater que le modèle n'est très probablement pas linéaire):

equation

Le test ayant réussi, nous concluons que le facteur equation n'est sans doute pas influent (car le test avait comme hypothèse: le facteur contrôlé n'est pas influent). Il en est de même pour le facteur equation (nous pouvons détailler les calculs ci-dessous sur demande):

sommes de carrés

ddl

variances

F

contrôlée

961'707.1

1

961'707

calculé:

2.19

résiduelle

14'906'680.1

34

438'432

limite (5%):

4.13

totale

15'868'387.2

35

 

test réussi

Tableau: 74.42 - Tableau d'ANOVA

Ce qui donne avec Minitab 15.1.1 (nous pouvons aussi y constater que le modèle n'est très probablement pas linéaire):

equation

Par contre, le facteur equation est, lui, bel et bien influent (nous pouvons détailler les calculs ci-dessous sur demande):

sommes de carrés

ddl

variances

F

contrôlée

6'943'966,7

2

3'471'983

calculé:

12.84

résiduelle

8'924'420,5

33

270'437

limite (5%):

3.28

totale

15'868'387.2

35

 

test échoué

Tableau: 74.43 - Tableau d'ANOVA

Ce qui donne avec Minitab 15.1.1 (nous pouvons y constater que le modèle n'est très probablement pas linéaire):

equation

Rappelons en effet que l'échec du test correspond à la mise en évidence d'un facteur influent, celui qui est contrôlé. Alors, le modèle de base à considérer (on laisse de côté les interactions) n'est plus :

equation   (74.358)

mais (la somme du vecteur étant toujours nulle):

equation.   (74.359)

Attention!!! Le fait que equation et equation ne soient pas influents n'a pas comme conséquence que les interactions  entre equation et equation, ou equation et equation, ou même equation et equation ne le sont pas. Par exemple, ici, equation n'est pas influent (le test de Fischer-Snedecor réussit), mais au niveau 1 de equation, equation l'est (au sens equation contre equation).

Voyons cela avec Minitab 15.1.1 (nos pouvons détailler les calculs ci-dessous sur demande):

equation

Nous voyons qu'en faisant une ANOVA multifactorielle, que finalement le facteur equation est statistiquement significatif (p-value inférieure à 5%), la vitesse par contre ne l'est pas (p-value supérieure à 5%), la pression a une influence très significative (p-value nulle). L'interaction equation (Lieu*Vitesse) est significative (p-value inférieure à 5%). Par contre, les interactions equation (Vitesse*Pression) et equation (Lieu*Pression) ne sont pas significatives (p-value supérieure à 5%). La triple interaction (Lieu*Vitesse*Pression) est elle significative!

Pour clore, rappelons que nous avons parlé plus haut de l'intérêt de randomiser l'ordre des mesures pour éliminer les facteurs parasites inconnus. En réalité, il faut considérer 3 cas importants de facteurs nuisibles dans la pratique et qui ne font que de changer un tout petit peu l'ANOVA utilisée et que la majorité des logiciels modernes proposent de nos jours:

1. Nous avons des "facteurs nuisibles inconnus et incontrôlables". Dès lors nous faisons une ANOVA habituelle avec simplement l'ordre des mesures qui sont randomisés.

2. Nous avons des "facteurs nuisibles connus et non contrôlables". Nous parlons alors de "covariables" ou "cofacteurs" et utilisons une ANCOVA (cf. chapitre de Statistiques) au lieu d'une simple ANOVA

3. Nous avons des "facteurs nuisibles connus et contrôllables" que nous voulons éliminer de l'analyse de l'ANOVA. L'idée est alors d'utiliser une technique dite de "Blocking" qui est simplement une ANOVA hiérarchisée (cf. chapitre de Statistiques).


Haut de page

GÉNIE AÉROSPATIALGÉNIE INDUSTRIEL (2/2)


Like6   Dislike0
55.45% sur 100%
Notée par 22 visiteur(s)
12345
Commentaires: [0] 
 
 
 


W3C - HTMLW3C - CSS Firefox
Ce travail est dans le domaine public
2002-2017 Sciences.ch

Haut de page