Les méthodes de maîtrise statistique des processus (SPC) tiennent encore une place prépondérante chez les OEM. Elles sont mises en œuvre pour le contrôle de procédés de fabrication continue, pour calculer des valeurs d'alerte et pour détecter la non-conformité des paramètres du process.
L plique l'éditeur danois Virinco. es méthodes de maîtrise statistique des processus (
De fait,les mesures collectées à l'époque lors des différentes phases de fabrication sont incomparables tant en nombre, en diversité et en complexité à celles traitées aujourd'hui par les processus de production. Compte tenu de cette complexité croissante ainsi que d'autres facteurs tels que l'augmentation des volumes de production, liée notamment à la mondialisation, il en résulte que la quantité et le type de données à prendre en compte n'ont aujourd'hui rien à voir avec ceux qui étaient en jeu dans les années 1920.
Les méthodes de SPC tiennent encore une place prépondérante chez les OEM (
Un produit électronique peut au-jourd'hui comporter des centaines de composants. Sa conception évoluera sensiblement au fil du temps, notam-ment en raison de l'obsolescence des composants qu'il embarque. Le produit sera soumis à différents tests au cours du processus d'assemblage, son
Un exemple à dynamique élevée
Prenons par exemple le cas de la société finlandaise Aidon, qui est fabricant de systèmes de comptage intelligent et de réseau intelligent (
Il faut encore ajouter à cela les modifications du processus de test, des montages, des programmes de test, de l'ins-trumentation, etc. Au final, on peut estimer que le procédé change en moyenne toutes les 10 unités, voire moins. En d'autres termes, 1000 pro-cessus distincts sont mis en œuvre pour la fabrication d'un seul lot. Comment peut-on essayer d'éliminer les variations attribuables à une cause commune ? Devrait-on même le faire? Même si l'on y parvient, comment ferait-on pour mettre en place le système d'alerte approprié?
Une méthode de SPC, connue sous le nom de Western Electrical Rules (WECo), développée par l'américain Western Electric Company en 1956, spécifie certaines règles nécessitant un examen approfondi lorsqu'une violation est repérée, selon l'écart constaté entre la valeur observée et les écarts-types (2) .L'un des inconvénients typiques de la méthodeWECo est qu'elle déclenchera, en moyenne, une fausse alarme toutes les 91,75 mesures non liées.
Les indicateurs de performance (KPI) sont très souvent collectés et analysés en aval du processus de fabrication, après la combinaison de plusieurs sous-ensembles dans un système. Les éventuels problèmes ne sont alors pas détectés là où ils surviennent et au fur et à mesure de leur apparition. Si un défaut se propage de cette manière, les conséquences financières peuvent donc être catastrophiques.
Supposons que le volume de production annuel soit de 10000 unités. Si chacune d'elles est soumise à cinq étapes de test distinctes, mettant en œuvre en moyenne 25 mesures, on obtient au final jusqu'à 62 fausses alarmes par jour en moyenne, sur la base de 220 jours ouvrables par an: 10 000 x 5 x 25 Nombre de fausses alarmes/j = 220 = 61,93 91,75 Il faut savoir que, même en supposant, contre toute attente et quelle qu'en soit la raison, que l'industriel soit à même d'éliminer les variations attribuables à une cause commune, il recevra encore 62 alertes chaque jour.Toute personne recevant 62 courriers électroniques quotidiennement d'un même expéditeur les bloquerait probablement, sans accuser-réception ni assurer le suivi d'informations potentiellement importantes.
Les utilisateurs expérimentés en méthodes de SPC feront probablement valoir qu'il existe des moyens de réduire ce phénomène par la mise en œuvre de nouvelles techniques d'analyse plus performantes: «
Des problèmes détectés trop tard
Même si nous parvenions à réduire à seulement 5 le nombre de fausses alarmes quotidiennes, pourrait-il être considéré comme un système d'alerte stratégique? En prenant en compte la dynamique réelle du processus, la méthode de SPC peut-elle constituer un système fiable pour les responsables de fabrication, une méthodologie qui les libère de leurs préoccupations et des maux qui s'en suivent? La plupart du temps, il s'agit d'établir des hypothèses sur un ensemble limité de paramètres pertinents à surveiller et de les suivre attentivement en représentant leur évolution dans des tableaux de contrôle, des graphes X-mR (
Les tableaux de bord en temps réel et les fonctions de décomposition permettent d'identifier rapidement les facteurs qui contribuent aux mauvaises performances. Il apparaît, ici, qu'une seule défaillance du produit B contribue à environ 50 % des rebuts. Il n'y a aucune garantie que l'étape 4 fasse partie des indicateurs clés surveillés au sein d'un système SPC. Il est cependant essentiel que son évolution soit portée à votre attention.
Une conséquence évidente de cette situation est que les problèmes ne sont pas détectés là où ils surviennent et au fur et à mesure de leur apparition. L'origine pourrait tout à fait provenir de l'un des composants ou des procédés en amont, un composant fabriqué un mois auparavant au sein d'un lot qui représente maintenant 50000 unités. Une règle bien connue stipule que, si un défaut survient à une étape du processus de fabrication, la défaillance va s'accentuer et, à chaque étape, le coût de la réparation augmentera d'un facteur 10. Une défaillance constatée en fin de fabrication pourrait donc nécessiter le démontage du produit par des techniciens, ce qui peut induire de nouveaux défauts. Si un défaut se propage de cette manière, les conséquences financières peuvent donc être catastrophiques. Il existe de nombreux exemples récents d'entreprises qui ont dû se déclarer en faillite, ou s'en protéger, en raison de la perspective de rappels massifs de produits défaillants. L'un de ces exemples est le dépôt de bilan du japonais Takata, après un rappel massif de plus de 100 millions de composants d'airbags (3) .
Une approche plus moderne
L'un des principaux défauts inhérents aux méthodes de SPC, selon les standards de méthodologies modernes telles que le Lean Six Sigma, est qu'elles établissent des hypothèses sur l'origine des problèmes. Il s'agit là d'une conséquence évidente de l'hypothèse d'une stabilité du processus, alors qu'il dépend, comme nous l'avons mentionné précédemment, de facteurs très dynamiques. L'observation des tendances et le suivi d'un ensemble limité d'indicateurs de performance ne font qu'accentuer ce défaut. Encore une fois, cela donne lieu à des initiatives d'amélioration susceptibles d'échouer en se focalisant sur les problèmes les plus urgents, ou les plus rentables.
Tout cela est pris en compte dans les méthodes modernes de gestion de la qualité. Dans le domaine de la fabrication électronique, cela commence par une reconnaissance et un suivi honnête du taux de produits conformes au premier passage (
Connaissant le taux de produits conformes au premier passage, l'industriel peut le décomposer en parallèle entre différents produits, différentes familles de produits, différentes usines, différentes stations, différents montages, différents opérateurs et différents systèmes de test. Le fait de disposer de ces données en temps réel sous la forme de tableaux de bord fournit une puissante vue de contrôle, ce qui permet d'analyser rapidement l'origine réelle de sous-performances et d'intervenir selon des critères économiques. La mise à disposition de ces informations sous la forme de tableaux de bord en temps réel à toutes les parties prenantes concernées contribue également à une plus grande responsabilisation en matière de qualité. Une bonne règle empirique pour le tableau de bord est qu'à moins que l'information ne soit donnée à l'utilisateur, elle ne sera pas suivie d'effet. Ces derniers n'ont tout simplement pas le temps de chercher la source des problèmes.
Des données de réparation critiques
À l'étape suivante, il est probablement essentiel que l'utilisateur soit en mesure d'obtenir rapidement une vue Pareto de ses défaillances les plus fréquentes dans toutes leurs dimensions. Il se pourrait alors que les outils de SPC deviennent pertinents, afin de fournir davantage d'informations détaillées. Mais on sait maintenant que l'utilisateur les applique sur des éléments très pertinents, et non sur des conjectures. Ils se retrouvent alors dans une situation où ils peuvent prioriser les initiatives en fonction d'un rapport coûts/avantages réaliste.
Il est également essentiel que les don-nées de réparation soient prises en compte par le système. Ces données ne peuvent pas être exclusivement traitées par un système de MES (
Une approche conforme au Lean Six Sigma, permettant un élargissement de la portée des méthodes de SPC, est bien plus appropriée pour identifier et hiérarchiser des actions pertinentes conduisant à l'amélioration des processus.