À la fin du XVIII e siècle, lors de la Révolution française, un système métrique décimal voit le jour avec, comme premières grandeurs de base (et unités), la longueur (le mètre), la masse (le kilogramme) et le temps (la seconde). La promotion et la dissémination de ce système à travers le monde entier ont été faites par la voie de la Convention du mètre avec, entre autres, la création d'un Bureau international des poids et mesures (BIPM).
Depuis cette période, la science ne cesse de faire des progrès étonnants dans de nombreux domaines, en particulier avec l'utilisation de l'électricité, le développement des machines à vapeur ou du cinéma. De nouvelles instrumentations comme de nouvelles machines vont ainsi être créées, et il sera nécessaire de définir des paramètres supplé-mentaires pour satisfaire les besoins relatifs à ces évolutions industrielles.
Le développement de l'industrie électrique génère d'autres progrès techniques et, par voie de conséquence, d'autres nécessités métrologiques. L'apparition de l'éclairage a fait naître des besoins en termes de photométrie, et le développement des machines à vapeur et de toutes applications industrielles afférentes a nécessité des connaissances approfondies en termes de température thermodynamique. Le système métrique décimal a dû alors être complété.
Le Système international d'unités (SI) est aujourd'hui constitué de sept unités de base : le mètre (m), le kilogramme (kg), la seconde (s), l'ampère (A), le kelvin (K), la candela (cd) et la mole (mol). Utilisées par tous au quotidien sans en connaître les fondements, ni vraiment les définitions, elles sont pourtant essentielles dans la science, l'industrie et la vie courante.
En 1948,une enquête est demandée par la Conférence générale des poids et mesures (CGPM) sur ces trois domaines d'activité (photométrie, électricité et température),au sein des milieux scientifique et métrologique. C'est ainsi que l'ampère est ajouté la même année, puis la candela et le kelvin sont introduits lors de la 10 e CGPM en 1954. Six ans plus tard, lors de la 11 e CGPM, le sys-tème de mesure prend un nouveau nom: le Système international d'unités, plus connu sous l'acronyme SI.
Les domaines de la chimie et de la bio-logie ayant des besoins spécifiques –et la masse (kilogramme) étant une grandeur pas tout à fait appropriée pour ces domaines-là –, cela conduit à l'introduction d'une nouvelle unité dans le SI, la mole, lors de la 14 e CGPM en 1971. Mais certaines unités n'ont pas vu leur définition évoluer depuis 130 ans, à l'instar du kilogramme. C'est ainsi que la redéfinition des unités du SI lors de la 26 e CGPM en novembre 2018 revêt une importance considérable. Le sujet est à la fois scientifique, international et sociétal, car il a un impact majeur sur la vie courante.
À ce jour, le SI est constitué de sept unités de base : le mètre (m), le kilogramme (kg), la seconde (s), l'ampère (A), le kelvin (K), la candela (cd) et la mole (mol). Utilisées par tous au quotidien sans en connaître les fondements, ni les origines, ni vraiment les définitions, elles sont pourtant essentielles dans la science, l'industrie et la vie courante. La plupart des unités de base remontent à de nombreuses années, comme le kilogramme dont la réalisation était donnée par un cylindre de platine et d'iridium. Nommé «grand K», le prototype international du kilogramme servait ainsi d'étalon de 1889 jusqu'en 2018.
2018, une année charnière pour le SI
Or les enjeux de notre époque sont majeurs, en particulier dans l'industrie et pour l'économie. Il faut que les unités s'adaptent aux progrès technologiques, et donc que leurs définitions évoluent aussi pour permettre des mesures avec des précisions de plus en plus fines, tout en assurant une comparabilité fiable à long terme et une uniformité en tout lieu: on parle de «traçabilité» des mesures.
Par exemple, dans les télécommunications ou en astronomie, il faut des mesures de hautes fréquences de plus en plus exactes, de même pour les très hautes températures dans l'industrie. La percée des nanotechnologies et le développement des nouvelles technologies quantiques créent également des besoins de précision accrus dans des champs de mesure nouveaux, lesquels nécessitent de redéfinir la plupart des unités.
Avant la nouvelle définition de l'unité de masse, cette dernière était fondée sur un artefact matériel (un cylindre de platine iridié ; à droite). Elle est désormais définie à partir de la constante de Planck. Pour mesurer cette constante h, les chercheurs du LNE ont utilisé une balance du watt (ou balance de Kibble), qui permet de comparer des puissances électrique et mécanique.
Sur les sept unités du SI, quatre ont ainsi fait l'objet d'une redéfinition profonde en 2018, à savoir le kilogramme, l'ampère, le kelvin et la mole. La seconde et la candela devraient être les prochaines à voir leur définition évoluer, mais elles nécessitent encore des travaux complémentaires avant des modifications de fond. En novembre 2018, la CGPM a donc voté la nouvelle définition de l'unité de masse. Non plus fondée sur un artefact matériel, elle est désormais définie à partir de la constante de Planck. Les scientifiques du Laboratoire national de métrologie et d'essais (LNE), du Conservatoire national des arts et métiers (Cnam) et de l'Observa-toire de Paris, ainsi que d'autres laboratoires à travers le monde ont mesuré, en 2017, cette constante fondamentale avec une précision sans précédent. Ils ont ouvert ainsi la voie à une définition désormais immatérielle du kilogramme. Depuis 1889, la définition de l'unité de masse était réalisée par un cylindre de platine iridié conservé au BIPM, à Sèvres (Hauts-de-Seine). L'International Prototype of Kilogram (IPK) est gardé en sécurité, dans un caveau, sous trois cloches de verre: sa masse est par définition exactement égale à 1kg. Mais cet artefact matériel, en plus de n'être disponible que dans un seul lieu, n'est pas stable dans le temps, car il n'est pas lié à un invariant de la nature. En effet, au cours des quatre comparaisons effectuées en un siècle et demi, on a noté des incohérences entre la masse de l'IPK et celle des autres prototypes, de forme et de composition quasi-identiques.
Ces prototypes incluent des « copies officielles», issues de la même coulée que celle de l'IPK (réalisée de 1882 à 1889) et stockées dans les mêmes conditions que celles de l'IPK, ainsi que des «prototypes nationaux», attribués à la plupart des pays pour servir d'éta-lons nationaux de masse. Les comparaisons effectuées ont révélé que la masse du prototype de référence a varié d'environ 50 mg par rapport à celle des autres prototypes et qu'il ne permet plus aujourd'hui une mesure certaine des masses.
Unité de base pour la température, le kelvin (K) était défini, depuis 1954, sur le point triple de l'eau (à gauche). Pour remédier aux limitations de cette propriété intrinsèque de la matière, la CGPM a proposé de fonder le kelvin sur la mesure de l'agitation thermique des atomes d'un corps, reliée à la température via la constante de Boltzmann k et indépendante de la nature chimique de ses constituants.
Avec l'ohm et le volt, l'ampère est l'une des trois unités fondamentales pour le domaine électrique. L'unité de l'intensité du courant électrique était définie à partir de la force mécanique s'exerçant entre deux fils séparés de 1m, dans lesquels circule un courant électrique. La redéfinition de l'ampère a amené à définir cette unité SI à partir de la charge élémentaire e.
En plus du problème d'un étalon de masse inconstant, cette dérive se propage par ailleurs à d'autres unités (new-ton, joule, watt, etc.), qui sont définies à partir du kilogramme. Pour s'affranchir de ces limites et de ces écueils, le Comité international des poids et mesures (CIPM) a recommandé, en 2005, de redéfinir le kilogramme à partir d'une constante fondamentale de la nature, à savoir la constante de Planck
L'expérience de la balance du watt
La définition proposée pour l'unité de masse a été la suivante: la valeur du kilogramme est définie en fixant la valeur numérique de
En 2016, plusieurs laboratoires travaillant à la redéfinition du kilogramme ont comparé avec un soin inégalé leur étalon de masse avec celui conservé au BIPM, préalable indispensable à une mesure de précision de la constante de Planck. Au LNE, après des années d'études et de développements, une campagne de mesures ininterrompue d'une trentaine de jours a ensuite été menée entre février et mars 2017, de quoi produire une valeur de
Des travaux sur les matériaux des étalons
Une fois la nouvelle définition du kilogramme entérinée, la balance du watt du LNE va permettre d'étalonner n'importe quelle masse, sans recours à un artefact matériel, via la mesure inverse à celle réalisée pour mesurer
Au sein du projet européen NewKILO (2012-2015), le laboratoire commun LNE-Cnam (LCM) a travaillé sur les matériaux à utiliser, la conservation et le nettoyage des étalons. Le projet vise à développer les étalons et les méthodes permettant la traçabilité de la masse à une matérialisation de l'unité sous vide. L'étalon primaire est entreposé dans des conditions atmosphériques. Son alliage est composé de platine (90%), durci par l'adjonction d'iridium (10%).
Dans le cadre de la redéfinition du kilogramme, ses limites apparaissent si l'on veut améliorer l'incertitude de la réalisation primaire. C'est pourquoi, à côté des étalons en platine iridié et en acier inoxydable, en termes de nouveaux matériaux, la France a choisi l'iridium pour les étalons primaires – il s'agit d'un matériau spécifiquement compatible avec l'expérience française de balance de Kibble– et de l'Udimet 720, dont les propriétés physico-chimiques sont meilleures que celles de l'acier inoxydable pour les étalons secondaires. Une attention particulière a été portée sur la notion de transfert air-vide d'artefacts. Le LCM a également travaillé sur l'influence de l'environnement. Les travaux réalisés ont montré qu'il n'existe pas, aux incertitudes de mesures près, de réel effet d'adsorption ou de désorption de l'enceinte vers l'étalon de masse et la balance sur les résultats de comparaison.
Enfin, un dispositif de nettoyage par plasma a été créé avec un mélange d'azote et d'oxygène, afin de le substituer au nettoyage classique des masses par des solvants. Une étude a mis en évidence l'efficacité de ce nettoyage plasma sur le platine iridié, tout en garantissant une stabilité de la masse à long terme. Grâce au développement de tous ces dispositifs pratiques, le LCM assurera la traçabilité entre la nouvelle définition du kilogramme et l'échelle de masse actuelle, traçabilité nécessaire pour la dissémination.
L'ampère passe à l'ère quantique
Avec l'ohm et le volt, l'ampère est l'une des trois unités fondamentales pour le domaine électrique. L'unité de l'intensité du courant électrique est définie à partir de la force mécanique s'exerçant entre deux fils séparés de 1 m, dans lesquels circule un courant électrique. Cependant, en pratique, cette définition est difficile à réaliser avec l'incertitude de mesure requise. Du reste, elle n'exprime pas ce qu'est fondamentalement un courant électrique, à savoir un flux de charges élémentaires par unité de temps.
Introduite dans le SI en tant qu'unité de base en 1948, la définition de l'ampère est restée inchangée depuis 70 ans. Mais en novembre 2018, tout change. L'idée est de redéfinir l'ampère à partir d'une constante fondamentale de la nature, à savoir la charge élémentaire, notée
En pratique, dans les laboratoires de métrologie, on réalise l'étalon de courant électrique à partir de deux étalons de tension et de résistance. Leurs unités – le volt et l'ohm – peuvent en effet être réalisées à 10 -9 près, grâce à deux effets quantiques (les effets Josephson et Hall quantique), qui ne dépendent que de
L'introduction de la mole dans le Système international d'unités (SI) a permis de disposer d'une unité reconnue dédiée à la chimie. La mole est définie comme la quantité de matière d'un système contenant autant d'entités élémentaires qu'il y a d'atomes dans 0,012 kg de carbone 12.
Pour faire encore mieux, les scienti-fiques du LNE ont mis au point un circuit quantique permettant d'appliquer directement la loi d'Ohm aux étalons quantiques de tension et de résistance. En pratique, ils ont dû trouver un moyen de s'affranchir des résistances parasites des connexions électriques reliant les deux étalons, à l'origine d'erreurs sur le courant quantique de référence. Comment s'y sont-ils pris? Les propriétés de l'effet Hall quantique permettent l'ajout de connexions supplémentaires entre les deux étalons, dans lesquelles le courant circulant est d'autant plus faible que le nombre de connexions est grand. Résultat, la chute de potentiel parasite liée aux connexions devient négligeable, et le courant de référence reste parfaitement quantifié.
Un courant proportionnel à la charge élémentaire
À partir de là, un amplificateur ultrasensible et exact détecte le courant de référence en additionnant l'ensemble des courants le constituant, puis l'amplifie en asservissant une source de courant externe. Ce générateur quantique de courant offre un premier exemple de combinaison de deux étalons quantiques. Il délivre des courants sur une gamme de valeurs comprises entre 1 µA et 10mA, exacts à 10 -8 près. Enfin, le générateur réalise bien la future définition de l'ampère puisque, via les effets Hall quantique et Josephson, il délivre un courant proportionnel à la charge élémentaire.
Pour l'heure, le dispositif est imposant, nécessitant pas moins de trois systèmes cryogéniques pour refroidir, à une température proche du zéro absolu, les étalons quantiques de tension et de résistance, ainsi que l'amplificateur. Mais les chercheurs du LNE ont montré qu'il est possible d'obtenir l'effet Hall quantique dans du graphène sous un champ magnétique plus faible et à une température moins contraignante que dans un échantillon d'arséniure de gallium, tel que celui utilisé actuellement. Ainsi, à terme, un seul cryostat sera nécessaire pour mettre en œuvre l'étalon du LNE. Celui-là est néanmoins déjà prêt à l'emploi pour la redéfinition du SI.
La température est une des grandeurs les plus répandues au quotidien, et sa mesure intervient dans d'innombrables procédés industriels. Unité de base pour le domaine de la température, le kelvin (K) était défini, depuis son introduction dans le SI en 1954 lors de la 10 e CGPM, sur une propriété intrinsèque de la matière, à savoir le point triple de l'eau. L'unité de température thermodynamique, ou kelvin, est la fraction 1/273,16 de la température thermodynamique du point unique où l'eau coexiste sous forme liquide, gazeuse et solide. Cependant, la mise en pratique de cette définition reposait de fait sur un artefact, la réalisation d'une cellule au point triple de l'eau, dont la définition et les spécifications ont évolué dans le temps, avec une incertitude de réalisation non négligeable.
En conséquence, alors que des instruments de haute résolution existent depuis longtemps, il est impossible avec cette définition, de tracer, sur le plan historique, des variations de température inférieures à 2 mK sur quelques décennies. À l'heure où, par exemple, la climatologie suppose des mesures précises de température et des séries longues dans le temps et sur la totalité du globe terrestre, ces limitations liées à un artefact matériel sont donc très pénalisantes. Difficile à mettre en œuvre et peu pratique pour les températures extrêmes (inférieures à 20K ou supérieures à 1300K), le kelvin a donc été redéfini en 2018.
Du point triple de l'eau à la constante de Boltzmann
Pour remédier à ces limitations, il fallait s'affranchir des caractéristiques macroscopiques d'un corps, ici l'eau, au profit d'une définition universelle. D'où la proposition de la CGPM de fonder le kelvin sur la définition microscopique de la température, à savoir la mesure de l'agitation thermique des atomes d'un corps, indépendante de la nature chimique de ses constituants. Cette agitation thermique est reliée à la température via la constante de Boltzmann, notée
Pour déterminer la valeur de la constante de Boltzmann, les scientifiques du LCM ont proposé un dispositif original, appelé thermomètre acoustique quasi-sphérique. Son principe repose sur la mesure de la vitesse du son dans un gaz placé dans une enceinte quasi-sphérique à la température du point triple de l'eau. Celle-ci est en effet directement reliée à la définition du kelvin de 1968. Cette expérience délicate a néces-sité une dizaine d'années de développe-ment.
À la clé, une manipulation à l'exactitude record a permis de fournir, en 2017, une valeur de la constante de Boltzmann avec une incertitude relative de 0,57x10 -6 ,inférieure d'un facteur 3 à l'état de l'art antérieur. Si bien que la valeur obtenue par les physiciens du laboratoire français contribue pour 55% de la valeur de
Une fois le kelvin redéfini, les températures seront mesurables avec une incertitude pouvant être meilleure que la partie par million, de manière pérenne, sur l'ensemble de l'échelle de température. Et ce du (presque) zéroab-solu jusqu'à plusieurs milliers de degrés Celsius. Une révolution à laquelle les chercheurs français du LNE-Cnam ont apporté une contribution majeure.
Au-delà de cette redéfinition, à l'impact économique très important puisque la température est mesurée dans 80% des processus industriels, il sera nécessaire de réaliser la mise en œuvre de la nou-velle définition du kelvin et d'assurer une bonne traçabilité métrologique aux mesures de température.Actuellement, ces mesures sont traçables à l'aide de deux échelles: l'échelle internationale de température de 1990 (EIT-90) et l'échelle provisoire pour les basses températures de 2000 (EPBT-2000) en dessous de 1K. Celles-ci ont une base empirique et reposent sur une série de points fixes, dont les températures ont été déterminées a priori par des méthodes primaires. Il est donc nécessaire de les améliorer.
Pour les hautes températures, le projet européen InK (
La mole au cœur des évolutions sociétales
L'origine de la mole est d'abord liée au besoin de définir une unité propre à la chimie et de mettre fin aux questions relatives à l'unité de masse chimique. Ainsi, en 1971, l'introduction de la mole, la septième et dernière unité du SI, a permis de disposer d'une unité reconnue dédiée au domaine de la chimie. Ce n'est toutefois qu'en 1993, date de la création du Comité consultatif de la quantité de matière (CCQM) sous l'égide du BIPM,qu'elle va prendre toute son importance, en lien avec les missions de la métrologie, c'est-à-dire réfléchir aux moyens d'assurer la traçabilité des résultats de mesure au SI.
Dans le cadre de la redéfinition du SI, annoncée en novembre 2018 lors de la 26 e Conférence générale des poids et mesures (CGPM), la mole est désormais redéfinie à partir de la valeur numérique fixée de la constante d'Avogadro.
En effet, depuis le début des années 1990, l'évolution de la métrologie en chimie est essentiellement initiée par les besoins croissants au service de la so-ciété dans les domainesdel'environne-ment, de la santé, ou encore del'ali-mentation. Néanmoins, la nécessité de recourir à des analyses chimiques toujours plus fiables se fait de plus en plus pressante, quel que soit le domaine concerné.Au-delà des besoins sociétaux évoqués précédemment, l'industrie s'appuie de plus en plus sur des mesures dont la traçabilité est établie. À l'instar de la pharmaceutique (dosage des principes actifs et de leurs impuretés), de la cosmétique (dosage des perturbateurs endocriniens), des fabricants d'instruments de mesure (étalonnage des appareils, par exemple).
Un moteur important au développement de la métrolo-gie en général, et en particulier de celui de la métrologie en chimie –une métrologie encore jeune–, est l'introduction de normes et de réglementations, qui ont été imposées pour limiter la présence de composés nocifs dans les milieux naturels ou les produits agroalimentaires, pour contrôler la conformité de produits ou pour améliorer la qualité des résultats d'examens biologiques. Face à l'enjeu de la santé humaine et de son coût pour la société, il est important de disposer de résultats fiables afin de ne pas fournir des prescriptions à un patient sain, mais également être en capacité de soigner au stade le plus précoce les personnes atteintes d'une pathologie.
Partie importante de la chimie analytique,lamétrologie en chimie, est, en ce qui concerne l'analyse des produits, caractérisée par une très grande diver-sité et de nombreuses applications. Elle s'appuie sur les différentes branches de la chimie (organique, inorganique, gaz, électrochimie, biochimie, etc.). Son application très vaste résulte du nombre élevé d'éléments ou des molécules concernés,et de la diversité des matrices potentielles (sérum humain, poissons, eaux de boisson, aérosols, crèmes solaires, etc.). La métrologie en chimie est aussi une des activités les plus récentes, comme nous l'avons vu, et comme le montre l'année de création du CCQM, en 1993.
Une redéfinition à partir de la constante d'Avogadro
Pour répondre à ces besoins croissants, la 14 e CGPM a adopté, en 1971, la mole comme unité de base du système SI, en la définissant comme la quantité de matière d'un système contenant autant d'entités élémentaires qu'il y a d'atomes dans 0,012kg de carbone 12. La définition précise également que «
La traçabilité de la mole n'est pas liée à la conservation physique d'un étalon primaire, mais plutôt à un ensemble d'outils métrologiques, tels que la maîtrise des procédures, l'utilisation d'instruments étalonnés et de procédures validées grâce à des matériaux de référence en matrice, ainsi que l'estimation des incertitudes de mesure. Ces outils permettent de réaliser les références nationales. En pratique, mesurer un nombre de moles revient souvent à mesurer la masse de l'élément ou de la molécule spécifiée, voire même un rapport de masse ou de quantité de matière.
Si, depuis son introduction au SI, la définition de la mole n'a pas varié d'un iota, en novembre 2018 lors de la 26 e CGPM, tout change. La mole est en effet redéfinie à partir de la valeur numérique fixée de la constante d'Avogadro, de la manière suivante: la quantité de matière, symbole
Les outils métrologiques, tels les matériaux de référence, les raccordements des appareils au SI, les estimations des incertitudes de mesure, etc., permettent d'accéder à des analyses fiables. Dans ce cadre, le LNE développe des matériaux de références gazeux qui permettent de raccorder les instruments de mesure utilisés pour mesurer la qualité de l'air, mais aussi des matériaux de référence pour le méthane, le protoxyde d'azote, le monoxyde de carbone et le dioxyde de carbone, employés pour le suivi à long terme des gaz à effet de serre dans l'atmosphère.