Copyright
© 2000-2015 LHERBAUDIERE


5 pages à l'impression
version initiale 2002
INFORMATION
dernière mise à jour
22 mars 2013

cliquez sur le mot avertissement ou information ci-dessus pour connaitre une info essentielle avant de lire ce module et n'hésitez pas à cliquer en bas de page sur l'icone sommaire du site ça vous ouvrira d'autres perspectives

LES TENDANCES TECHNOLOGIQUES

première partie (1/8): idées et microcapteurs

les idées essentielles
les facteurs du développement
l'apport des technologies nouvelles
un digest
microcapteurs intégrés et techno associées
l'histoire et ses conséquences
  une collection d'icônes pour visiter tout le site

Depuis une trentaine d'années le domaine capteur est en pleine évolution passant progressivement de l'échelle de production artisanale à celle de très grande production propre aux composants électroniques. Cela ne signifie pas que les capteurs que l'on qualifiera de traditionnels, en terme de technologies, ont disparus. Ils constituent encore aujourd'hui une grosse moitié du marché. Mais leur déclin est inéluctable, même si certains constructeurs traditionnels cherchent à sauver la face en habillant leurs réalisations d'interfaces numériques et d'afficheurs LCD ajoutés à des capteurs dont la conception n'a pas évolué depuis des lustres. Nous allons donc présenter, dans ce gros chapitre, les tendances technologiques qui nous paraissent essentielles en ce début de siècle et nous renvoyons le lecteur vers les monographies pour retrouver les technologies ancestrales dans quelques exemples types.

1. les idées essentielles

Un certain nombre de facteurs, techniques autant qu'économiques, concourent au développement récent du domaine capteur. Nous précisons ci-dessous, sans garantir l'exhaustivité, ceux que nous avons identifiés comme particulièrement importants:
  • En raison, d'une part, de l'utilisation de l'affichage numérique qui autorise une résolution croissante et, d'autre part, des possibilités de traitement du signal permettant l'exploitation beaucoup plus fine des données, ce qui génère des besoins nouveaux (ou permet enfin la satisfaction de besoins non satisfaits jusqu'alors) en terme de mesure de qualité, on doit en particulier augmenter la précision, la finesse des capteurs et leur interchangeabilité.

  • Pour cela, on utilise les retombées des progrès de la physique du solide et de la chimie, en particulier dans le domaine des matériaux nouveaux qu'on appelle de plus en plus matériaux intelligents, d'abord de type alliages particuliers, puis matériaux organiques à propriétés mécaniques particulières (PVF2, "plastics electronics" ou nanotubes de carbone par ex.) et enfin biomatériaux micro usinables. Rappelons en effet que les fondements de la physique du solide et de la chimie du solide modernes datent essentiellement du début du 20ème siècle et tout particulièrement des années 30, cependant la majeure partie des assertions des grands savants de l'époque étaient théoriques et ne pouvaient être vérifiées faute de moyens technologiques appropriés. Dans les années 50-60, nombre de physiciens commencèrent à valider (ou invalider) ces théories, et ce ne sont que dans les années 70 et au delà que l'on put véritablement exploiter dans des applications nouvelles les résultats de ces multiples travaux de validation, d'abord en microélectronique, puis dans de nombreux autres domaines scientifiques ou pratiques.

  • On développe ainsi de nouveaux principes de capteurs par emploi des technologies couches minces (voir les propriétés des couches minces) ou couches épaisses et d'une façon générale des techniques de la microélectronique et de l'optronique assurant outre de meilleures performances métrologiques, un progrès dans la miniaturisation et souvent la réduction de consommation et des temps de réponse.

  • On emploie la microinformatique en utilisant toutes les ressources modernes du traitement du signal dans le domaine temporel ou fréquentiel, ainsi que des notions récentes telles la logique floue ou les réseaux de neurones, le tout associé à la disponibilité de mémoires numériques à bas coût et de capacité gigantesque dans un volume très réduit.

  • Pour concevoir de nouveaux capteurs on n'hésite plus à investir dans la CAO, soit pour la conception du circuit - capteur, soit pour la modélisation et la simulation préalables.

  • De nouveaux domaines d'investigation scientifique ou de développement technologique créent de nouveaux besoins en particulier en médecine, en protection de l'environnement, pour l'automobile ainsi que pour la biochimie et la chimie organique fine.

  • Le domaine de la microélectronique et des nanotechnologies nécessite, pour son propre développement, des moyens de contrôle de plus en plus sophistiqués qui font de plus en plus appel à l'optique et l'imagerie pour l'analyse de surface des composants (analyse en 3-D).

  • L'implémentation toujours plus grande de réseaux industriels impose le (ou s'accompagne du) développement de "capteurs intelligents " (et maintenant de systèmes intelligents) pour lesquels l'interopérabilité et la maintenabilité sont poussées.

  • La mondialisation via internet s'accompagne d'une possibilité nouvelle, celle de téléchargement directement à partir du site d'un constructeur des nouvelles caractéristiques d'un système dont le logiciel de gestion vient, par exemple, d'être amélioré. Ce qui est vrai pour le système d'exploitation de votre ordinateur qui se met à jour sans que vous n'interveniez est dorénavant tout aussi possible pour les microsystèmes industriels et l'on peut même parfois réétalonner un ensemble à distance (entre les USA et l'Australie par ex.)

  • Enfin la tendance à coupler dans un même microsystème exploitant les nanotechnologies à la fois l'aspect microélectronique et l'aspect micromécanique voire microoptique a donné naissance à une nouvelle discipline celle des "MEMS" (micro electro mechanical systems) et MOEMS (micro-opto- electro-mechanical systems, c'est à dire de nanosystèmes 3-D, dont le développement ouvre des perspectives nouvelles vers des applications impensables, voire même pas imaginées, il y a seulement un ou deux ans.

2. l'apport des technologies nouvelles.

Pour des raisons de structuration de l'exposé, nous découpons arbitrairement l'apport des nouvelles technologies dans le domaine des capteurs en quelques sous chapitres:
les capteurs silicium micro-usinés, et leurs dérivés à base de substrats de verres spéciaux ou de céramiques qui constituent, historiquement, les premières applications des nanotechnologies.

les matériaux polymères et leurs applications en micro-usinage.

les capteurs dont l'élément sensible est une couche mince sur substrat varié, cette couche pouvant être obtenue via les technologies propres à la microélectronique, ou, ce qui est plus récent encore, selon des procédés microchimiques qui vont avoir des conséquences très importantes en particulier (mais pas exclusivement) dans le domaine de l'analyse biomédicale.

les capteurs à couches épaisses, très faible coût, grand public et développable à l'échelle semi-artisanale.

les capteurs usant de fibre optique comme média de transmission et/ou de mesure.

les capteurs micro-usinés à optique intégrée, dernier avatar des nanotechnologies.

quelques recherches ou applications de type multicapteur succéderont au chapitre sur les capteurs dit intelligents.

enfin nous parlerons un peu des micro-actionneurs relevant des mêmes nanotechnologies même si cela semble un peu déplacé dans un cours sur les capteurs.
Nous aurions pu procéder à un découpage par fonctionnalité du capteur, mais comme notre exposé ne peut être exhaustif, nous pensons que le choix retenu est préférable. Pour chacun des principes nous présenterons quelques exemples typiques de réalisation dans divers domaines d'application. Par ailleurs, d'autres exemples pourront être trouvés dans les chapitres ultérieurs traitant spécifiquement d'une catégorie de capteurs ou d'une famille spécifique d'applications.


2.1 microcapteurs intégrés et technologies associées
L'exploitation massive des techniques de la microélectronique permet de développer sur une puce de silicium de nouveaux capteurs de très faibles dimensions, et plusieurs capteurs sur un même wafer, et parfois même plusieurs capteurs de type différents, ce qui constitue un pas important vers la production de masse à coût réduit et la reproductibilité des caractéristiques d'un capteur à l'autre. En outre cela permet l'intégration de nouvelles fonctionnalités, autrefois non gérées ou mises en oeuvre dans une circuiterie annexe.

Les voies de recherche ont concerné dans un premier temps la réalisation d'une membrane de silicium, par micro-usinage du silicium, et, sur le même composant, l'adjonction du pont de jauges, de l'amplificateur, voire des circuits de compensation des dérives thermiques (Siemens, Motorola). Cette technologie, mise au point au tout début des années 90, est maintenant exploitée pour de très nombreuses autres applications pour lesquelles une membrane ou une géométrie 3D particulière est indispensable.

En pratique la réalisation d'un dispositif à la fois électronique et mécanique, en exploitant les nanotechnologies, ne s'est pas effectuée aisément et nous allons essayer dans les paragraphes ci-dessous de montrer les difficultés qu'il a fallu vaincre et les diverses étapes qui ont été franchies pour aboutir à ce qu'on appelle dorénavant des MEMS (Mechanics and Electronics MicroSystems). Nous donnerons ensuite quelques exemples de réalisations concrètes pour illustrer la diversité des applications que l'on peut envisager, à la fois sur substrat de silicium mono ou polycristallin et de plus en plus sur des substrats soit isolant (verres et oxydes) soit polymère (c'est à dire, dans ce dernier cas, essentiellement flexibles).

Enfin signalons que l'explosion du marché des microcapteurs reste encore freinée par un problème récurrent : la reproductibilité des processus technologiques spécifiques des nanotechnologies implique des outils d'analyse, c'est à dire une instrumentation adaptée. Pour contrôler les dopages dans un simple wafer de silicium destiné à la production de composants électroniques, c'est à dire de composants planaires, on dispose d'une technique éprouvée l'analyseur SIMS (secondary ion mass spectrometer), mais ici il s'agit de nanotechnologie en trois dimensions et il faut donc contrôler des zones à l'échelle du nanomètre alors que le SIMS travaille à l'échelle du micron. Actuellement divers groupes industriels ou de recherche sont donc engagés dans le développement d'outils d'analyse et ce n'est que lorsque ceux-ci seront au point que le marché va pouvoir véritablement exploser, alors que nombre d'applications sont connues et que les prototypes opérationnels issus des laboratoires sont déjà nombreux.

2.1.1 contexte historique.

Historiquement, l'approche microcapteur silicium par divers grands groupes spécialisés dans la conception et la fabrication de composants électroniques date du début des années soixante dix et répond à une exigence économique toute particulière. En effet, c'est à cet époque que la libéralisation de l'économie japonaise a conduit les stratèges du MITI (ministère de l'économie/industrie japonais) à imaginer envahir le marché des composants électroniques à faible coût. L'idée était simple : il suffisait de reproduire les technologies en place dans les compagnies occidentales et ayant donné lieu à des investissements colossaux et non amortis (à cette époque on imaginait encore des investissements amortissables en 20 ou 30 ans), mais en investissant dans des machines traitant des wafers de taille supérieure. En doublant le diamètre d'un wafer on multiplie par 4 la surface et donc le nombre de composants produits par wafer. Le coût unitaire d'un composant est alors sensiblement divisé par un coefficient variant entre 2 et 3 selon la complexité du circuit. Et son prix de vente peut alors être sensiblement diminué, tout en augmentant fortement la marge bénéficiaire ce qui entraîne alors d'énormes difficultés pour le concurrent occidental qui ne peut pas diminuer ses prix dans une telle proportion sous peine de vente à perte.

La conséquence a été que nombre de grands groupes occidentaux ont du abandonner le marché des composants "classiques" et chercher des débouchés nouveaux pour leurs machines devenues, du jour au lendemain, obsolètes car non rentables pour ce type de composants. Deux voies ont été abordées :
  • d'une part, celle qui consiste à transformer les fonderies de silicium en sous traitants de petites entités dénommées "startup" ne possédant pas d'unité de fabrication, mais seulement des bureaux d'étude et des services commerciaux (exemple typique Maxim à ses débuts), et développant des composants très innovants, mais à marché limité (donc ne justifiant pas un investissement dans un centre de production dédié à ce seul composant). Notons ce paradoxe : l'industrie électronique est alors le seul domaine industriel où les sous-traitants sont des entreprises de taille infiniment plus importante que les donneurs d'ordre, à l'inverse par exemple du domaine automobile où les sous-traitants sont de petites entités à la merci du grand constructeur.
  • et d'autre part, le développement de microcapteurs à base de silicium. C'est cette seconde voie qui nous intéresse ici.
L'idée novatrice des pionniers de cette "révolution" c'était de faire passer le domaine capteurs de l'artisanat à la production de masse, ce qui impliquait reproductibilité des caractéristiques, miniaturisation et diminution des coûts de fabrication. Deux voies ont été explorées, l'une relativement facile concernait des capteurs conçus réellement comme de vulgaires composants électroniques, et dont l'exemple type est le capteur de température intégré (voir chapitre capteurs de température), l'autre concernait des capteurs mécaniques nécessistant la mise en oeuvre d'un micro-usinage du silicium et le type en est le capteur de pression.

Notons que l'approche du marché, telle que l'ont imaginée les japonais, est depuis devenue classique. On en voudra pour preuve la loi de Moore qui caractérise l'évolution de la densité de composants élémentaires au cm2 dans un microprocesseur en fonction du temps (elle serait censée doubler tous les 18 mois) : Gordon Moore, ingénieur américain de très haut niveau, concepteur des premiers microprocesseurs, fut l'un des fondateurs de la compagnie Intel et reste aujourd'hui, quoiqu'officeillement retraité, l'un de ses principaux responsables de R&D, et, très vite, il remarqua que l'évolution de la technologie dans le sens de la miniaturisation semblait suivre une courbe régulière, ce qu'il exprima par cette pseudo-loi, dans un article daté de 1965, qu'on appela depuis la loi de Moore (ce qui l'amuse profondément!). En pratique, cette loi met en évidence le raccourcissement drastique des délais d'amortissement d'un outil de production dans le domaine de la microélectronique. Et ce qui est vrai pour Intel l'est évidemment pour l'ensemble des acteurs du marché et il est regrettable que les dirigeants des grandes sociétés d'électronique (en dehors de ceux d'Intel bien évidemment) aient mis plus de 20 ans à constater la véracité de la prédiction de Gordon Moore. En d'autres termes si l'arrivée des japonais sur le marché des composants se produisait aujourd'hui, ils ne pourraient plus réussir leur coup comme dans les années 70, car aujourd'hui plus personne ne prévoit des amortissements d'investissement sur une période de 20/30 ans, mais, conformément à l'observation de Moore, sur 18 mois seulement. Notons enfin, incidemment, que la suprématie d'Intel sur le marché des µP n'est pas seulement due à des idées novatrices en terme de µP (d'autres compagnies ont eu et ont encore de meilleures idées), mais aussi à l'exploitation intelligente de cette loi de Moore et de ses conséquences (ce que les concurrents d'Intel n'ont généralement pas su faire).

2-1-2 capteur de pression

L'idée fondamentale présidant à la réalisation d'un microcapteur de pression était de reproduire sensiblement la géométrie d'un capteur traditionnel à membrane d'acier et jauges collées, c'est à dire, essentiellement, de réaliser une membrane en silicium. L'innovation principale consistait en la réalisation d'un pont de jauges non plus collé sur la membrane mais intégré dans celle-ci, c'est à dire l'obtention d'un pont de résistances diffusées ce qui en soi ne semblait pas poser de problème insurmontable puisque la réalisation de résistances par diffusion est une opération courante et parfaitement maîtrisée en microélectronique (cf chap_s4.htm) depuis les années soixante.

L'intérêt d'un pont de jauges diffusé est multiple :
  • on supprime le collage des jauges, donc toutes les dérives inhérentes à l'emploi d'une colle qui peut comporter des microbulles, résiste mal à la température, vieillit sous l'effet des radiations UV et X
  • on supprime le support isolant des jauges qui induit un retard de transmission des déformations et constitue un isolant thermique
  • les jauges étant dorénavant intégrées dans la membrane en reflètent exactement les déformations et sont thermiquement dans une situation naturellement plus homogènes, réduisant les risques de dérive thermique différentielle (cf chap_2.htm).
  • le coefficient de sensibilité du silicium est environ 50 fois plus élevé que celui des alliages de type constantan utilisés traditionnellement (mais le coefficient de température aussi malheureusement).
Deux options ont été envisagées : l'une d'elles, illustrée par les travaux du groupe Schlumberger en France, consistait à réaliser un wafer de 20mm de diamètre et ensuite à diffuser un pont de jauges dans ce wafer, lequel serait ultérieurement monté tel une membrane sur un corps d'épreuve cylindrique classique. Ce procédé fut rapidement abandonné car il n'apportait que peu d'avantages. Chaque capteur étant issu d'un wafer différent on ne bénéficiait pas de l'avantage de reproductibilité que procure un wafer générant après découpe n composants identiques car obtenus très exactement dans les mêmes conditions de préparation. En outre le coût du silicium utilisé eu égard à la taille de la membrane était élevé et enfin cette taille importante induisait des difficultés de connectique. En effet la membrane présentait une fréquence de résonance proche de celle des outils de soudure ultrasonique utilisés pour effectuer les connexions, ce qui rendait celles-ci particulièrement aléatoires.

La seconde option envisagée consistait à vouloir réaliser un capteur tout silicium miniaturisé, donc en première approximation remplacer l'ensemble du corps d'épreuve habituellement en acier par un ensemble en silicium mais réduit en taille selon un principe homothétique. Ainsi, en faisant un capteur de quelques mm de dimension, on pouvait envisager d'en placer un certain nombre sur un même wafer et donc obtenir simultanément l'effet de reproductibilité. Deux difficultés majeures sont alors apparues. En effet, tous les composants électroniques classiques sont réalisés via des opérations de masquage et de diffusion appliquées sur le seul plan supérieur du wafer. Il est alors aisé de positionner des repères graphiques permettant le repositionnement des divers masques successifs avec une précision adéquate (en fraction de microns). Ici il fallait en outre opérer sur la face inférieure un micro-usinage de la membrane et du corps d'épreuve ce qui implique alors la maitrise du positionnement d'une face par rapport à l'autre, ce qu'on ne savait pas faire, et, en outre, un procédé de gravure précis sur une profondeur quasi illimitée (à l'échelle des composants) : or on ne savait jusqu'alors qu'ouvrir des fenêtres de 1 à 2 µm de profondeur et non de plusieurs centaines de µm. Il a fallu près de 10 ans pour maitriser ces deux opérations, c'est à dire trouver un procédé de gravure permettant une attaque sélective parfaitement contrôlée et comprendre qu'il fallait changer l'orientation cristallographique des wafers par rapport à l'habitude pour y arriver. C'est dorénavant chose faite et tous les constructeurs de microcapteurs possèdent cette technique qui permet absolument toutes les réalisations géométriques en 3D. Ainsi si le principe d'une réalisation de jauge de contrainte en silicium était connu dès 1954, ce n'est qu'en 1974 que National Semiconductor commercialisa le premier capteur de pression incluant une régulation de température afin de le faire fonctionner à température constante, et ce n'est que vers 1982 que le terme de micro-usinage (micromachining) se répandit. Mais l'étape décisive des mécanismes intégrés, comportant des corps rigides à l'intérieur desquels se trouvent des pièces soumises à de grands déplacements parfaitement contrôlés, date de 1987-88, coincidant avec l'apparition du vocable MEMS (cf chap58).


Sur la figure ci-dessus, nous avons illustré le gain de miniaturisation permis par la technique tout silicium. A gauche nous avons un capteur silicium avant encapsulation. La membrane avec ses résistances intégrées est le carré central, tandis qu'on distingue parfaitement les électrodes de sortie (en haut) et les circuits électroniques annexes (compensation) à gauche. La figure de droite représente une membrane d'acier sur laquelle sont déposées des jauges en technologie couche mince (voir ci-dessous). Sur la photo on ne distingue en fait que les électrodes d'or qui interconnectent les jauges pour constituer le pont car les résistances métalliques ont une coloration sensiblement identique à celle de la membrane vue à travers le diélectrique semi transparent qui isole ici le pont de la membrane.

La technologie silicium permet en outre de nombreuses géométries de packaging ainsi que le montre la figure ci-dessous qui est loin d'être exhaustive.

Vous vous intéressez aux capteurs, c'est bien, mais êtres vous environnementalement raisonnable, que savez-vous REELLEMENT des problèmes agricoles? Sortez de votre cocon et lisez les pages écologiques de ce site ça vous rendra plus intelligent. Ce n'est pas quand la planète sera foutue qu'il faudra dire je ne savais pas, on ne m'a jamais rien dit à l'école. aller plus loin