Ce chapitre est destiné
à l'instrumentaliste confronté au problème de la conception
d'un instrument de mesure ou
d'un réseau de mesures. Quels sont les problèmes, à quoi
faut-il penser, comment décider des choix de structure du matériel,...
C'est à ces questions et bien d'autres que nous essayons d'apporter quelques
éléments de réponse dans les pages qui suivent. En raison
de sa longueur ce chapitre est coupé en 7 fichiers.
considérations
commerciales et technologiques
présidant à l'élaboration
du cahier des charges
commanditaire
La première question
que l'on doit se poser lors de la définition du cahier des charges, préalable
à toute réalisation d'un instrument, n'est pas de nature technique
ou scientifique, mais plutôt d'ordre économique
et juridique. C'est "qui est à l'origine du projet",
et "pour qui vais-je travailler". En effet selon qu'il s'agit d'une
proposition interne à votre organisation ou répondant à
une demande extérieure précise, ou au contraire relativement imprécise,
votre marge de manoeuvre sera sensiblement différente.
Ainsi si le projet est de type interne
il sera traité selon une procédure habituelle dans votre organisation,
si au contraire il s'agit de répondre à une sollicitation
extérieure ce sont les contraintes spécifiques de l'organisme
extérieur qui s'imposeront et entraineront vraisemblablement des
conséquences techniques.
Ainsi, s'il s'agit de répondre
à un appel d'offres de l'Union Européenne, il y aura à
constituer un dossier totalement normalisé et vous imposant un mode
de travail extrêmement précis, et peut-être déroutant
et fort différent des procédures habituelles de votre organisation.
En particulier vous serez invité à respecter d'emblée
certaines normes réglementaires européennes. Il vous faudra
obligatoirement intégrer votre projet dans un contexte européen
impliquant la participation de au moins deux autres partenaires de deux
pays différents.
Si la demande émane d'un service gouvernemental français
c'est la procédure des marchés qui vous imposera un style
de réponse a priori, ainsi que le respect de la législation
française.
Ainsi il conviendra parfois de relire les décrets d'application
de l'éventuelle loi concernée avant de vous lancer dans une
réalisation scientifiquement correcte (et même géniale)
mais non acceptable en terme de loi. Notons qu'en plus il existe
souvent une législation européenne
pas forcément inspirée par l'intérèt général
mais souvent fortement influencée par les lobbies industriels installés
à longueur d'année à Bruxelles à proximité
du bâtiment de la commission européenne, législation
parfois aussi en contradiction avec la législation française.
Notons enfin que ces lobbies influents émanent souvent de multinationales
extra européennes ce qui ne va pas forcément dans l'intérèt
des industriels locaux.
A titre
d'exemple, la mesure de la pollution atmosphérique est régie,
en France, par des décrets parus au Journal Officiel du 13 mai 1998 qui
précisent, en particulier, quels sont les techniques explicitement
recommandées : vouloir développer
un principe différent même s'il est scientifiquement meilleur et
moins cher pour répondre à l'appel d'offres d'équipement
d'une station de mesures provenant d'un conseil général est
donc exclus (c'est parfaitement stupide, mais c'est ainsi). Par contre
ce peut-être possible dans le cadre d'un projet de recherche européen
dont le résultat pourrait être validé par la commission
européenne, et entrer ensuite dans le cadre d'une directive européenne
qui pourrait alors imposer l'emploi d'un tel matériel (et donc
la modification des décrets de mai 98 qui ne le permettent pas). Précisons
en outre que la France prend en général plusieurs années
pour mettre en conformité sa législation avec les directives européennes
et que l'action des lobbies, souvent multinationaux, retarde très souvent
ensuite l'application effective de ladite législation.
Un second exemple : En France la qualité de l'eau des stations balnéaires
est régulièrement contrôlée. Dans les années
70, une équipe niçoise s'avisa que la procédure employée,
réglementaire, présentait des lacunes manifestes. En effet, les
prélèvements d'eau de mer à analyser étaient transportés
sans précautions particulières de plage en plage, puis en fin
de journée vers le laboratoire municipal agréé (qui pouvait
être lointain) pour être analysés au plus tôt le lendemain,
voire le surlendemain. Entre temps les concentrations en bactéries et
autres bioorganismes pouvaient avoir sensiblement évolué, dans
un sens ou dans l'autre, et les résultats d'analyse en être sensiblement
erronés. Ils imaginèrent donc un outil ambulatoire et microinformatisé,
architecturé autour d'un des microprocesseurs du moment, pour permettre
l'analyse en quasi temps réel directement
sur la plage. Cet instrument très astucieux ne put être commercialisé
en France car il était ... illégal au terme de la loi qui
prévoyait que l'analyse ne pouvait se faire que dans un laboratoire
municipal agréé. Par contre leur matériel eut un grand
succès en Italie!
S'il s'agit de répondre
à la demande d'un client privé la contrainte majeure sera peut-être
le respect d'un délai de fourniture et d'une
complexité (ou simplicité) de mode d'emploi autant que d'un coût.
S'il s'agit d'une demande interne visant à doter votre organisation d'un
outil facilitant ou améliorant la bonne marche d'un outil de production
vous aurez moins de contraintes juridico-commerciales, l'emballage du produit
fini sera moins contraignant et l'aspect technique et
sécurité de fonctionnement seront peut-être prépondérants.
Mais attention si votre organisation est certifiée ISO 9000 (ou au delà)
il faudra que ce nouveau matériel satisfasse aux exigences de cette certification
et ce n'est pas l'aspect technique qui passe en priorité mais l'aspect
qualité, vu du point de vue du
client, et ce n'est pas tout à fait la même chose.
N'oublions pas non plus qu'une réalisation importante implique des partenaires
et pas seulement des donneurs d'ordre et des clients.
destinataire/utilisateur
Il ne faut
pas confondre le commanditaire et l'utilisateur.
Le premier vous imposera des contraintes réglementaires, c'est à
dire définies par des textes écrits qui s'imposent à tous.
Le second n'est pas défini par des textes a priori et il vous importera
de le prendre en compte à la suite d'un examen minutieux. Ainsi, si un
service hospitalier vous demande de lui fabriquer un appareil précis,
tous les textes qui gèrent l'instrumentation médicale s'appliquent
(normes de sécurité en particulier), mais ce n'est pas suffisant.
Il faut que vous examiniez avec soin qui sera le réel servant
de cet appareil, quel niveau réel de compétence il aura, dans
quel contexte le matériel sera généralement utilisé.
Pour illustrer cela nous allons prendre un
exemple vécu par l'auteur:
Au milieu des années
80, les gastroentérologues ont commencé à envisager la
mesure du pH gastro-oesophagien comme examen de routine permettant le diagnostic
du reflux gastro-oesophagien (phénomène ayant divers niveaux
de gravité et affectant plus de 20% de la population) et le besoin
de pHmètres automatiques spécifiques en a résulté.
La contrainte réglementaire était essentiellement que l'instrument
ne génère pas de risque électrique pour le patient (sonde
de pH ingérée!). La contrainte médicale était
qu'il fournisse une information fiable en terme de pH enregistré
sur une durée pouvant atteindre 24h. Cela ne présente a priori
aucune difficulté technologique majeure.
Cependant une étude
approfondie de la pratique hospitalière nous a convaincus qu'il fallait
apporter un soin tout particulier à la conception de cet outil en automatisant
sa gestion et en imposant par le biais du logiciel de gestion le
respect absolu d'une procédure de mise en oeuvre très
stricte à défaut de laquelle la crédibilité
des mesures ne serait pas assurée. En effet l'organisation d'un
séminaire de formation à la pHmétrie, à l'intention
de gastroentérologues de ville rassemblant 40 personnes venant de divers
horizons (sur les 3000 que comptait alors l'hexagone), nous a permis de prendre
conscience que l'opérateur avait une probabilité proche de
100% d'ignorer complètement le principe de la pHmétrie,
les problèmes de vieillissement et de dérives thermiques des
électrodes et ne procéderait pas spontanément à
la vérification systématique de l'état de vieillissement
d'un couple d'électrodes combinées avant de le faire ingérer
par le patient, de même qu'il ne vérifierait pas spontanément
après l'enregistrement qu'au cours de celui-ci, dans l'estomac ou l'oesophage
du patient (milieu particulièrement corrosif et visqueux susceptible
de mettre à mal la porosité d'une électrode de verre),
il n'y aurait pas eu une détérioration de cette électrode
combinée, entachant la mesure d'une erreur irrémédiable.
Il a donc fallu concevoir
un logiciel de gestion intégré (et non modifiable) à
l'appareil imposant le respect des diverses phases
de contrôle dans un ordre strict, et interdisant
absolument la mise en oeuvre d'une phase ultérieure tant que la phase
précédente n'a pas été intégralement réalisée
et validée. Ceci était l'aspect prise en compte de l'exploitant.
C'était indispensable, mais encore insuffisant. En effet, il y a un
troisième partenaire qui est le patient et il ne suffit pas
d'éviter de l'électrocuter et d'obtenir des mesures crédibles,
il faut encore tenter de prévoir
ce que le patient va faire subir au matériel lors de son utilisation
en mode ambulatoire, c'est à dire lors d'un enregistrement de
24 heures, ou plus, au cours duquel le patient pourra vaquer à ses
occupations habituelles sans aucune surveillance particulière. Ainsi
pour avoir négligé cet aspect, un constructeur italien a raté
complètement son entrée sur ce marché. En effet lors
de tests de validation, effectués dans un hôpital français,
un prototype de pré-série de ce matériel italien (technologiquement
très affiné et miniaturisé) a été confié
à une patiente pour un examen de 48 h. Elle est normalement rentrée
chez elle, avec l'instrument en bandoulière, et a tout aussi normalement
pris une douche. Et le matériel s'est révélé non
étanche et donc parfaitement inadapté à une exploitation
en mode ambulatoire.
Un autre aspect qu'il convient de prendre en compte c'est que votre
client peut vous imposer une solution plutôt qu'une autre à
un problème donné, solution qui n'est pas forcément celle
ayant votre faveur, qui n'est pas forcément la meilleure ou la plus avancée
technologiquement mais celle qui convient à
votre client, compte tenu de son environnement technologique ou de sa compétence
propre, voire d'accords commerciaux qu'il a signés de longue date avec
divers fournisseurs et lui imposant l'emploi de tel type de composant ou lui
interdisant l'emploi de ceux équivalents d'un concurrent. En outre ignorer
l'aspect marketing peut aussi vous conduire à une impasse et les effets
de mode ne sont pas seulement réservés aux "gigachaussures"
des adolescents, dans le domaine de l'instrumentation aussi on rencontre ces
phénomènes irrationnels.
Il est indispensable d'avoir
analysé l'ensemble de ces aspects avant toute autre démarche et
d'en avoir fait une synthèse écrite, approuvée
par l'ensemble des contractants, avant même d'établir le
cahier des charges de la réalisation technique dont nous allons examiner
certains aspects dans les paragraphes suivants.
cahier des charges: spécifications techniques
Ce n'est donc qu'après
l'analyse précédente qu'on pourra préciser quantitativement
et/ou qualitativement certaines choses et répondre aux questions suivantes
:
- quel est l'objet réel de la
mesure, quelles grandeurs doivent être mesurées
- quelle doit être la sensibilité
et quel est le degré de précision requis par le système
- quelles sont les normes en vigueur
- dans quelles conditions d'environnement
va-t-il fonctionner (température, humidité, milieu chimique,
vibrations, interférences magnétiques...)
- quelle fiabilité est souhaitée
(reliabilité, MeanTimeBetweenFailure)
- quel(s) type(s) de capteur(s) faut-il
mettre en oeuvre, et qu'est-ce qui existe sur le marché répondant
a priori à ce problème
- quels sont les bruits, quel RRMC
(rapport de réjection de mode commun) admissible
- quelle architecture matérielle
envisager
- quelle répartition envisager
entre matériel et logiciel. Cette question est essentielle car elle
a des incidences économiques importantes. Elle est cependant difficile
à régler a priori. En effet, un composant électronique
peut se révéler à la longue insuffisant ou inadapté
et son remplacement par un autre entrainera généralement toute
une cascade de modifications hardware. Inversement, on peut imaginer améliorer
la pertinence d'un logiciel sans avoir besoin de restructurer le matériel
et nombre de concepteurs en tireront la conséquence qu'il vaut mieux
intégrer le maximum de fonctions dans le logiciel plutôt que
dans le matériel. Cependant en règle générale
il est beaucoup plus rapide d'exécuter une fonction à l'aide
de composants matériels plutôt que logiciels, et d'autre part,
il existe des composants multiprogrammables (FPGA) qui permettent à
la fois des adaptations matérielles et logicielles, voire des changements
de configuration à la volée. Le choix est donc difficile.
- et enfin quelques considérations ergonomiques
qu'il convient de ne pas sous-estimer (dimensions, portabilité,
esthétique, type d'affichage, boutons de contrôle, alimentation,
facilité de mise en oeuvre des réglages, possibilités
de personnalisation - c'est à dire d'appropriation
par l'utilisateur de certaines fonctions telles l'affichage, accessibilité
aux éléments essentiels, interchangeabilité et d'une
manière générale facilité de maintenance...)
types de systèmes de mesure
Il est intéressant de noter que, dans le monde réel, il n'est
pas toujours possible d'effectuer une mesure et d'en extraire du sens.
Par exemple les systèmes
biologiques et économiques sont si complexes que les outils actuels
sont incapables de fournir des prédictions satisfaisantes. Dans ces
cas le facteur temps et le nombre de paramètres interagissants sont
les principales causes de perturbations.
Mais il est aussi fréquent que la mise en oeuvre d'un procédé
de mesure perturbe le processus en examen. Précisons aussi, ce
que beaucoup d'utilisateurs aussi bien que de concepteurs oublient souvent,
qu'aucun système ne peut être meilleur que
son élément le plus faible. Ce qui revient à dire,
d'une part, qu'il ne faut pas se figurer qu'on compensera par des moyens de
calculs puissants l'insuffisance méconnue
d'éléments matériels du système (et j'insiste lourdement
sur cette méconnaissance qui est bien plus fréquente
que ne le pense a priori la grande majorité des utilisateurs),
et d'autre part, qu'il faudra se poser l'ensemble des questions qui précèdent
à propos de chaque sous-ensemble d'un système.
Notons enfin qu'il existe
divers mode de saisie et de transport de l'information (électroniques,
pneumatiques, hydrauliques,...) et que nous ne nous intéresserons ici
qu'à l'instrumentation électronique.
systèmes passifs, systèmes
actifs
Les systèmes de mesure
peuvent être classifiés en diverses catégories et nous distinguerons
en particulier les systèmes passifs des systèmes actifs. La distinction
dépend de la possibilité pour le mesurande de transporter de la
puissance ou de l'énergie et cette caractéristique va déterminer
la structure fonctionnelle du système. Une grandeur dite "active"
ou "intensive" ce sera par exemple une pression, un champ électrique,
une intensité lumineuse. A l'opposé une grandeur "passive"
ou "extensive" ne sera pas en mesure de transmettre directement de
l'énergie à un capteur. On citera par ex l'élasticité
d'un ressort, la masse, une impédance. Lorsqu'on veut mesurer une telle
quantité on doit lui associer une source d'énergie auxiliaire
de telle sorte à générer une
information exploitable.
Fig a. chaîne instrumentale
linéaire (capteur actif)
Ainsi la chaîne d'instrumentation,
dans le premier cas, sera simplement linéaire et représentée
par la figure (a) tandis que dans le second cas, (illustré figure b),
on doit disposer d'un générateur de signal (qu'il convient de
mesurer via la chaîne 2) pour produire une action sur l'élément
passif (process)
qu'il conviendra de déterminer (à
l'aide du capteur 1) et ce n'est qu'à l'aide d'un calcul ultérieur
qu'on pourra obtenir l'information recherchée : ainsi dans le
cas de la mesure d'une impédance, il faut un générateur
de tension (mesure de V) qui va créer un courant dans l'impédance
(mesure de I) et c'est le rapport V/I qui conduit au résultat, à
savoir l'impédance.
Fig b. principe général
de mesure dans un process passif
Notons que, dans ce deuxième
type de cas, si le stimuli et la réponse ont la même dimension,
c'est à dire si les chaînes 1 et 2 sont de même type, la
procédure de division conduisant au résultat permet d'éliminer
un certain nombre de facteurs d'erreur, à la différence du premier
cas.
Précisons enfin que
dans un système d'acquisition il va falloir tenir compte des impédances
relatives des divers éléments.
Fig. importance de l'impédance
d'entrée du système d'acquisition
En effet généralement le capteur peut-être assimilé
à son générateur de Thévenin
équivalent, et le reste du système par son impédance
d'entrée équivalente Z2. La mise en relation de l'un avec
l'autre conduit au schéma équivalent de droite (ci-dessus). Dont
on tire la relation :
d'où il ressort qu'entre la tension mesurée E2 et la tension générée
E1 (celle qu'il faut mesurer) il y a une incertitude
fonction du rapport des impédances. On voit qu'il faut au moins Z2 >
100Z1 pour avoir une erreur inférieure à 1%. Cette erreur systématique,
dont il est clair qu'elle va évoluer au cours du temps sous l'effet du
vieillissement des divers composants et aussi de dérives thermiques non
nécessairement identifiées, justifie parfois la mise en oeuvre
d'une procédure de mesurage, dite méthode de zéro, précisée
ci-après.
méthodes de zéro
ou déflexion
Un autre aspect doit être
considéré, on dispose le plus souvent d'un instrument dit à
déflexion, c'est à dire que le mesurande induit dans l'instrument
un signal qui lui est proportionnel, ou, si l'on préfère, que
le mesurande agit directement sur un dispositif (corps d'épreuve) auquel
est associé un transducteur et c'est le signal perçu aux bornes
de ce transducteur qu'on va traiter directement.
Mais il existe une autre
méthode de mesure, c'est la méthode dite de zéro. Dans
ce cas on dispose en plus de la chaîne de mesure précédente
(en tout ou partie) d'une chaîne équivalente de référence
susceptible de générer un signal qu'on va ajuster
de telle sorte qu'il soit rigoureusement identique au signal à mesurer,
selon le principe de la balance, et c'est ce signal artificiel (ou plus exactement
une mesure d'un paramètre lié à sa génération)
qui sera la mesure. L'intérêt de cette méthodologie est
généralement de permettre une plus grande précision
en permettant d'éliminer par soustraction certaines dérives.
Fig. principe d'un instrument
à détection de zéro
La boucle de correction peut
être manuelle ou automatique et, via un processus itératif, la
correction est ajustée jusqu'à ce que l'erreur en sortie du sommateur
soit nulle : alors la valeur inconnue (mesurande) est identique à la
valeur connue que l'on vient d'ajuster. La plupart des mesures peuvent relever
de cette technique de très grande précision, mais son prix la
fait réserver aux besoins de réelle précision.
signaux
Un autre élément de classification concerne le type de signaux mis
en jeu. On va considérer des signaux :
-
à caractère
d'unicité
-
périodiques
-
échantillonnés
-
stochastiques
On pourrait bien sûr
trouver d'autres classifications en distinguant les signaux analogiques des
signaux digitaux, continus ou discrets, stochastiques ou déterministes...
Ces signaux sont caractérisés
par leur unique occurence. C'est à dire
que la mesure n'est significative que du point de l'espace où elle a
été perpétrée. Dans ce cas la notion de finesse
du capteur possède une réelle signification et un capteur insuffisamment
fin va conduire à un résultat moyennant, d'une manière
généralement inconnue, la grandeur à mesurer. Ainsi si
l'on examine la situation climatologique chaque paramètre présente
cette caractéristique d'unicité et on va les examiner en considérant
leur comportement en fonction du temps et on pourra en extraire un certain nombre
de caractéristiques du type valeur de pic, valeur moyenne, amplitude
maxi des variations, puissance moyenne, valeur efficace...
L'autre type d'observation
de signaux uniques consiste à examiner la réponse d'un système
à un stimulus : réponse impulsionnelle d'un système
électronique, réponse à un échelon ou à une
rampe.
Ils sont très employés
en électronique et relativement fréquents dans notre environnement
(vibration de la corde d'une guitarre ou vibrations engendrées par le
fonctionnement du moteur de votre voiture par ex.) et sont caractérisés
par leur amplitude, fréquence, phase, harmoniques. Rappelons que Fourier
a montré que tout signal périodique pouvait être décomposé
en une somme de composantes sinusoïdales, et qu'en découpant arbitrairement
un signal continu en tranches de durée T on sait obtenir pour chaque
tranche le spectre représentant les amplitudes des composantes les plus
importantes constituant cette tranche temporelle du signal supposée périodique
ce qui conduit à une possibilité d'interprétation, c'est
à dire d'extraction d'information ayant un sens,
très employée.
L'extension de cette technique
en exploitant les ondelettes
a ouvert des possibilités d'interprétation gigantesques.
L'échantillonnage, c'est à dire la mesure de l'amplitude d'un signal
à des intervales de temps équidistants, judicieusement choisis,
permet, d'une part, une forme de compression de l'information
et, d'autre part, la possibilité de n'utiliser qu'un seul canal de transmission
pour plusieurs informations différentes. C'est ce qu'on appelle parfois
le temps partagé ou le multiplexage temporel.
Différentes techniques sont envisageables pour ce partage d'un même
canal et seront explicitées dans un chapitre
ultérieur.
Précisons qu'un signal
pourra effectivement être transmis dans son intégralité
par un canal de transmission, ou échantillonné et transmis sous
forme analogique via un procédé de modulation (amplitude, largeur
d'impulsion, voire de position) ou converti numériquement avant transmission
et transmis sous forme de code binaire. Selon le mode de transmission retenu
on aura donc une électronique fort différente. En particulier
la transmission numérique imposant une conversion sur place nécessitera
la présence de circuit de type "sample and hold" assurant l'échantillonnage
et la conservation (on parle de bloquage ou de mémorisation) de l'information
analogique pendant une durée au moins égale à celle de
la conversion.
Notons enfin, ainsi que l'ont
montré Shannon
et Nyquist,
que l'échantillonnage entraine nécessairement une perte d'information
et que pour conserver une certaine pertinence on
devra avoir des échantillons suffisamment rapprochés temporellement
et correspondant à une fréquence d'acquisition au moins égale
à deux fois la fréquence la plus élevée présente
dans le spectre du signal (ou que l'on souhaite effectivement
conserver). Il est généralement souhaitable d'aller très
au delà de ce facteur 2 si l'on en a la possibilité technique
(jusqu'à 20 parfois).
Un signal aléatoire, appelé encore non déterministe,
est un signal dont on ne peut prévoir l'évolution
avant de l'avoir observé. En conséquence on le décrira
non par une fonction mathématique mais par ses propriétés
statistiques : typiquement la densité de
probabilité.