par
Directeur de Recherches au CNRS
1996, Presse Universitaire de France
![]() |
Edition française actuellement hors catalogue. Edition allemande disponible auprès de l'editeur Wissenschaftliche Buchgesellschaft: C. Colliex (trad. H. Kohl), Elektronenmikroskopie: eine anwedungsbezogene Einführung, Darmstadt (2008) isbn: 978-3804723993 |
Grâce à notre expérience corporelle quotidienne nous avons appris à connaître le monde qui nous entoure. Dans cette exploration de notre espace sensoriel, la vision joue un rôle prépondérant dans la mesure où, grâce à la stéréoscopie du système oculaire, elle permet de nous situer dans son intégration à trois dimensions. Nous savons aussi que le détecteur constitué par les cellules de notre rétine permet de discerner les couleurs à l'intérieur d'un spectre s'étendant du bleu violet au rouge profond.
Si riche soit elle, cette perception visuelle n'offre qu'un champ limité d'exploration et depuis fort longtemps l'homme s'est ingénié à réaliser des outils permettant de dépasser ces limites. C'est à cette démarche que participent tous les développements de l'optique. Aux insuffisances de l'oeil pour détecter des détails de plus en plus fins, le premier remède fut la loupe, cet instrument taillé ingénieusement dans un matériau transparent et capable de délivrer d'un objet une image agrandie. C'est le point de départ de la microscopie, qui, comme l'indique son étymologie (du grec mikros, petit, et skopein, examiner), permet l'examen d'objets ou de détails invisibles à l'oeil nu. Dans cette exploration du monde de plus en plus petit, le microscope électronique constitue l'un des outils les plus perfectionnés.
Dans cette brève introduction, un certain nombre d'éléments-clés sont d'ores et déjà identifiables et vont constituer la trame de notre réflexion tout au long de cet ouvrage. Le microscope électronique est un instrument, donc un intermédiaire entre l'homme et la matière. Un instrument délivre des informations, et dans le cas présent nous parlerons d'images, dont il est nécessaire de comprendre la relation profonde avec l'objet étudié. Comme dans le processus de la vision directe par l'oeil, l'information acquise doit être interprétée. Si dans le premier cas le cerveau remplit naturellement cette fonction et nous procure la vision de l'objet en termes de contour, forme, dimension et couleur, la démarche équivalente, lorsqu'un instrument d'optique intervient dans cette chaîne de perception, requiert une compréhension de toutes les étapes conduisant à l'acquisition de ces images. Il s'agit d'interpréter une image, un contraste, une distribution de couleurs et cette étape fait nécessairement appel à un support théorique. Enfin, dans ce monde à l'intérieur duquel nous sommes naturellement aveugles, comment est-il possible de se repérer, en un mot quelles sont les dimensions accessibles, comment les mesurer, comment vérifier que l'image obtenue est une représentation significative ? C'est pourquoi, en utilisant toutes les données fournies par les instruments les plus divers imaginés et réalisés au cours de ces dernières années, il nous paraît indispensable de rappeler en premier lieu, les échelles de dimensions pour les différents constituants de la matière.
L'unité de longueur du système métrique est le mètre (m). Pour pénétrer dans le domaine des petites dimensions, nous allons procéder par bonds d'un facteur mille. La première étape est le millimètre (mm ou 10-3m), grandeur que nous savons encore apprécier directement comme la dimension de la petite division d'une règle graduée. L'étape suivante est le micromètre (µm ou 10-6m), mille fois plus petit que le millimètre et qu'il devient impossible d'appréhender sans l'aide d'un microscope ordinaire. Franchissons encore une étape, nous atteignons le domaine du nanomètre (nm ou 10-9 m soit un milliardième de mètre). Le microscope électronique va nous donner les clés pour l'explorer. Les dimensions inférieures s'appellent pour mémoire le picomètre (pm ou 10-12m) et le femtomètre (fm ou 10-15m). Sur la figure I.1 sont reportées vis-à-vis de l'échelle ainsi définie les dimensions typiques d'un certain nombre d'objets ou de structures identifiables.
Figure I.1
Accordons une place toute particulière à l'atome dont la dimension caractéristique est de l'ordre du dixième de nanomètre sur l'échelle ci-dessus, grandeur pour laquelle a été introduite une unité de longueur spéciale: l'angström (Å). Nous savons que toute matière relevant du règne animal, végétal ou minéral, est constituée d'arrangements plus ou moins organisés d'atomes ou de familles d'atomes (les molécules). Cette notion d'atome est centrale dans les représentations de l'univers et dans les modèles de compréhension de la matière mais il faut bien reconnaître que jusqu'à une période récente, elle relevait d'une visualisation théorique plus que réelle. A la question "Pouvez-vous me montrer un atome ou une famille d'atomes ordonnés?", ce ne sont que les progrès récents de l'instrumentation scientifique et en particulier de la microscopie électronique, qui ont pu apporter des réponses positives.
Pour information, poursuivons notre description sommaire des constituants de l'atome à l'échelle subatomique. Dès le début du siècle, l'atome était décrit, par Rutherford par exemple, comme un système solaire de taille infiniment petite avec des particules de charge négative, les Z électrons de l'atome, gravitant autour d'une particule de charge positive, le noyau. Peu à peu le modèle s'est affiné; le choix des trajectoires offertes aux électrons ne se fait pas au hasard, ils occupent des familles d'orbitales bien définies auxquelles correspondent des énergies elles aussi bien définies. La figure I.2 fournit une représentation "naïve" de l'atome, telle qu'on peut la déduire d'une description en termes de mécanique quantique. L'électron n'y est plus une particule ponctuelle située à un instant donné en une position bien définie sur sa trajectoire avec une vitesse donnée. Il faut au contraire considérer l'atome comme une succession de pelures d'oignon autour du noyau, constituées de nuages électroniques associés à leur probabilité de présence dans ces domaines de l'espace. Ces couches ou orbitales correspondent à des états quantiques dont les niveaux d'énergie sont bien déterminés, résultant des lois de la mécanique quantique et de l'équilibre des forces électromagnétiques. Cette connaissance de la structure interne des atomes nous sera très utile dans un chapitre ultérieur quand nous décrirons les techniques élaborées pour identifier la nature des atomes constitutifs de l'échantillon examiné en microscopie électronique.
Figure I.2
L'atome n'est cependant pas cet être insécable que pourrait laisser supposer son appellation. Les méthodes de la physique atomique ont montré qu'il est possible de "jouer" avec les électrons d'un atome, de les exciter en les faisant passer d'une couche à une autre, de les arracher même à leur atome, laissant derrière eux des ions positifs, c'est à dire des atomes ayant perdu une ou plusieurs charges électriques. Et il est bien heureux qu'il soit ainsi possible, sous certaines conditions, d'extraire de la matière constituée d'un assemblage d'atomes, quelques électrons. Car c'est le principe même de la microscopie électronique que d'utiliser ces électrons comme des particules libres que l'on accélère et qu'on envoie sur une cible tels des projectiles pour en étudier la structure.
Pour être complet dans cette introduction à la constitution de la matière, rappelons enfin, bien que cet aspect soit sans influence directe avec le thème du présent ouvrage, que le jeu des "poupées russes" s'emboîtant les unes dans les autres n'est pas terminé à ce niveau. Le noyau est lui-même une structure complexe composée de nucléons (les neutrons sans charge électrique et les protons de charge positive égale en valeur absolue à celle de l'électron). Les protons eux-mêmes sont composés de quarks, au nombre de six, et on se demande maintenant si ces quarks ne sont pas des architectures complexes faites de pré-quarks. Nous sommes là dans un tout autre domaine, celui de la physique des très hautes énergies qui utilise des appareillages gigantesques pour comprendre les rouages les plus subtils de la composition de notre univers. Pour se convaincre qu'il reste encore beaucoup à apprendre, ne serait-ce que sur les dimensions de ces différents composants, la taille des noyaux et des nucléons est bien connue, respectivement autour de la dizaine de femtomètres et du femtomètre, mais personne à ce jour n'est capable de donner un ordre de grandeur pour la taille de l'électron. Et pour les quarks les conjectures tournent autour de 10-30 m.
Restons raisonnables et revenons au niveau de l'angström et au-dessus, domaine où l'arrangement des atomes en solides divers régit les propriétés diverses de la matière, domaine qui va aussi constituer le champ d'investigations particulièrement adapté aux performances des microscopes électroniques modernes.
Au cours de l'observation visuelle, les informations relatives à l'objet, c'est-à-dire sa forme, son contour, sa couleur, sont contenues dans les modifications du rayonnement lumineux utilisé pour l'observer. Il s'agit d'un cas particulier d'interaction entre un rayonnement externe et la matière et il est naturel d'étendre cette approche à d'autres domaines du spectre du rayonnement électromagnétique, dont la lumière "visible" ne constitue qu'une infime partie. La figure I.3 rappelle la place occupée par cette fraction du spectre directement accessible au détecteur oculaire dans l'ensemble du spectre ondulatoire. Les échelles sont exprimées en longueurs d'ondes (l) à comparer aux échelles de longueur introduites dans le paragraphe précédent. Une autre présentation utile de la gamme des rayonnements électromagnétiques est en termes de fréquences, car il s'agit d'ondes périodiques de fréquences caractéristiques n se propageant à la vitesse de la lumière c, telles que:
n = c/l ( n est exprimée en hertz Hz = s-1)
Figure I.3
Ainsi on conçoit aisément qu'une première solution pour adapter le rayonnement incident à l'échelle des dimensions explorées consiste à modifier la longueur d'onde de l'onde utilisée. L'information spectrale prend alors une autre signification, débordant largement celle de couleur. En effet à une fréquence n correspond une énergie déterminée E par l'intermédiaire de la relation :
E= hn (avec h = constante de Planck = 6,62x 10-34 Js)
Outre la détermination des distances caractéristiques à une échelle variable, une approche expérimentale consistant à mesurer la distribution en fréquences du rayonnement après intéraction avec l'objet, permet aussi d'en déterminer les niveaux énergétiques spécifiques et par conséquent d'en identifier la composition chimique ou les propriétés électroniques, comme nous le montrerons dans un des chapitres ultérieurs.
Une autre solution consiste à remplacer la nature même du rayonnement incident. A la suite des travaux de de Broglie, on sait qu'il est possible d'attribuer à toute particule de masse m et de vitesse v un comportement ondulatoire de longueur d'onde l, telle que:
l = h/mv
C'est la conséquence immédiate de la dualité onde-corpuscule qui fut le fondement de la mécanique ondulatoire entre 1920 et 1930. Par conséquent, il est possible de substituer aux photons, grains d'énergie lumineuse sans masse, des particules accélérées, comme outil d'exploration de la matière. C'est l'origine de l'idée d'utiliser des électrons à cette fin. Mais évidemment d'autres possibilités existent et le tableau I.1 ci-dessous résume les principales solutions envisageables.
Tableau I.1
Paramètres des différents types de particules utilisables pour explorer la matière
Nature |
Longueur d'onde (nm) |
Energie |
Photons (visible) |
400 Æ 700 |
? 2 eV |
Photons (domaine X) |
5x10-2 Æ 1,25 |
25 keV Æ 1keV |
Electrons |
10-3 Æ 3x10-3 |
1 MeV Æ 100 keV |
Protons ou ions |
~ 10-4 |
~ 10 keV |
Neutrons |
~ 0,1 |
~ 0.025 eV |
Dans ce tableau, les énergies sont exprimées en eV, c'est-à-dire en unité équivalente à l'énergie d'un électron accéléré sous un volt (1 eV = 1,6x10-19J)
Suivant que l'on raisonne en termes d'ondes ou de corpuscules, le comportement de ces projectiles doit être décrit différemment. Dans le premier cas nous parlerons d'interférences, de diffraction, de contraste de phase. Dans le second, il est plus adapté de considérer l'interaction rayonnement-matière en termes de collisions. On irradie l'échantillon avec un faisceau de particules de vitesses et de directions bien définies et on mesure avec un détecteur la distribution des vitesses et des directions après collision.
Dans toutes ces expériences de diffraction ou de collision entre un faisceau primaire et l'échantillon cible, la source de particules et le (ou les) détecteurs sont situés à une grande distance (très grande vis-à-vis des longueurs d'onde utilisées) de l'échantillon. Cette configuration est valable pour toutes les microscopies traditionnelles décrites dans cet ouvrage: on est dans le régime de propagation ou de champ lointain. Le lecteur doit cependant être averti que depuis 1980, cette approche n'est plus la seule offerte. A la suite des travaux de Binnig et de Röhrer au début des années 1980 au sein du laboratoire IBM de Zürich, une nouvelle famille de "microscopes" a vu le jour. Il s'agit bien de microscopes au sens premier du terme, mais leur conception est radicalement différente. Pour cette nouvelle famille d'instruments, dits de champ proche pour les distinguer clairement des microscopes conventionnels, les fonctions de source, d'échantillon et de détecteur ne sont pas nettement séparées. Il n'existe pas de propagation de l'information entre ces différentes composantes dans la mesure où elle est recueillie à la source même de sa production. Le prototype en est le microscope tunnel qui utilise la dépendance très rapide du courant électrique tunnel entre une pointe métallique et la surface du solide à explorer. Ce dispositif, dont le principe est représenté sur la figure I.4, a permis de réaliser des images de surface avec une résolution meilleure que la distance inter-atomique.
Figure I.4
A partir de cette première réalisation, toute une génération d'instruments nouveaux a vu le jour. Ils reposent tous sur le principe d'une sonde locale qui explore point par point une grandeur physique de l'objet étudié. A ce jour le succès le plus spectaculaire est celui du microscope à force atomique qui mesure les forces d'interaction pointe-substrat, et dont le champ d'applications est par conséquent immense. Ces nouvelles technologies sont décrites dans un volume indépendant de la même collection.
Dès les premières lignes de ce chapitre, nous avons souligné que tout microscope, et le microscope électronique en particulier, est un instrument qui fournit de la matière explorée des images, dont le cerveau et les théories qu'il a su élaborer, doivent nous permettre de saisir la signification. Cette notion d'image constitue donc un concept tout à fait fondamental qui mérite bien quelques considérations générales, même si celà peut paraître superflu dans la civilisation de l'image au sein de laquelle nous vivons.
Tout au long de la journée, nous sommes submergés d'images, que ce soit sur le support papier du journal, sur le tube cathodique de notre écran de télévision ou de notre ordinateur, sur la diapositive que nous projetons en famille sur un drap blanc hâtivement tendu. Mais qu'ont-elles donc toutes en commun ces images? Elles nous informent, à divers niveaux, sur le monde qui nous entoure et que nous ne percevons pas directement. La télévision nous transporte, comme si nous y étions réellement, à l'autre extrémité de la planète pour y assister à un événement sportif, aux funérailles d'une personnalité illustre. Elle nous fournit une certaine vision de ce que nous ne percevons pas directement.
C'est donc le propre de toute image que de fournir une représentation, généralement par l'intermédiaire d'un support plan de taille finie, d'une scène, d'un paysage, d'un évènement. Elle nous fournit une certaine vision de ce que nous ne percevons pas directement.
Figure I.5
Schématiquement, nous pouvons donc définir toute image comme une distribution bidimensionnelle d'information I(x,y), voir figure I.5. Pratiquement pour tous les cas usuels de notre vie, le récepteur final étant l'oeil, l'information présentée est une intensité lumineuse sur une certaine échelle allant du noir au blanc, et dans les cas plus élaborés faisant intervenir le spectre des couleurs. Chaque image peut donc être décrite comme une assemblée organisée d'éléments d'image, appelés pixels (x,y) dont le nombre peut varier notablement. Plus le nombre de pixels est élevé dans une image donnée, meilleure est sa définition. Dans un monde de plus en plus régi par l'informatique et le système binaire, on préférera donc une image 1024X1024 à une image 512x512. De la même façon, la gamme des intensités dans une image s'évalue en niveaux de gris et on sait que l'oeil humain ne peut en discerner qu'un nombre réduit, quelques centaines dans les meilleurs cas. Néanmoins, dans tout système pourvoyeur en images, il est souvent utile de transporter une échelle plus dense d'intensités ( 64000 niveaux ou 16 bits par exemple), quitte à la comprimer en un domaine plus réduit au niveau de la présentation finale.
A partir des exemples cités ci-dessus, on peut classer les modes de production d'images en deux grandes familles, celle où la définition des différents pixels se fait spatialement par l'intermédiaire d'un instrument d'optique (une lentille de projection par exemple) et celle où elle s'accomplit séquentiellement en utilisant le déplacement d'une sonde selon une trame déterminée (dont le plus bel exemple est l'image télévision). Dans le domaine qui nous concerne nous appellerons les deux grandes classes de microscopes qui s'y rattachent microscopes conventionnels et microscopes à balayage respectivement. Dans le premier cas, on dit qu'il existe une relation biunivoque entre chaque point de l'objet et chaque point de l'image et cette relation se comprend aisément si la correspondance entre points objets et points images se fait par l'intermédiaire d'un ensemble de fibres optiques individualisées. Nous montrerons que les lentilles de l'optique lumineuse (et électronique) peuvent remplir ce rôle. Dans le second cas, la relation image-objet s'effectue par l'intermédiaire du déplacement synchronisé de la sonde sur l'échantillon et du spot de visualisation sur l'écran cathodique du moniteur. A cette catégorie appartiennent bien sûr tous les microscopes de champ proche décrits ci-dessus.
A l'occasion de divers événements, on a tous fait l'expérience que l'image montrée pouvait travestir la réalité. Par exemple, dans une photo de groupe, un individu peut être caché par un autre et, bien que présent, ne pas apparaître dans le cliché. Sans aller jusqu'à introduire la contribution subjective de l'artiste qui montre "sa" vision des choses, on peut se demander si l'instrument ne déforme pas lui aussi, mais de façon objective, la réalité. Dans le domaine de la microscopie c'est un problème fondamental quand on n'a pas accès à d'autres moyens de connaître la structure de l'infiniment petit qui nous intéresse. Nous le rencontrerons donc à de nombreuses reprises, en particulier au moment de définir la limite de résolution du microscope quand il s'agira d'évaluer le flou nous empêchant de distinguer deux détails très proches l'un de l'autre. A d'autres moments, nous introduirons la notion de transfert limité de l'information qui s'adapte très bien à tous les instruments délivrant des images. Mais nous saurons aussi utiliser toutes les possibilités de l'informatique qui est désormais capable de créer des images de synthèse. Nous montrerons en quoi il est utile de synthétiser à partir de paramètres déterminés des images théoriques à comparer aux images expérimentales.
Le microscope photonique (ou optique) est le descendant des premiers microscopes inventés en Hollande au XVIIème siècle et qui, sans cesse développés au cours des siècles, ont contribué si puissamment à notre connaissance du monde microscopique, dans tous les domaines des sciences expérimentales de la physique à la chimie, de la pétrologie à la biologie. Il utilise les radiations électromagnétiques du spectre visible (la lumière) ou dans le proche infrarouge ou ultraviolet, dont la propagation est déviée, focalisée par des lentilles de verre. La lumière est une ondulation constituée par des vibrations de champs électrique et magnétique se propageant aussi bien dans le vide que dans l'air ou dans des matériaux transparents. Ces vibrations sont périodiques, c'est-à-dire qu'elles se retrouvent identiques à elles-mêmes en un point de l'espace à des intervalles de temps réguliers (la période T exprimée en secondes) ou avec une fréquence n = 1/T (exprimée en Hertz). Elles se propagent dans le vide à la vitesse c (égale à la vitesse de la lumière) et la distance, à un instant donné, entre deux états équivalents de l'oscillation est la longueur d'onde l (exprimée en unités de longueur). Chaque couleur du spectre visible correspond à une longueur d'onde déterminée comprise entre 0,4 et 0,7 mm environ. La lumière blanche est un mélange de toutes les radiations de longueur d'onde comprises dans cette bande. L'ultraviolet correspond aux radiations de longueur d'onde inférieure et l'infrarouge à celles de longueur d'onde supérieure.
Un microscope traditionnel est constitué des principaux éléments suivants:
L'échantillon peut être observé en transmission s'il est partiellement transparent à la lumière ou en réflexion si il possède un fort pouvoir réfléchissant comme une surface métallique ou minérale. La figure II.1 présente un schéma de principe pour un microscope moderne permettant une variété d'éclairements et de modes d'observation. On y repère plusieurs familles de lentilles: les condenseurs, l'objectif, l'oculaire, les projecteurs. L'instrument original, à l'architecture simplifiée, était constitué d'un objectif qui donne de l'objet une image agrandie et d'un oculaire, jouant le rôle d'une loupe et au travers duquel on observe à l'infini une image virtuelle agrandie. L'objectif est en fait le coeur du microscope et de ses propriétés dépendent essentiellement les performances de l'instrument.
Figure II.1
Dans un schéma simplifié (voir la fig. II.2), pour un microscope plein champ où l'ensemble de la préparation est éclairé, on assimile l'objectif et l'oculaire à des lentilles minces simples. L'objet est représenté par un segment A0B0 dont l'objectif de distance focale f (de quelques mm) donne une image agrandie A1B1. De cette image située dans son plan focal objet (distance focale f' de quelques cm), l'oculaire donne une image A'B' rejetée à l'infini et observée par l'œil. La mise au point s'effectue en modifiant la distance frontale entre l'objet et la face d'entrée de l'objectif.
En microscopie visuelle, on appelle grossissement le rapport entre l'angle q' sous lequel on voit dans l'instrument l'image A'B' et l'angle q sous lequel l'œil le verrait à la distance d'approche maximum soit 25 cm:
$G=\frac{\tan \theta '}{\tan \theta}\simeq 500$
Pour obtenir une microphotographie, on introduit après l'oculaire un objectif photographique qui forme sur l'émulsion placée dans son plan focal une image réelle A''B''. Dans ce cas on caractérise le fonctionnement du microscope par son grandissement linéaire total:
$$ g=\frac{A''B''}{A_0B_0}$$
Figure II.2 La formation de l'image dans un microscope optique.
Même si on augmente le grossissement au-delà de 1000, la qualité de l'observation ne s'améliore pas car on atteint alors la limite de résolution de l'instrument. Cette notion mérite une discussion plus approfondie. Le premier obstacle est associé à la nature ondulatoire du rayonnement: il s'agit du phénomène de diffraction. L'image d'un point, donnée par une lentille parfaite et un rayonnement monochromatique de longueur d'onde l, est une tache circulaire brillante entourée d'anneaux moins lumineux dont l'intensité décroît lorsqu'on s'écarte du centre; il s'agit de la tache d'Airy dont on sait que le diamètre d est égal à 1.22 l/a' (voir fig. II.3).
Figure II.3 - Diffraction par une ouverture et définition du pouvoir de résolution
Ramenée au plan objet, cette dimension s'exprime grâce à la même formule avec l'angle a égal au demi-angle sous lequel l'objet est vu par l'objectif. A partir de la formule ci-dessus, on constate que cette tache sera d'autant plus étroite, et l'image par conséquent d'autant plus piquée, que l'angle a augmente et que la longueur d'onde l décroît. Pour une lentille objectif de faible distance focale travaillant avec un grandissement de l'ordre de 100, l'angle a n'est plus très petit et on le remplace dans la formule ci-dessus par l'ouverture numérique $O_n=n\sin \alpha$ où n est l'indice de réfraction du milieu dans lequel on peut immerger l'échantillon devant la face d'entrée de l'objectif. Les plus grandes ouvertures numériques sont de l'ordre de 1,3. Pour une longueur d'onde de 0,6 mm correspondant à de la lumière jaune, on obtient donc une valeur de d = 0,56 mm.
Le pouvoir de résolution (ou pouvoir séparateur) mesure la distance transversale minimale s entre deux points dont les taches de diffraction peuvent être séparées. Suivant le critère de lord Rayleigh, on définit cette distance pour le cas où le maximum d'une tache de diffraction se situe au premier zéro de la tache voisine. Il en résulte que:
$$s=\frac{0.61\lambda}{O_n}$$
soit 0,28 µm pour l'exemple ci-dessus.
Il existe une autre façon de mesurer la qualité de l'observation fournie par un système optique que l'on comprend aisément en se référant aux mires de réglage de nos écrans de télévision. Supposant que notre objet soit constitué d'un réseau de lignes blanches et noires de périodicité p. Comme le montre la fig. II.4, l'image qu'en donne l'objectif est un contraste oscillant g = (I2 - I1)/(I1 + I2) où I2 est l'intensité des maximums et I1 celle des minimums. La fréquence spatiale n'a pas changé mais les traits noirs sont devenus gris et cet effet est d'autant plus marqué que la distance p est plus faible, c'est-à-dire quand la taille de la tache de diffraction devient de l'ordre de grandeur de la période p. On représente cette variation sous forme d'une fonction de transfert de contraste entre la valeur du contraste g et la fréquence spatiale 1/p. Pour une certaine fréquence de coupure 1/p0, le contraste dans l'image est devenu zéro et I1 = I2. La connaissance de la fonction de transfert, et de la fréquence de coupure en particulier, apporte toutes les informations nécessaires sur la loi de correspondance entre l'objet et l'image.
Figure II.4 Une autre approche à la définition du pouvoir de résolution : la fonction de transfert.
Dans la discussion qui précède, nous avons supposé que la lentille objectif est une lentille parfaite. Or on sait que les lentilles de verre ne sont pas exemptes de défauts. Elles souffrent en particulier de chromatisme, c'est-à-dire qu'elles focalisent mieux les radiations de plus courte longueur d'onde, ce qui entraîne des effets d'irisation lors de l'utilisation de la lumière blanche. De plus, même pour une lumière monochromatique, la focalisation n'est pas parfaite. Par exemple, les rayons marginaux convergent davantage que les rayons passant près de l'axe de la lentille, ce qui est responsable d'effets connus sous le nom d'aberration sphérique (ou d'ouverture) et de coma. Les lentilles de l'optique photonique présentent cependant une grande qualité, à savoir qu'elles peuvent être soit convergentes, soit divergentes selon la nature de la courbure de leurs faces. En associant plusieurs lentilles de propriétés différentes en doublets, triplets et multiplets, il est possible de réaliser des objectifs stigmatiques, pour lesquels le chromatisme, l'aberration sphérique et la coma sont corrigés.
Suivant la direction de propagation du rayonnement en transmission, il est aussi important de définir une résolution verticale, ou profondeur de champ. C'est la distance dz, sur l'axe optique, pour laquelle la netteté des détails perçus reste acceptable. Cette épaisseur est d'autant plus faible que l'ouverture numérique On est plus grande. Dans les meilleurs cas elle est aussi de l'ordre d'une fraction de micromètre et de cette façon on peut dire que le microscope réalise une coupe optique dans l'objet, bien qu'un rayonnement lumineux défocalisé provenant des coupes adjacentes soit aussi transmis à l'observateur.
Afin d'améliorer le pouvoir de discrimination optique à travers l'épaisseur d'un échantillon transparent, le microscope confocal à balayage laser est apparu récemment sur le marché. Dans cet instrument, la source et le détecteur sont focalisés simultanément en un même point de l'échantillon par un jeu adapté de trous d'épingle (diaphragmes), de miroirs et d'objectifs communs. L'échantillon est éclairé et interrogé point par point, de façon successive grâce à un mécanisme de balayage optique du faisceau. Ce principe permet d'éliminer totalement la lumière qui ne provient pas du plan de mise au point optique. Par conséquent, on a ainsi accès à un contraste amélioré, une très faible profondeur de champ (de l'ordre de 0,5 mm) tout en conservant une résolution latérale de 0,2 à 0,3 mm par utilisation d'objectifs à immersion de forte ouverture numérique. Ce microscope confocal, permettant de réaliser des observations tridimensionnelles avec une résolution submicronique dans les trois directions, représente le développement le plus important de la microscopie photonique au cours des dix dernières années, en particulier dans le domaine tissulaire et cellulaire lorsqu'il est utilisé avec des marqueurs fluorescents spécifiques.
Dans cet exposé rapide des acquis de la microscopie photonique, nous avons volontairement omis les développements les plus récents en microscopie de champ proche, sans propagation, où la distance objet-détecteur est faible par rapport à la longueur d'onde du rayonnement. Il s'agit d'une des retombées les plus spectaculaires des techniques de microscopies tunnels déjà mentionnées brièvement en I.2.
C'est à partir de la définition et de l'évaluation du pouvoir de résolution du microscope photonique, bien adapté à l'exploration du monde micronique, que se justifie le recours à des faisceaux d'électrons pour espérer franchir plusieurs ordres de grandeur et avoir accès directement aux distances interatomiques. Le seul paramètre sur lequel il est possible de gagner le facteur de l'ordre de 1000 requis, est la longueur d'onde de la radiation utilisée. Dans le tableau I.1 nous avons montré que deux solutions étaient envisageables, à savoir le recours à des radiations électromagnétiques dans le domaine X ou à des particules chargées et en particulier à des électrons.
Dans le premier cas, les progrès ont été très lents dans la mesure où ne savait pas réaliser des éléments optiques focalisants (tous les matériaux ont un indice de réfraction quasiment égal à l'unité dans cette gamme de longueurs d'onde). La seule solution consistait à envisager des microscopies par projection où on observe l'ombre portée de l'échantillon sur le détecteur. La résolution est alors limitée soit par la taille de la source, soit par celle du détecteur (grain de l'émulsion) suivant la configuration, source-échantillon-détecteur, choisie. Mais dans tous les cas cette résolution n'est pas sensiblement différente de celle offerte par la microscopie photonique dans le domaine visible. Ajoutons cependant que l'introduction d'optiques à base de réseaux faits d'empilements de matériaux lourds et légers, a permis récemment de réaliser des expériences prometteuses de focalisation de rayons X avec une résolution de l'ordre de quelques dizaines de nanomètres. C'est un progrès très sensible dans la voie d'une microscopie X dont il faudra suivre l'évolution avec intérêt.
Revenons à la relation de Louis de Broglie qui attribue une longueur d'onde l à un électron de masse m et de vitesse v, soit l = h/mv. Ceci n'est qu'une loi approchée non relativiste. La loi exacte tenant compte de l'énergie au repos de l'électron, $E_0=mc^2=511 $ keV, est:
$$ \lambda(pm)=\frac{1226}{[eV(1+0,9785 \cdot 10^{-6}eV)]^{1/2}} $$ (II.2)
à partir de laquelle on peut calculer les paramètres associés à des électrons accélérés dans le vide sous une tension V (Tableau II.1)
Tableau II.1
V (kV) |
b = v/c |
m/m0 |
l (pm) |
100 |
0,548 |
1,196 |
3,70 |
300 |
0,776 |
1,587 |
1,97 |
1000 |
0,941 |
2,957 |
0,87 |
Il résulte de la lecture de ce tableau que les électrons accélérés sous les tensions usuelles de fonctionnement d'un microscope électronique se propagent à une vitesse supérieure à la moitié de la vitesse de la lumière, qu'ils sont donc relativistes avec une masse variant de 1,2 à 3 fois la masse de l'électron au repos, que leur longueur d'onde est nettement inférieure aux distances moyennes interatomiques et qu'ils constituent donc un rayonnement adapté à l'exploration de la matière aux échelles subnanométriques.
Construire un instrument d'optique électronique de conception semblable au microscope optique est en outre envisageable car on sait que ces particules chargées sont susceptibles de subir l'action des forces imposées par des champs électromagnétiques et de voir ainsi leurs trajectoires modifiées et contrôlées. Il est ainsi possible de réaliser des combinaisons de champs exerçant sur ces particules une action identique au rôle des lentilles de verre pour les rayons lumineux, ce sont les lentilles électroniques que nous décrirons dans le chapitre suivant. Par contre, utiliser un faisceau d'électrons impose un certain nombre de contraintes, la plus importante étant qu'à cause de leur pouvoir d'interaction avec la matière, ils ne se propagent librement que dans le vide. Une colonne de microscope électronique est donc essentiellement une enceinte pompée sous des vides de l'ordre ou inférieur à un milliardième de la pression atmosphérique. (Cette affirmation sera commentée à nouveau au paragraphe IV.4).
Le microscope électronique, utilisant un faisceau d'électrons accélérés sous une différence de potentiel donnée pour produire une image agrandie de la matière, n'a pas été conçu et construit d'un seul coup. Les appareils en fonctionnement de nos jours sont le résultat d'une évolution graduelle qui a été initiée au début de ce siècle. A l'origine on peut situer la découverte de l'électron et de ses propriétés. Citons surtout J.J. Thomson qui en 1897 détermine le rapport e/m entre la charge et la masse de ces charges élémentaires d'électricité négative et Millikan qui en 1909 mesure leur charge individuelle égale à 1,6. 10-19 C. Leur masse est donc de 9,1.10-31 kg. A la même époque, les expériences réalisées par un certain nombre de physiciens (Birkeland, Poincaré) sur les faisceaux d'électrons, aussi connus alors sous le nom de rayons cathodiques, montrent qu'il est possible de les faire converger vers des points privilégiés de l'espace, au moyen de champs magnétiques de révolution en particulier. Les éléments nécessaires à la réalisation de lentilles électroniques étaient rassemblés, mais il fallut attendre près de trois décennies pour que les étapes menant à la rmise au point du premier microscope électronique soient franchies.
Les travaux théoriques de Louis de Broglie établissant l'aspect ondulatoire des électrons, constituèrent un élément décisif à l'origine des premières réalisations expérimentales. En parallèle Hans Busch, un physicien allemand, établit les bases de l'optique électronique. En calculant les trajectoires des électrons dans un champ magnétique à symétrie de révolution, il montre qu'ils s'y comportent de façon similaire aux rayons lumineux dans les systèmes optiques à symétrie de révolution, permettant ainsi de concevoir des lentilles électroniques équivalentes aux lentilles de l'optique photonique. Les principaux éléments devant conduire à la naissance du microscope électronique sont en place. Ceci n'échappe guère à l'attention de deux physiciens, qui deviendront célèbres plus tard, bavardant en 1928 dans un recoin du café Wien à Berlin:
Szilard: "Busch has shown that one can make electron lenses, de Broglie has shown that they have sub-Angström wave lengths. Why don't you make an electron microscope, one could see atoms with it!"
Gabor: "Yes, I know. But one cannot put living matter into a vacuum and everything will burn anyway to a cinder under an electron beam."[1]
L'histoire montrera comment ils avaient en quelques mots compris les perspectives immenses qui s'ouvraient à eux tout en en identifiant les limites.
Malgré tout, deux physiciens berlinois décidaient de se lancer dans l'aventure: le 4 juin 1931, Max Knoll rapporte lors d'une conférence à l'Ecole Technique de Berlin les expériences réalisées avec son étudiant Ernst Ruska, présentant à cette occasion les premières images obtenues avec un microscope à deux lentilles fonctionnant sous une tension de quelques milliers de volts. Déjà une résolution de quelques dizaines de nanomètres était atteinte, les limites fondamentales de la microscopie photonique étaient franchies et c'était le début d'une grande aventure, pour laquelle l'un des inventeurs, Ernst Ruska, dut attendre plus de cinquante années avant de se voir décerner le prix Nobel de physique en 1986. La figure II.5 montre un schéma du premier microscope électronique réalisé en 1931. Berlin était alors le théâtre d'une grande effervescence dans ce domaine. La société AEG-Telefunken y avait créé un centre de recherches très actif au sein duquel Ernst Brüche aidé de son collaborateur H. Johannson, obtenait lui aussi, quelques mois plus tard en août 1931, ses premières images de microscopie électronique, après avoir dès 1930, introduit la notion d'indice de réfraction fictif, complétant ainsi l'analogie entre l'optique électronique et l'optique géométrique.
Le mouvement, initié en Allemagne, ne va pas tarder à rayonner à travers l'Europe et à franchir l'Atlantique. Au cours de la décennie qui précède la guerre, des microscopes électroniques sont aussi construits en Hollande, en Belgique, en Angleterre et à Toronto. Et en 1939 des images prouvent qu'une résolution ponctuelle de 10 nm est atteinte.
Figure II.5 Schéma du premier microscope électronique de Ruska
(document Akademia Leopoldina)
Mais il faut revenir à Berlin où à cette époque, il se passe beaucoup de choses. C'est ainsi que dans les laboratoires de la société Siemens et Halske, Bodo von Borries et Ernst Ruska construisent le premier "ultramicroscope" commercial. Les techniques de préparation d'échantillons minces se développent aussi peu à peu et des images de bactéries, de virus, de particules de carbone, de diatomées, encore un peu floues certes, sont réalisées. Les sombres prédictions de Gabor n'étaient pas vérifiées. Tout au long de la guerre, les progrès n'allaient cesser de part et d'autre de l'Atlantique. Différentes compagnies se lançaient dans l'aventure (Philips, R.C.A., Metropolitan Vickers) mais bien des résultats acquis à cette époque n'ont jamais été divulgués pour de bien compréhensibles secrets d'états.
En France, si quelques essais de réalisaion d'un microscope électronique sont dus à J.J. Trillat et R. Fritz en 1933, le premier instrument qui fonctionna réellement, un microscope à lentilles électrostatiques et non pas magnétiques comme celles utilisées en Allemagne, fut construit par Pierre Grivet pendant l'occupation. Au Japon et en U.R.S.S. les travaux ne démarreront réellement qu'après la guerre.
Revenons une dernière fois à Berlin dans les laboratoires Siemens en 1936. Le microscope électronique, décrit ci-dessus, n'est pas la seule voie explorée. On y rencontre Erwin Müller qui met au point le microscope à émission de champ: l'échantillon est préparé sous forme d'une pointe fine, un champ électrique intense est appliqué à son extrémité en la portant à un potentiel de quelques milliers de volts, on l'immerge dans une enceinte où le vide est poussé à ses limites et on recueille sur un écran phosphorescent situé en face une image représentative de la surface de la pointe, de ses symétries cristallines en particulier, avec une résolution de l'ordre de 10 nm aussi. Mais ceci est une autre histoire dont nous reparlerons ailleurs.
Ce qui nous concerne plus directement dans le présent volume, c'est le travail poursuivi dans une autre pièce par Max Knoll et Manfred von Ardenne. Ils y conçoivent et réalisent le prototype du microscope électronique à balayage. L'image y est construite point par point par déplacement d'une fine sonde d'électrons sur la surface de l'échantillon et par visualisation sur un tube cathodique d'un spot dont l'intensité est modulée par la grandeur d'un signal résultant de l'interaction entre la sonde et l'échantillon. Si il y eut bien pendant la guerre des travaux poursuivis dans la même direction aux laboratoires de R.C.A. aux U.S.A., il fallut attendre les travaux de Oatley à Cambridge en 1953 pour que le microscope à balayage naisse réellement et devienne l'instrument commercial que nous connaissons aujourd'hui.
Cette courte histoire de la microscopie électronique était essentiellement consacrée à ses balbutiements. Les progrès se sont poursuivis régulièrement après la guerre. Plusieurs compagnies se sont solidement implantées sur le marché et ont vendu en quatre décennies plusieurs dizaines de milliers d'appareils dans le monde, dont plus des deux-tiers sont des microscopes à balayage. En 1995, le marché est tenu surtout par des firmes européennes (Philips, Zeiss, Leica) et japonaises (JEOL, Hitachi) pour ne citer que les principales. Mais il me semble indispensable avant de clore cet historique de citer deux noms importants de la microscopie électronique de l'après-guerre. En France, Gaston Dupouy s'est fait l'apôtre de la microscopie à très haute tension pour l'examen d'échantillons plus épais. Il entreprend d'abord la construction d'un microscope pouvant fonctionner sous une tension d'un million de volts. En décembre 1960, il présente, en collaboration avec Frantz Perrier, les premières images acquises avec l'instrument installé dans la "boule" sur le campus du CNRS à Toulouse. Dans une seconde étape, il construira, dix ans plus tard, un microscope plus puissant encore, travaillant sous des tensions de 3 millions de volts, suivi dans cette voie par les japonais. Mais cette course aux hautes tensions est devenue très onéreuse, les instruments ont pris une dimension sans commune mesure avec les moyens normaux des laboratoires, les performances escomptées en termes de résolution n'ont pas suivi les espérances, quelques champs d'application bien spécifiques seulement continuent à être utilisés et vers la fin des années 1980, seules quelques machines de ce type restent opérationnelles dans le monde. Par contre au cours des dernières années, un renouveau de la microscopie à très haute tension a vu le jour. Les problèmes techniques qui n'avaient pas permis d'utiliser réellement la très courte longueur d'onde des instruments de la génération des années 1960-1970 pour améliorer la résolution, ont enfin été résolus. Cinq à six microscopes (de fabrication japonaise) fonctionnant sous 1 MV et destinés à des études de structures à très haute résolution (de l'ordre de 0.1 nm) ont été récemment implantés au Japon, le seul exemplaire non japonais étant acquis par le Max Planck Institut de Stuttgart.
Dans le domaine de la microscopie à balayage, c'est leur grande commodité d'utilisation, leur souplesse pour visualiser des champs d'extension très variable, l'étendue de leur profondeur de champ qui en font un outil indispensable pour visualiser la surface d'échantillons massifs très divers et en ont rapidement assuré le succès commercial en l'imposant comme un outil incontournable dans un grand nombre de laboratoires industriels en particulier. Mais en 1970, Albert Crewe, à l'Université de Chicago, réalise un microscope à balayage en transmission, combinant les techniques d'imagerie par trame de la microscopie à balayage et l'utilisation de signaux acquis après transmission des électrons à travers un échantillon préparé sous forme de lame mince. L'originalité de ce STEM (Scanning Transmission Electron Microscope) réside dans sa source d'électrons à effet de champ qui permet de focaliser le faisceau primaire d'électrons en une sonde de diamètre inférieur à 0.5 nm qui lui permet de visualiser pour la première fois des atomes isolés (lourds de préférence!) déposés sur un film très mince de carbone amorphe. Ce fut le point de départ d'une microscopie analytique à très haute résolution, à laquelle nous consacrerons un chapitre spécial (chapitre VI), dont le développement a été largement assuré par le relais commercial assuré par la firme britannique d'instrumentation scientifique Vacuum Generators, seule sur le marché depuis 1975 à proposer de tels microscopes STEM.
[1]Szilard : "Busch a montré comment réaliser des lentilles pour les électrons, de Broglie a montré qu'ils possédaient des longueurs d'onde inférieures à l'angströms. Pourquoi ne construisez-vous pas un microscope électronique, on pourrait voir les atomes avec !!"
Gabor : "Oui, j'en suis conscient. Mais on ne peut pas s'introduire dans la matière vivante dans le vide et tout se transformerait immédiatement en cendres sous le faisceau d'électron".
On peut classer les microscopes électroniques en plusieurs catégories suivant les critères choisis. Le premier concerne la géomètrie de l'échantillon. S'il s'agit d'un échantillon massif, on s'intéresse à des signaux issus de sa surface dans une géométrie en réflexion. L'autre solution consiste à étudier des échantillons préparés sous forme de lames minces et il s'agit alors d'une microscopie en transmission (voir tableau II.2).
Nature de l'échantillon |
Type de microscope |
Origine de l'information |
Massif |
Réflexion |
Surface ou faible profondeur |
Lame mince |
Transmission |
Intégée sur l'épaisseur |
Tableau II.2
La seconde classification est de type instrumental (voir tableau II.3).. On y distingue, selon les types d'images, les microscopes conventionnels, dont la conception dérive naturellement de celle des microscopes photoniques, et les microscopes à balayage dont l'origine s'inspire des systèmes de télévision. Dans le premier cas, on éclaire avec une famille de lentilles condenseurs une zone relativement étendue de l'échantillon et un système optique composé de plusieurs lentilles après l'échantillon (lentilles objectif, intermédiaire, projectif) en donne une image agrandie ou un cliché de diffraction. Dans le second cas un système d'éclairement focalise une sonde primaire en une sonde incidente sur l'échantillon et il n'existe pas d'optique après l'échantillon. C'est un jeu approprié de détecteurs et spectromètres (pour l'analyse) qui recueille les différents signaux consécutifs à l'interaction. L'image est obtenue au moyen d'un dispositif de balayage séquentiel de la sonde et d'une visualisation synchronisée des divers signaux recueillis.
Microscopie conventionnelle |
Microscopie à balayage |
Faisceau fixe + optique après l'échantillon |
Faisceau mobile (sonde) Optique focalisante d'éclairement + Détecteurs appropriés |
Images globales ou diffractions |
Images par balayage ou analyses locales |
Tableau II.3
En associant ces deux types de classification, on aboutit à quatre grandes familles de microscopes électroniques:
Parmi ces quatre catégories seules sont pratiquement utilisées aujourd'hui les catégories 1, 2 et 4 que nous allons discuter de façon détaillée dans les chapitres qui suivent. Signalons que pour associer les avantages des deux modes (Conventionnel et Balayage) pour l'étude en transmission des lames minces, il est apparu au cours des dernières années des optiques hybrides TEM/STEM qui associent les deux modes de fonctionnement sur le même instrument. Ceci n'a été rendu possible qu'au prix d'une complexité accrue de la colonne dans laquelle ont été introduites quelques lentilles supplémentaires.
En ce qui concerne la tension d'accélération usuelle, elle est de 10 à 30 kV pour les microscopes MEB, de 100 à 400 kV pour les microscopes MET (et de 100kV pour les microscopes MEBT). Les raisons du choix de ces tensions de fonctionnement seront explicitées ultérieurement quand on se penchera sur la compréhension des images (chapitre V).
[2] Les sigles anglais correspondent à :
Malgré leur diversité, les microscopes électroniques sont constitués d'un certain nombre de composantes communes : un ensemble de pompage destiné à assurer un vide convenable dans l'enceinte du microscope, une colonne d'optique électronique comprenant une source d'électrons, des lentilles électroniques, un ou plusieurs systèmes de détection, un étage porte-échantillon permettant l'introduction et les déplacements élémentaires du spécimen en cours d'observation et bien entendu tout l'environnement électrique, électronique et digital pour assurer le fonctionnement des éléments constitutifs du microscope, l'enregistrement et le traitement des résultats. Dans le présent chapitre, nous nous proposons de décrire les principaux éléments constitutifs des microscopes électroniques des dernières générations (1990-1995).
Le canon à électrons assure la production des électrons, leur accélération et délivre à l'entrée de la colonne du microscope un pinceau fin d'électrons plus ou moins divergent. Il s'agit donc d'un ensemble complexe devant remplir simultanément ces différentes fonctions. On peut le représenter comme une lentille électrostatique à plusieurs électrodes (voir figure III.1).
Fig III.1 Schéma de principe d'une source d'électrons
La source d'électrons, à proprement parler, est la cathode. Plusieurs mécanismes physiques peuvent être utilisés pour assurer l'extraction d'un flux d'électrons à partir d'une surface métallique constituant un réservoir (inépuisable) d'électrons :
- la température (T°C). En chauffant par effet Joule un filament de matériau réfractaire à suffisamment haute température, une faible fraction de ses électrons peuvent acquérir l'énergie nécessaire pour franchir le mur de potentiel qui les maintient dans le solide et être ainsi libérés dans le vide où le champ électrique accélérateur va les attirer vers les anodes. Pratiquement le filament de tungstène en forme de V porté à 2500°C a été pendant des décennies la source d'électrons habituellement utilisée. Dans cette catégorie des sources thermiques, la pointe en hexaborure de lanthane (LaB6) chauffée à 1500°C l'a supplanté au cours de ces dernières années, car elle délivre un flux de courant environ 30 fois supérieur à partir d'une zone émissive plus réduite.
- Cependant c'est l'utilisation d'un champ électrique intense (F exprimé en V/cm) qui constitue l'alternative la plus efficace pour disposer de flux d'électrons bien plus intenses. On utilise les propriétés des pointes à l'extrémité desquelles un champ très élevé de l'ordre de V/R est réalisé (V = différence de potentiel entre la cathode et l'anode d'extraction, R = rayon de la pointe à son extrémité). Pratiquement pour une pointe en tungstène de 100 nm de rayon, une différence de potentiel de 1000 volts permet d'obtenir les champs critiques de l'ordre de quelques 107 V/cm requis pour permettre l'émission d'électrons par effet de tunnel à travers le mur de potentiel qui les maintient dans la pointe. Une telle source délivre des flux d'électrons près de un million de fois supérieurs à ceux issus du filament en tungstène classique, semblant provenir d'une zone très petite située au voisinage du centre de la pointe (voir figure III.3).
Figure III.2 L'émission d'électrons à partir de la pointe dans une source à effet de champ.
On dit de ces nouvelles sources à effet de champ qu'elles sont bien plus lumineuses ou brillantes, et cette propriété permet en particulier de refocaliser ultérieurement le faisceau en une sonde très fine tout en y maintenant un courant important. Ce fut l'utilisation d'une telle source qui conduisit aux succès des microscopes analytiques de type STEM. Cependant, de telles performances requièrent des conditions de fonctionnement très particulières en termes de qualité du vide : en effet dès qu'un mince film moléculaire de gaz adsorbé les recouvre, le transfert d'électrons à travers la barrière tunnel ne s'effectue plus aussi bien et les propriétés émissives se dégradent très vite. Il faut donc maintenir la surface de la cathode dans un vide de l'ordre de quelques 10-14 pression atmosphérique (critère d'ultra-vide) pour leur assurer un régime d'émission stable.
- Au cours des dernières années, plusieurs solutions associant champ électrique intense et haute température sur des pointes métalliques, traitées thermiquement ou recouvertes d'oxydes, ont vu le jour et permettent d'envisager des sources aux propriétés compétitives avec celles de l'émission de champ pure (ou froide car fonctionnant à température ambiante) et n'étant pas aussi contraignantes en qualité de vide.
Le choix du processus d'émission conditionne les caractéristiques du flux d'électrons à la sortie de la surface de la cathode. Ce n'est que la première étape. Le canon doit aussi transformer ce flux d'électrons qui quittent la cathode avec une vitesse faible en un faisceau d'électrons accélérés et collimatés à l'entrée de la colonne. C'est la fonction des électrodes suivantes dont le rôle diffère suivant le type de source. Dans le cas de l'émission de champ, la première anode joue réellement la fonction d'extractrice d'électrons car c'est elle qui définit le champ électrique actif sur la surface de cathode. Elle est donc portée à un potentiel V1 de quelques kilovolts, positif par rapport à la cathode. Au contraire pour les sources thermiques, cette première électrode n'a qu'une fonction focalisante, elle est donc portée à un potentiel négatif de quelques centaines de volts par rapport à la cathode : on l'appelle alors électrode de wehnelt. Mais dans tous les cas, la seconde électrode est l'anode accélératrice : sa différence de potentiel V0 définit la tension de travail du microscope.
Pour les valeurs supérieures à 100 kV utilisées en microscopie à transmission, une telle tension ne peut être appliquée directement et un étage accélérateur en plusieurs étapes est requis. Finalement à la sortie du canon, tous les électrons pénétrant dans le microscope sont quasiment monochromatiques (avec une largeur énergétique variant de 0.3 à 2 eV suivant le type de source utilisée, les meilleures performances étant aussi obtenues pour les sources à effet de champ), ils sont accélérés sous la tension nominale de fonctionnement, ils proviennent d'un point virtuel, le cross-over de sortie du canon. C'est la distribution de courant au niveau de ce cross-over (courant total, section du faisceau) qui conditionne principalement les propriétés ultérieures du faisceau en particulier au niveau de l'échantillon.
Nous avons rencontré au niveau du canon une première famille de lentilles électroniques, une lentille électrostatique qui donne de la cathode une image au niveau du cross-over. Une lentille électrostatique agit sur le faisceau d'électrons par l'intermédiaire des forces de Coulomb exercées par des champs électriques sur les charges électriques. Une famille d'électrodes circulaires centrées le long d'un axe commun et portées à des tensions différentes constitue le système le plus simple. Mais il n'est guère très commode de les utiliser sous des tensions élevées (100 kV et plus) à cause des difficultés d'isolation. Les grandes variations de tension doivent être réalisées sur des distances interélectrodes aussi courtes que possible, et il en résulte des risques de claquage le long des porcelaines isolantes et d'amorçage d'étincelles détruisant irrémédiablement l'état de surface des lentilles.
Ce type de lentilles n'est donc plus utilisé de nos jours que dans le canon du microscope. Tout au long de la colonne, les trajectoires électroniques sont gouvernées par des lentilles magnétiques.
La loi régissant le mouvement d'un électron dans un champ magnétique est la loi de Lorentz :
$$\vec{F}=-e(\vec{v}\wedge \vec{B}) $$ (III.1)
Le produit vectoriel entre le vecteur vitesse des électrons ($\vec{v}$) et le champ magnétique ($\vec{B}$) signifie que la force résultante est constamment perpendiculaire à $\vec{v}$, donc à la trajectoire de l'électron. Elle produit un travail toujours nul et par conséquent ne modifie ni la grandeur de la vitesse, ni l'énergie de l'électron pendant la traversée du champ. Elle ne fait que courber sa trajectoire. Ceci différencie fondamentalement l'action d'un champ magnétique de celle d'un champ électrique.
Lorsque la vitesse initiale d'un électron est perpendiculaire à un champ magnétique uniforme, il y décrit un cercle de rayon R qui se calcule en exprimant que la force centrifuge est égale à la force exercée par le champ :
$$m\frac{v^2}{R}=evB\text{ où } R=\frac{mv}{eB}$$ (III.2)
Si ce champ n'agit que sur une longueur l, il en résulte une déviation a, telle que :
$$\alpha=\frac{eBl}{mv} $$(III.3)
Cette deviation dépend donc de la vitesse des électrons, et un champ magnétique uniforme perpendiculaire à la trajectoire des électrons se comporte donc comme un prisme. Cette propriété est utilisée pour mesurer les pertes d'énergie subies par les électrons à la traversée de l'échantillon, comme nous le décrirons au chapitre consacré à la microscopie analytique.
Un champ magnétique uniforme colinéaire avec la vitesse d'un électron ne modifie en rien la trajectoire car la force résultante est alors nulle. Par contre, si la vitesse des électrons est oblique par rapport aux lignes de force du champ, on peut la décomposer en une composante perpendiculaire à la direction du champ qui produit un mouvement circulaire et une composante parallèle qui n'est pas modifiée et conduit à une translation uniforme. La résultante en est donc un mouvement hélicoïdal.
Considérons d'abord le cas du mouvement d'un faisceau d'électrons dans une bobine longue (fig. III.3).
Figure III.3
Tous les électrons décrivent des trajectoires hélicoïdales s'enroulant sur différents cylindres, d'axes parallèles à celui de la bobine dont les rayons R dépendent de la composante radiale de la vitesse de chacun des électrons. Si en outre on peut considérer que tous les électrons accélérés initialement sous la même différence de potentiel (V) ont sensiblement la même vitesse longitudinale :
$$v=\sqrt{\frac{2e}{m}V}$$(III.4)
au bout d'un certain temps, $t=\frac{2\pi R}{v} $, ils ont décrit un tour des hélices et se retrouvent simultanément en un même point A' situé sur la génératrice commune à tous les cylindres. La distance est :
$$ L=vt=\frac{\pi}{B}\sqrt{8mV}{e} $$(III.5)
Le plan perpendiculaire au champ et contenant A' est plan image du plan contenant A, mais cette transformation se réduisant à une simple translation, le grandissement est égal à l'unité.
Pour réaliser une action focalisante, équivalente à celle exercée par une lentille de verre sur des rayons lumineux, il faut utiliser le champ de fuite existant aux extrémités d'une bobine courte (voir figure III.4).
Figure III.4 La distribution du champ magnétique dans une bobine courte.
Il apparaît alors une composante radiale dont l'effet, à l'entrée de la bobine, est de courber énergiquement la trajectoire des électrons, en la déviant perpendiculairement au plan méridien. Une fois ce mouvement amorcé, la vitesse comporte alors une composante transversale perpendiculaire à l'axe et l'action du champ longitudinal se manifeste par une force radiale qui rabat l'électron vers l'axe tout au long de la bobine. L'électron décrit ainsi une trajectoire curviligne complexe que l'on étudie généralement dans un plan méridien mobile qui suit l'électron dans son mouvement de rotation.
Le même effet du champ de fuite se retrouve à la sortie, la composante radiale du champ agit de nouveau et annule alors le mouvement de rotation hélicoïdale et la trajectoire de l'électron émergent redevient rectiligne pour recouper l'axe en A' (voir figure III.5).
La représentation des phénomènes peut être facilitée en supposant que le champ de la bobine s'exerce entre deux plans p et p'; l'effet de la composante radiale BR est alors instantané à la traversée de ces plans en dehors desquels elle est nulle. Il en résulte des points anguleux fictifs M et M' le long de la trajectoire. Mais cette représentation permet de découpler facilement les projections du mouvement dans un plan méridien et dans un plan perpendiculaire à l'axe de la bobine. On calcule ainsi simplement l'angle de rotation entre le plan objet et le plan image :
$$\theta=\sqrt{\frac{e}{8mv}}BL $$(III.6)
où L est la distance entre les plans p et p', sur laquelle s'exerce un champ magnétique axial uniforme égal à B, et dans le plan méridien la longueur focale est donnée par :
$$\frac{1}{f}=\frac{e}{8mV}B^2L$$(III.7)
équivalente à celle d'une lentille mince en optique conventionnelle. Dans un plan méridien, il est donc particulièrement commode de représenter les trajectoires des électrons au moyen de rayons obéissant aux lois de l'optique.
Figure III.5 Action rotatoire et focalisante du champ magnétique d'une bobine courte sur les trajectoires électroniques
Remarquons que l'angle de rotation est une fonction linéaire du champ, donc change de signe si la direction du champ est renversée. Par contre, la distance focale (f) et la convergence ($C=\frac{1}{f}$) sont des fonctions paires du champ donc sont positives quelle que soit la direction du champ. Il ne peut donc exister que des lentilles convergentes.
Pour obtenir des lentilles de courte distance focale, à fort pouvoir focalisant, il est donc nécessaire que la composante radiale du champ soit aussi grande que possible et, par conséquent, que le champ magnétique soit localisé dans une portion très réduite de l'espace. C'est ce qui a conduit à proposer une géométrie dans laquelle le champ magnétique est contenu à l'intérieur d'un faible volume de l'espace dans l'entrefer d'une pièce polaire en fer doux d'un électro-aimant (voir figure III.7).
Figure III.6 Le champ magnétique dans une lentille magnétique
Dans une telle géométrie, l'intensité du champ est proportionnelle au nombre d'ampères-tours NI de la bobine et la convergence de la lentille est donc proportionnelle à $\frac{N^2I^2}{V^*}$ où NI est le produit du nombre de tours de fil par l'intensité qui les parcourt, V* est la valeur de la tension corrigée pour les effets relativistes. Le facteur $K=\frac{N^2I^2}{V^*}$ qui joue donc un rôle fondamental dans le fonctionnement des lentilles magnétiques est appelé facteur d'excitation. Si le nombre de spires est fixé par construction, on peut modifier continûment par le jeu de potentiomètres sur le circuit électrique qui les alimente, le courant circulant dans le bobinage et par conséquent faire varier à volonté leur distance focale. Ceci confère à un montage d'optique électronique magnétique une très grande souplesse d'emploi, par rapport aux lentilles de l'optique conventionnelle dont la distance focale est fixée par construction.
Parmi les différentes lentilles qui se succèdent le long de la colonne du microscope, on distingue : (i) les lentilles condenseur qui assurent le transfert du faisceau d'électrons entre la source et l'échantillon et qui sont donc responsables des conditions d'éclairement ; (ii) la lentille objectif dans l'entrefer de laquelle est immergé, en général, l'échantillon. C'est elle qui en donne la première image agrandie ou un diagramme de diffraction dans un plan focal. Ce sont aussi ses caractéristiques qui contrôlent les performances ultimes du microscope et sa description mérite un paragraphe tout particulier ; (iii) les lentilles intermédiaires et projectifs qui reprennent plusieurs fois l'image (ou le cliché de diffraction) délivrée par l'objectif, en l'agrandissant en plusieurs étapes afin de la visualiser sur l'écran d'observation ou tout autre détecteur placé à l'extrémité de la colonne du microscope.
La lentille objectif est donc vraiment l'élément central du microscope électronique. C'est de la réussite de son étude et de la perfection de sa réalisation que dépend en grande partie la qualité des résultats.
C'est une lentille de courte distance focale, entre 1 et 3 mm qui donne de l'objet une image agrandie plusieurs dizaines de fois. Dans les nouvelles configurations, l'échantillon est situé dans la zone de champ intense entre les pièces polaires, voire même au centre symétrique de la lentille dans les configurations dites "twin" introduites voici presque vingt ans par la société Philips. La figure III.8 montre quelques géométries d'entrefer et de position de l'échantillon rencontrées sur les microscopes les plus modernes.
Figure III.7 Schémas de pièce polaire pour un objectif électronique moderne (d'après un document Topcon)
Une telle lentille parfaite donnerait d'un point objet sur l'échantillon une image elle aussi ponctuelle. Mais ce n'est pas le cas : de façon tout à fait semblable à un objectif de microscope photonique, l'objectif du microscope électronique présente lui aussi des défauts et même à une échelle telle que son pouvoir de résolution est loin d'être comparable à la longueur d'onde du rayonnement. Il nous faut décrire de façon plus complète le rôle et la nature des aberrations de la lentille objectif.
Comme l'électron se comporte aussi comme une onde, le premier obstacle est le phénomène de diffraction par une ouverture de taille finie, de même que pour les lentilles de l'optique photonique. La lentille objectif fournit d'un point objet une image, la tache d'Airy, dont le diamètre (dd) rapporté au niveau de l'échantillon, est égal à $1.22\cdot\frac{\lambda}{\alpha}$. Cet élargissement est proportionnel à la longueur d'onde, et par conséquent on imagine clairement tout l'intérêt de travailler avec des électrons de plus en plus accélérés, possédant des longueurs d'ondes de plus en plus courtes. Par contre le demi-angle d'ouverture (a) de la lentille doit être aussi large que possible.
C'est là que réside toute la différence avec les lentilles de l'optique lumineuse. En effet, la principale cause de dégradation de la focalisation d'une lentille magnétique est l'aberration sphérique (ou d'ouverture). Les rayons marginaux convergent plus rapidement que les rayons para-axiaux (voir figure III.8).
Figure III.8 Définition de l'aberration d'ouverture
Si on représente la lentille par un schéma de lentille mince, l'objet sur l'échantillon est en O, les rayons issus de cet objet sont interceptés par un diaphragme d'ouverture (ou de contraste) à l'entrée de la lentille et seuls ceux contenus dans un cône de demi-angle d'ouverture a pénètrent dans l'objectif. L'image exacte de O au voisinage du plan O', conjugué de O, dépend en fait de la position exacte de l'écran d'observation. Selon cette abscisse, l'image présente plusieurs formes, mais de toutes façons même au niveau de la meilleure focalisation (au niveau du disque de moindre confusion), le rayon en reste fini et est proportionnel au cube de l'ouverture de la lentille. Rapporté au niveau de l'objet, ce rayon (rs) de la tache d'aberration sphérique est égal à :
$$r_s=\frac{1}{4}C_s \alpha^3 $$(III.8)
où Cs est le coefficient d'aberration sphérique exprimé en mm. Les études détaillées montrent qu'il varie de façon assez semblable à la distance focale et doit être aussi faible que possible pour améliorer la résolution. Pour un Cs de 1 mm, tout à fait réalisable avec un microscope moderne, on montre que le rayon de la tache d'aberration sphérique est égal à 0,1 nm lorsque a est de l'ordre de 7,5 milliradians. Le domaine des ouvertures angulaires utilisables pour obtenir une résolution comparable aux distances interatomiques dans un solide est donc très restreint, inférieur au centième de radian ou 0,5° d'angle.
Parmi les autres aberrations jouant un rôle important au niveau de l'objectif, citons :
(i) l'aberration chromatique :
La distance focale d'une lentille et par conséquent son pouvoir focalisant dépendent à la fois du champ magnétique H le long de l'axe, selon une loi en H2, et de la tension relativiste des électrons, selon une loi en V*. Il en résulte que tout écart à la monochromaticité du faisceau d'électrons induisant une fluctuation DV sur le potentiel ou toute variation du courant dans le bobinage des lentilles imposé par des instabilités DI, entraînent une dispersion des trajectoires électroniques et un flou de focalisation. On montre que l'élargissement correspondant de la tache image de l'objet varie comme:
$$ r_c=C_c \alpha\left( 2 \left( \frac{\Delta I}{I} \right)^2 + \left( \frac{\Delta V}{V} \right)^2 \right)^{1/2}$$
(III.9)
où Cc est le coefficient d'aberration sphérique exprimé en mm et a la demi-ouverture angulaire de la lentille objectif. Si les stabilités des courants des lentilles et des tensions d'accélération, ($\Delta I$) et ($\Delta V$) respectivement, sont de l'ordre de la p.p.m. dans les instruments les plus modernes, la largeur énergétique naturelle de l'émission au niveau de la cathode du canon ne peut être négligée : à ce titre les sources à effet de champ réduisent le flou chromatique par un facteur de l'ordre de 3 à 5 par rapport aux sources thermiques. En outre, lorsque l'action de l'objectif s'exerce sur les trajectoires électroniques après la traversée de l'échantillon, il faut aussi prendre en considération le rôle néfaste des pertes d'énergie qui élargissent considérablement la distribution énergétique des électrons (de l'ordre de plusieurs dizaines d'eV pour un échantillon d'une centaine de nm d'épaisseur). Dans ce cas, l'image formée par les électrons inélastiques est défocalisée sensiblement par rapport à l'image élastique et y contribue par un fond d'intensité relativement étalé, réduisant ainsi les contrastes observables. Pour cette raison, l'importance d'incorporer un filtre d'énergie a été démontrée depuis plus de trente ans (travaux de R. Castaing et de ses collaborateurs à Orsay) mais n'a été vraiment admise par la communauté des utilisateurs de microscopes électroniques à transmission qu'au cours de la dernière décennie : le filtrage d'énergie des électrons transmis constitue une étape indispensable dans toute tentative de microscopie électronique quantitative, sans oublier son rôle en microscopie analytique comme il le sera démontré au chapitre VI.
(ii) l'aberration d'ellipticité, ou astigmatisme.
Elle résulte des défauts de symétrie de révolution dans l'objectif, qui ont pour conséquence d'imposer une distance focale différente en fonction de la direction azimuthale. L'origine de cet astigmatisme peut provenir d'un défaut d'usinage ou d'inhomogénéités dans les propriétés magnétiques du métal employé. Son importance varie aussi en fonction d'une contamination éventuelle des surfaces et des diaphragmes. Mais, pratiquement, il ne constitue pas un défaut insurmontable, contrairement à ce qu'il était dans les années héroïques de la microscopie électronique. On sait maintenant réaliser et introduire à l'intérieur de la lentille objectif des correcteurs d'astigmatisme. Le principe en est simple : créer au moyen de petites bobines un champ équivalent à une faible lentille cylindrique de convergence et de distribution azimuthale réglables de façon à compenser les défauts de la lentille principale.
(iii) Les autres aberrations de coma, de courbure de champ, de distorsion n'interviennent qu'au second ordre ou pour les lentilles de projection.
(iv) Par contre, on peut aussi classer parmi les aberrations ou défauts de la lentille, même si cette dernière est parfaite, l'erreur de mise au point, ou défocalisation, qui se définit comme la distance Dz, le long de l'axe du microscope, entre le plan de l'échantillon et le plan conjugué à travers la lentille objectif du plan imagé sur l'écran final (plan gaussien) - cf. figure III.9.
Figure III.9 Définition du défaut de mise au point ou défocalisation.
Par convention, on dit que l'objectif travaille dans un mode surfocalisé, lorsque Dz > 0, c'est-à-dire lorsque le plan gaussien est situé entre l'échantillon et la lentille, et en mode sousfocalisé, lorsque Dz < 0, c'est-à-dire lorsque le plan gaussien est situé en dehors de la zone spécimen-lentille. Il est important de souligner que cette défocalisation, en microscopie électronique, constitue un paramètre maîtrisable permettant en particulier de compenser partiellement le défaut d'aberration sphérique. En effet, une variation continue du courant circulant dans le bobinage de la lentille permet de faire varier à volonté la distance focale, selon la loi :
$$\frac{\Delta f}{f}=\frac{2 \Delta I}{I} $$ (III.10)
Si on estime que les plus petites variations significatives du courant sont de l'ordre de 2 à 3 fois 10-6, il en résulte que des variations contrôlables de Df (de l'ordre de Dz dans le mode de fonctionnement à fort grandissement, 50 ou 100, d'une lentille objectif) de l'ordre de $5\times 10^{-6}5$ f peuvent être réalisées, soit 5 nm pour une lentille de 1 mm de distance focale.
Nous possédons maintenant tous les éléments nécessaires pour évaluer le pouvoir de résolution imposé par les caractéristiques de fonctionnement de la lentille objectif.
La première approche consiste à additionner les différents effets d'élargissement de l'image d'un point objet. Si on suppose qu'il n'existe aucune corrélation entre ces différentes aberrations, on peut les ajouter de façon quadratique. Bien entendu la largeur de l'image dépend des conditions de focalisation. Dans les conditions optimales de l'optique géométrique, c'est-à-dire au niveau du disque de moindre confusion de la figure III.9, on peut calculer, en ne retenant que les termes principaux de diffraction et d'aberration sphérique :
$$d_t^2=(d_s^2+d_d^2)^{1/2}=\left[ \left( \frac{1.22 \lambda}{\alpha} \right)^2 + \left( \frac{1}{2} C_s \alpha^3 \right)^2 \right]^{1/2}$$
(III.11)
Pour les microscopes modernes dont l'électronique est bien stabilisée, avec un faisceau bien monochromatique, et en ne considérant que la contribution élastique à l'image, on montre que le terme d'aberration chromatique est assez sensiblement inférieur aux deux précédents.
De l'équation (III.11) ci-dessus, on déduit qu'il existe un angle d'ouverture optimum aopt, compromis entre les lois de variation de la diffraction, réclamant un angle a grand et de l'aberration sphérique réclamant une faible ouverture a. On calcule donc :
$$\alpha_{\text{opt}}=1.14 \times \left(C_s \lambda^3\right)^{1/4} $$
et
$$d_{\text{opt}}=0.43 \times \left(C_s \lambda^3\right)^{1/4} $$
(III.12)
ce qui correspond pour un excellent microscope moderne (Vo = 200 kV, l = 2,51 pm, Cs = 0,4 mm) à :
$$\alpha_{\text{opt}}=10^{-2} \text{rad} $$
$$d_{\text{opt}}=0.13 nm $$
On vérifie donc qu'avec les ouvertures utilisées de l'ordre de 10-2 radian, le pouvoir de résolution peut être inférieur à 0.2 nm, c'est-à-dire à la distance typique séparant deux atomes dans un solide.
Une autre façon très utile de mesurer la qualité de l'observation fournie par un système optique est la fonction de transfert de contraste schématisée par la figure II.4 dans le cas de la microscopie photonique. Il s'agit d'une fonction reliant le contraste dans une image à la fréquence spatiale ($\nu=1/d), où d est la période caractéristique de l'objet. Lorsque nous avons introduit cette fonction, nous l'avions utilisée pour décrire l'image de lignes de mire parallèles avec un espacement (p). On comprend aisément que ce concept puisse ainsi s'étendre à toute image bidimensionnelle. Il est donc particulièrement intéressant de calculer de telles fonctions pour les lentilles de l'optique électronique. La théorie complète pour calculer cette relation dépend non seulement des propriétés de l'objectif mais aussi de l'importance de l'interaction entre le faisceau et l'échantillon. En résumé on montre que, dans le cas dit de l'objet de phase faible (voir le chapitre V), cette fonction de transfert de contraste s'écrit :
$$ T(\nu)=-2\sin \chi (\nu) $$ (III.13)
avec
$$\chi(\nu) = 2\pi \left( C_s \frac{\lambda^3 \nu^4}{4}+ \Delta z \cdot \lambda \frac{\nu^2}{2} \right) $$(III.14)
où on reconnaît les paramètres importants l, Cs et Dz introduits dans la description ci-dessus. La figure III.10 montre la fonction de transfert de contraste pour le microscope moderne déjà mentionné ci-dessus.
a) Pouvoir de résolution optimum
b) Limite de résolution de l'information
Figures III.10a et III.10b Fonctions de transfert calculées à la défocalisation de Scherzer pour un microscope électronique à haute résolution. a) cohérente b) avec effet de cohérence partielle spatiale et temporelle. Calculs effectués pour un microscope Topcon 002B
La fonction de transfert de contraste oscille avec des valeurs positives, négatives et nulles. Cela signifie que pour certaines distances, les objets (atomes ou colonnes atomiques parallèles au faisceau) ne sont pas visibles ou bien apparaissent avec des contrastes renversés (points blancs ou noirs). Ces courbes dépendent bien évidemment de la défocalisation et celle présentée sur la figure III.10a correspond à la défocalisation dite de Scherzer (Dz = 42 nm) pour laquelle on obtient la plus large bande de fréquence spatiale à contraste stable. Dans ce cas le pouvoir de résolution optimum correspond au premier zéro de la fonction de transfert. Au-delà de cette valeur, une information oscillante est encore transférée. Mais dans le cas réel où on introduit aussi le terme d'aberration chromatique une fonction enveloppe vient se superposer à la fonction précédente et amortit rapidement le contraste au-delà de cette valeur (voir figure III.10b). Pour comparer les propriétés de différents microscopes, la connaissance de ces fonctions de transfert constitue un moyen d'évaluation plus élaboré que la connaissance des valeurs de dopt déduites de l'équation III.12.
La nature des détecteurs utilisés en microscopie électronique dépend du type d'instrument, selon la classification introduite à la fin du chapitre II (transmission ou réflexion, conventionnel ou balayage).
i) L'interaction du faisceau d'électrons primaires avec l'échantillon produit une cascade d'évènements. Le signal utile et caractéristique peut donc se présenter sous des formes très variables. Dans le cas de la microscopie à transmission, le faisceau se propage après l'échantillon dans le prolongement de la direction incidente avec une énergie très peu différente de l'énergie primaire. Par conséquent, il faut alors détecter et mesurer des électrons de haute énergie (proche de l'énergie initiale, soit de 100 kV à 1 MV). Au contraire, lorsqu'il s'agit d'un microscope destiné à étudier la surface d'un échantillon massif (microscopie à balayage) les électrons qui sont réémis par la surface présentent une très large distribution énergétique (voir aussi la fig. V.12 plus loin). Certains, dits rétrodiffusés, possèdent une énergie proche de l'énergie primaire (c'est-à-dire entre quelques kV et quelques dizaines de kV). D'autres, dits secondaires, sont le résultat final d'une séquence de collisions qui ont conduit au ralentissement complet des électrons incidents dans la cible : ces électrons secondaires proviennent de la population d'électrons du solide et sont émis avec une énergie cinétique très faible (de l'ordre de quelques eV). Les détecteurs du microscope à balayage doivent alors être conçus pour mesurer deux types de flux d'électrons de haute et de faible énergie.
Comme déjà mentionné, à la fonction "mesure d'un courant d'électrons", il est utile d'associer la fonction "discrimination en énergie" à des fins d'analyse ou de filtrage. C'est le rôle de spectromètres, fonctionnant en analyseurs ou en filtres qui sont introduits sur la trajectoire des électrons entre la face de sortie de l'échantillon et le détecteur lui-même. Nous reviendrons ultérieurement sur leur conception et fonctionnement. De la même façon, il existe d'autres signaux produits par les interactions électron-matière : les rayonnements lumineux ou photons générés au cours des transitions électroniques qui se produisent à l'intérieur du solide pour évacuer une partie de l'énergie qui y a été déposée par le faisceau primaire. La longueur d'onde de ces photons couvre une vaste gamme spectrale depuis le visible jusqu'au domaine X. Il est donc utile, à des fins analytiques, de recueillir aussi ces photons émis par l'échantillon et éventuellement de mesurer leur énergie.
ii) Dans un mode conventionnel, il existe une relation directe au moyen d'une optique d'imagerie entre chaque point de l'échantillon et un point équivalent sur le détecteur. Celui-ci doit donc être un détecteur à localisation bimensionnelle (2D). Par contre, en mode balayage, la localisation spatiale de l'information sur l'échantillon est réalisée au moyen d'une trame de balayage séquentielle au cours de laquelle un point de coordonnées (X,Y) est illuminé à l'instant t. Dans ce cas, un détecteur simple sans localisation (0D) suffit.
Afin de satisfaire ces différents critères, plusieurs types de détecteurs sont donc utilisés. Les mécanismes physiques à la base de leur fonctionnement impliquent tous un transfert d'énergie entre la particule à détecter et le matériau du détecteur : production de paires électrons-trous dans un semiconducteur et mesure du courant associé, émission de photons par un milieu luminescent, élévation de température, réaction chimique.
Dans la pratique, les systèmes d'acquisition et d'enregistrement des images ou des signaux les plus fréquemment rencontrés sont donc les suivants :
a) Pour la microscopie à transmission :
- L'écran fluorescent d'observation au bas de la colonne, constitué d'une poudre, phosphorescente qui réémet de la lumière dans la gamme jaune-vert sous l'impact des électrons. L'expérimentateur l'observe directement à l'oeil nu ou au moyen d'une loupe binoculaire à travers un hublot (verre ou plomb) suffisamment épais pour arrêter toute émission de rayons X qui pourrait être dangereuse.
- L'émulsion photographique constitue depuis plusieurs décennies le support le plus largement utilisé. Un seul électron de 100 kV est suffisant pour créer l'image latente (agrégation de quelques atomes de métal d'argent dans les cristaux de bromure d'argent noyés dans le film de gélatine), que le révélateur transforme ultérieurement en grains d'argent. L'émulsion traitée est plus ou moins opaque suivant la quantité de rayonnement à laquelle elle a été exposée. Il existe un domaine d'exposition sur lequel le noircissement du film (ou densité optique) est proportionnel au flux d'électrons incidents (de 10-11 C/cm2 à 10-10 C/cm2). Le principal avantage de l'enregistrement par plaque photographique réside dans sa très grande capacité de stockage. Si on estime à 50 µm la résolution sur l'émulsion, il en résulte qu'un film 6 ¥ 9 cm peut contenir l'équivalent de plusieurs millions d'éléments images (ou pixels) différents. Par contre la gamme dynamique des intensités mesurables entre les faibles doses qui ne produisent que du bruit et les fortes doses conduisant à saturation, n'est que de deux à trois ordres de grandeur, ce qui réduit sensiblement leur utilisation à des fins quantitatives. De toutes façons, pour avoir accès à une information quantitative, il est nécessaire d'avoir recours à un système de digitalisation a posteriori de l'image révélée et fixée, au moyen d'un microdensitomètre ou d'une caméra de télévision.
- Un grand effort a donc été accompli au cours des dernières années pour équiper les microscopes les plus récents de nouveaux moyens de détection plus quantitatifs et, si possible, interfacés directement à l'ordinateur destiné à assurer le stockage et le traitement numérique des données. Les tubes électroniques ont ainsi connu un certain succès en couplant la face d'entrée d'une caméra TV à la face arrière d'un scintillateur utilisé comme convertisseur électrons-photons. Dans certains cas, un ou plusieurs étages intensificateurs sont intégrés ou ajoutés de façon à améliorer la sensibilité de détection, qui a pu atteindre la détection de l'électron incident unique dans les cas extrêmes.
Cependant, la tendance la plus récente est de faire appel aux réseaux de détecteurs semiconducteurs que la technologie moderne sait réaliser sous forme de matrices de 512 ¥ 512 et même 1024 ¥ 1024 éléments avec une distance de l'ordre de 25 µm centre à centre (voir figure III.11a). Il s'agit de photodiodes associées à des puits de potentiel pour le stockage des charges induites.
On distingue dans la pratique les détecteurs de type CCD (charge coupled devices) dans lesquels la lecture se fait par transfert de charge et registre à décalage et les détecteurs de type PDA ("photodiode arrays" ou réseau de photodiodes) où la lecture à décalage s'effectue par commutation.
Figure III.11 a - Schéma de principe d'un détecteur semi-conducteur bidimensionnel, b - réalisation d'une caméra CCD pour microscope TEM (d'après un document Gatan).
Dans la pratique, un système tel que celui présenté dans la figure III.11b, à couplage indirect (scintillateur en grenat d'yttrium-aluminium - YAG -, couplage par réseau de fibres optiques, réseau de diodes refroidi par effet Peltier) permet de lire plusieurs images $512 \times 512$ par seconde avec une sensibilité correcte (5 e-/pixel), une gamme dynamique de 5000 et une résolution de l'ordre de 50 µm. Ceci constitue déjà un excellent compromis pour l'enregistrement quantitatif d'images ou de clichés de diffraction. L'interactivité entre le microscope et l'ordinateur est devenue si efficace à travers un tel système d'acquisition des données qu'il devient peu à peu possible de confier à l'ordinateur les fonctions de focalisation et d'alignement du microscope. Tous les traitements mathématiques nécessaires pour contrôler la qualité de l'image en fonction des différents paramètres accessibles (courant dans la lentille d'objectif ou dans les correcteurs d'astigmatisme), peuvent être d'ores et déjà effectués quasiment en temps réel.
b) Pour la microscopie à balayage :
Deux grandes familles de détecteurs sans localisation sont actuellement en pratique :
avec pour les premiers une gamme dynamique qui en mode analogique peut s'étendre jusqu'à des valeurs de 108 e-/s, et pour le second une grande efficacité de détection aux faibles courants et une souplesse plus large d'utilisation dans des géométries variées.
Dans les deux cas, le signal généré par le détecteur est immédiatement converti en signal numérique et transféré vers l'unité de calcul. Par sa conception même, tout microscope à balayage (qu'il soit en réflexion ou en transmission) est naturellement adapté à la numérisation des données, car il permet de mesurer à travers un ou plusieurs détecteurs, un ou plusieurs signaux dépendant du temps.
Tous les éléments constitutifs d'un microscope électronique ont été décrits : la source d'électrons, les lentilles magnétiques, dont l'objectif qui gouverne les performances optiques ultimes de l'appareil et le système d'observation et d'enregistrement des images. La figure III.12 présente une coupe d'un microscope moderne où tous ces composants sont associés pour constituer une colonne étanche au vide et mécaniquement stable. Mais le plus important reste à faire : introduire et situer l'échantillon au bon endroit dans cet ensemble.
Figure III.12 Coupe d'une colonne de microscope électronique à transmission (d'après un document JEOL)
Cet emplacement est situé dans l'entrefer de la lentille objectif, dans une position en général proche de son centre. L'échantillon, préparé sous forme de lame mince, doit être contenu à l'intérieur d'un disque ou d'une grille de 3 mm de diamètre : ceci constitue un standard pour tous les microscopes actuellement sur le marché. La contrainte essentielle consiste à rendre compatibles tous les mouvements mécaniques à exercer sur l'échantillon (déplacements horizontaux, éventuellement vertical, et inclinaison par rapport à la direction des électrons incidents) à l'intérieur d'un volume global disponible d'autant plus restreint que la lentille objectif est de forte convergence, avec une distance focale courte et un faible coefficient d'aberration sphérique.
De plus, le spécimen doit être introduit de l'extérieur vers l'intérieur de cette enceinte dont le vide doit être aussi élevé que possible et dont les surfaces en regard de l'échantillon doivent être très propres afin d'éviter toute contamination des surfaces à observer par des molécules organiques extérieures au spécimen. Il est donc nécessaire de prévoir un sas d'entrée avec un système de pompage indépendant pour permettre ce transfert.
Figure III.13 Le porte échantillon d'un microscope électronique à transmission
Deux géométries ont été utilisées pour réaliser cette introduction de l'échantillon vers sa position d'observation : selon une direction coïncidant avec l'axe du microscope (et on parle de porte-objet de type "top" - "ou "bottom-entry") ou directement à travers la paroi latérale du microscope selon une direction perpendiculaire à l'axe de l'instrument (il s'agit alors d'un porte-objet de type "side-entry"). Cette seconde solution est de nos jours favorisée car elle est plus adaptée à une manipulation simple de l'échantillon. La figure III.13 présente le schéma de principe d'un tel porte-échantillon. Le spécimen est situé à l'extrémité d'une tige globalement cylindrique. L'inclinaison du plan de l'échantillon autour de cet axe est très facile à réaliser. Les déplacements latéraux en X et Y avec une course totale comprise entre 2 et 3 mm dans chaque direction s'exécutent au moyen d'un jeu de soufflets, de ressorts et de rotules. L'inclinaison selon un axe perpendiculaire à la direction d'introduction requiert un système de micro-mécanique plus complexe inséré dans l'extrémité de la canne porte-échantillon.
Lorsqu'on désire examiner un échantillon avec des grandissements supérieurs à plusieurs centaines de mille, dans des conditions adaptées à la résolution de colonnes atomiques, on conçoit que des critères très stricts de stabilité mécanique (rigidité échantillon-colonne par exemple) doivent être observés afin que les vibrations, déplacements erratiques soient réduits au minimum tolérable. Ceci implique un couplage rigide entre l'échantillon et la colonne et, au contraire, un découplage entre cet ensemble et le milieu externe afin de réduire l'importance des vibrations qui pourraient en émaner. En outre, on est souvent amené à chercher la meilleure orientation par rapport à l'axe des électrons, favorisant l'observation d'un détail ou d'un défaut particulier. Ceci est réalisé grâce à une platine goniométrique, si possible eucentrique, dans laquelle l'axe d'inclinaison passe par le point observé de l'échantillon.
Ceci conduit donc à la construction d'ensembles mécaniques perfectionnés, afin que l'expérimentateur puisse retrouver rapidement toutes les coordonnées et conditions d'une observation. La reproductibilité des mouvements est désormais telle que les conditions de fonctionnement des moteurs qui en sont responsables sont mémorisées dans un ordinateur et directement accessibles.
La géométrie consistant à placer l'échantillon à l'extrémité d'une canne porte-spécimen présente d'autres avantages. En particulier, il est plus aisé dans cette configuration d'implanter au voisinage immédiat de la zone observable divers systèmes de circulation de fluide cryogénique, de chauffage, de traction, de déformation, qui offrent des possibilités tout à fait originales d'observation du comportement de la matière sous température variable, sous contrainte externe. Ces possibilités sont amenées à conférer au microscope électronique une vocation de "mini-laboratoire" dans lequel non seulement on observe et on mesure à l'échelle du nano- ou micromètre, mais aussi on peut agir et réaliser des expériences originales.
Le microscope électronique à balayage se distingue de plusieurs façons de l'instrument conventionnel. La colonne d'optique électronique à proprement parler y est plus réduite et simplifiée avec uniquement un ensemble de lentilles condenseur et objectif situées entre la source d'électrons et l'échantillon. Il faut cependant y ajouter entre les deux lentilles un système de bobines à balayage constituées de déflecteurs électromagnétiques. Son rôle est de déplacer la sonde d'électrons sur la surface de l'échantillon, selon une trame bien définie, obéissant à un standard télévision ou à toute une gamme de balayages réduits ou plus lents.
Fig. III.14 Schéma d'une colonne de microscope électronique à balayage (d'après les document JEOL)
Contrairement au microscope à transmission, l'échantillon est généralement situé en dehors des pièces polaires de la dernière lentille d'éclairement, dont le rôle est de focaliser le faisceau à une certaine distance (de quelques mm à quelques cm) en avant de la dernière pièce polaire. Par conséquent, il est relativement aisé de concevoir des porte-objets goniométriques permettant l'introduction d'échantillons de grande taille (plusieurs cm) et offrant une vaste plage de déplacements horizontaux, verticaux et d'inclinaisons adaptés à l'examen tridimensionnel de topographies complexes.
Les différents détecteurs pour capter les flux d'électrons rétrodiffusés ou secondaires sont aussi situés dans la chambre porte-échantillon, directement en regard de la surface à observer : le premier est généralement constitué d'un ou plusieurs cristaux semiconducteurs situés sous la face inférieure de la pièce polaire de l'objectif ; le second est introduit latéralement et une tension positive est appliquée sur le collecteur, afin de recueillir sur la face d'entrée du scintillateur la grande majorité des électrons lents secondaires réémis par la surface (cf. fig. III.15).
Fig. III.15 Les détecteurs pour électrons secondaires et retrodiffusés émis à partir d'une cible massive et utilisés en microscopie électronique à balayage en réflexion.
L'image finale est restituée sur un ou plusieurs moniteurs extérieurs dont la trame de balayage est synchronisée avec celle du balayage de la sonde sur l'échantillon, et dont la luminosité du spot est modulée électroniquement par l'intensité des différents signaux captés par les détecteurs à l'intérieur de la chambre échantillon. Comme la génération de cette image finale repose sur un certain nombre de circuits électroniques, on conçoit que de nombreuses possibilités de manipulation analogique ou digitale du signal puissent être facilement implantées à ce niveau.
Par exemple, il est aisé d'agir sur le contraste d'une image en jouant sur le niveau du zéro et sur la gamme des intensités (linéaire, logarithmique, ...), de l'inverser, de la dilater... Toutes ces possibilités permettent non seulement d'optimiser la perception visuelle finale en fonction des signaux délivrés, mais aussi d'adapter des processus plus complexes de filtrage, ou de mélange de signaux conduisant à une perception accrue de l'information générée.
Vis à vis de la diversité des matériaux à observer, des observations recherchées, des outils utilisés, il est évident que la préparation des échantillons destinés à l'examen par microscopie électronique peut emprunter des voies très variées. Nous allons identifier dans un premier temps les contraintes générales avant de présenter une sélection de techniques utilisables selon qu'on s'intéresse à des substances organiques ou inorganiques.
Quel que soit le type de microscope utilisé, l'observation se déroule sous vide et sous l'impact d'un faisceau d'électrons. Il en résulte une double contrainte :
i) la morphologie et la structure doivent être préservées afin que l'examen apporte des informations significatives;
ii) l'échantillon ne doit pas subir une évolution irréversible sous l'action du faisceau primaire, ce qui signifie en particulier absence d'effets de charge électrique sur les surfaces ou réduction des dégâts d'irradiation dans le matériau lui-même.
Enfin, selon la catégorie d'instruments, on s'intéresse soit à la surface d'échantillons massifs (dans les microscopes à balayage en réflexion), soit à des lames minces (dans les microscopes à transmission). La zone génératrice de l'information dépend à la fois des paramètres du faisceau primaire (tension d'accélération, dimensions latérales...) et des mécanismes d'interaction entre les électrons et le matériau étudié, sur lesquels nous reviendrons de façon détaillée au cours du prochain chapitre.
A ce niveau, il est seulement nécessaire de rappeler que dans une géométrie par réflexion, les électrons transportant le signal utile sont issus d'une épaisseur superficielle variant du nanomètre (pour les électrons secondaires) à quelques centaines ou milliers de nanomètres (pour les électrons rétrodiffusés). Au contraire dans la géométrie à transmission qui est particulièrement adaptée à l'étude à très haute résolution des propriétés internes du solide, les échantillons doivent être suffisamment minces pour que les électrons transmis y subissent un nombre réduit d'interactions. Et que, par conséquent, le faisceau transmis conserve un degré satisfaisant de collimation et une dispersion énergétique réduite afin de produire sur l'écran ou le détecteur une image finale de bonne qualité. Il n'existe pas de critère simple de définition d'une épaisseur critique, celle-ci dépendant de l'information et de la résolution recherchée. En général, on admet que cette épaisseur est de l'ordre de quelques dizaines à quelques centaines de nanomètres pour des électrons d'énergie primaire 100 ou 200 keV. Pour des électrons de plus haute énergie, la pénétration est accrue et on peut obtenir des images nettes avec des échantillons d'épaisseur micrométrique. Ceci a constitué un des grands succès des microscopes fonctionnant sous des tensions de 1,2 et 3 MV, construits à Toulouse sous l'impulsion de G. Dupouy.
En résumé, l'observation par MEB requiert une surface propre, dont la morphologie a été préservée au cours de la préparation et peu sensible aux effets de charge. A l'opposé, le TEM nécessite des échantillons préparés sous forme de lames minces, résistantes aux électrons et orientées de telle sorte que l'information acquise soit adaptée à la géométrie du problème recherché.
En outre le très grand pouvoir de grandissement offert par l’instrument impose une réflexion nouvelle lorsqu’on entreprend de relier une observation réalisée à l’échelle du microscope électronique à la dimension réelle de la matière à étudier. Prenons l’exemple du microscope à transmission. Supposons qu'en moyenne une image 10 cm x 10 cm corresponde à l'observation d'un échantillon d'épaisseur 50 nm, avec un grandissement de 100 000. Il lui correspond un volume total de matière observé de :
V = 50 x 103 x 103 = 5 x 107 nm3
contenant environ 5 x 109 atomes.
Pour comparaison, un mm3 de matière contient de l'ordre de 1020 atomes. Il faudrait donc plus de 1010 images de ce type pour explorer systématiquement l'ensemble d'un millimètre cube de matériau. Ceci est absolument hors de portée : un expérimentateur entraîné réalise de 50 à 100 bonnes images en une journée !!... Et en outre il est sûrement sans intérêt de vouloir effectuer ce type d'examen exhaustif. Au passage on peut aussi se dire qu'avec tous les microscopes électroniques ayant existé depuis leur invention, on n'a pas encore exploré un volume de matériau de l'ordre du millimètre cube.
Par conséquent, on conçoit l'importance de l'échantillonnage, c'est-à-dire de cette démarche qui consiste à localiser et à identifier rapidement au cours d'un examen au microscope électronique les zones représentatives des propriétés étudiées. On est largement aidé dans cette tâche par la grande souplesse du microscope à "zoomer" sur des zones choisies de l'échantillon, c'est-à-dire de travailler d'abord sous un grandissement d'une valeur de quelques dizaines à quelques centaines pour un examen général et une définition des zones minces intéressantes, avant de l'augmenter jusqu'à des valeurs de l'ordre de plusieurs centaines de mille pour l'observation fine à haute résolution.
Pour obtenir des lames minces adaptées à l'observation en microscopie à transmission, de nombreuses solutions ont été proposées et utilisées. Elles dépendent essentiellement de la nature chimique de l'échantillon massif et du caractère plus ou moins localisé de l'information recherchée. Mais il faut particulièrement insister sur le fait que la réussite de la préparation d'un bon échantillon est souvent le garant d'une observation riche en renseignements nouveaux. On ne saurait donc sous-estimer cet aspect du travail du microscopiste, qui représente bien souvent une partie bien plus importante de son temps que l'examen à proprement parler au microscope.
En règle générale, il existe deux grandes voies pour réaliser un échantillon mince :
Dans un certain nombre de situations privilégiées, il suffit de broyer, de gratter le matériau à examiner, de le dissoudre dans un liquide adapté dont on prélève une goutte à sécher sur un support ultra-mince adapté. Ce support universel est une grille de cuivre recouverte d'un film très mince de carbone amorphe percé de trous sur les bords desquels grâce à l'intensité des forces de tension superficielle, de nombreux échantillons restent attachés de façon stable tout en débordant sur le vide. Ces lames de carbone à trous, que l'on trouve maintenant aisément dans le commerce, sont fabriquées par évaporation Joule d'un barreau de graphite sous vide et condensation des vapeurs carbonées sur substrat de NaCl par exemple, dont il est ensuite décollé par flottage sur la surface d'un liquide.
De façon générale, il existe maintenant tout un ensemble de techniques de dépôt et croissance contrôlés de matériaux divers sur un support donné. Le matériau est évaporé par effet Joule ou sous bombardement électronique à partir d'un matériau massif et déposé graduellement sur un substrat déterminé. Un essor tout particulier de ces méthodes a été stimulé par l'industrie des semiconducteurs où les procédés de dépôt épitaxique en jet moléculaire ont été largement développés pour la réalisation de systèmes complexes dans lesquels la composition chimique du matériau peut varier continûment, couche atomique par couche atomique, au cours de la croissance.
Mais dans la grande majorité des cas, l'accès à des vastes plages d'échantillons minces, c'est-à-dire d'épaisseur inférieure à 100 nm sur plusieurs microns de large, requiert l'utilisation de techniques diverses d'amincissement contrôlé. Il est généralement nécessaire de prélever l'échantillon à amincir (un disque mince de 3 mm de diamètre) et de le préamincir avec diverses techniques grossières utilisant des procédés mécaniques ou chimiques. Les derniers stades de l'amincissement doivent être contrôlés de façon plus précise afin de préserver de vastes zones très minces au voisinage du trou ainsi réalisé (voir fig. IV.1).
Figure IV.1 Les étapes de l'amincissement d'un échantillon inorganique pour l'observation en microscopie à transmission de zones d'intérêt situées près du bord d'un trou.
Parmi les techniques utilisées :
Figure IV.2 (a et b) Schéma de principe d'un appareil d'amincissement par bombardement ionique (Duomill-Gatan)
Que ce soit pour l'observation en transmission ou en réflexion, la matière organique présente des spécificités liées à son caractère très déformable. On imagine aisément les dégâts qui peuvent se produire lorsqu'on introduit un échantillon de tissu biologique, qui contient une très grande proportion d'eau, dans l'environnement sous vide que constitue la chambre d'observation de tout microscope électronique. Les espoirs de voir des cellules vivantes se sont donc évanouis depuis longtemps, confirmant ainsi les sombres prédictions de Gabor, avant même d'invoquer le rôle destructeur du faisceau d'électrons. Cependant la situation n'est pas complètement désespérée, et au prix d'astuces nombreuses et diversifiées, les biologistes ont pu au cours des décennies récentes, "voir" l'ultrastructure des tissus et des cellules, et à un degré plus élaboré, étudier la morphologie de molécules individuelles comme les protéines et les acides nucléiques. Comment ces succès ont-ils pu être obtenus? En premier lieu grâce à l'ingéniosité des chercheurs qui ont su mettre au point toute une chaîne de traitements permettant la préservation de l'échantillon à partir de son prélèvement sur le sujet de l'étude, qui est bien souvent la souris de laboratoire, les cellules en culture in vitro, mais qui peut être aussi le patient humain, jusqu'à son observation sous le faisceau d'électrons du microscope.
Afin de maintenir l'échantillon dans un état morphologique aussi proche que possible de son état naturel, il est nécessaire d'effectuer un traitement de fixation, préalable à l'étape de déshydratation. Il s'agit, par un processus chimique ou physique approprié, d'éviter aux substances protéiniques ou lipidiques qui le composent, les déformations brutales qui accompagnent la mise sous vide. Dans la méthode "conventionnelle" de préparation d'échantillons pour l'observation en microscopie électronique, cette étape de fixation est réalisée chimiquement (fixation au glutaraldéhyde, puis au tétroxyde d'osmium le plus souvent) suivie de la déshydratation par substitution à la température ambiante de solvants organiques (alcool ou acétone) à l'eau, et de l'imprégnation dans différents types de résines, choisies en fonction de ce que l'on cherche à voir dans l'objet inclus. Après polymérisation, le matériau est devenu suffisamment résistant pour pouvoir éventuellement être débité sous forme de lames minces par découpe sous ultramicrotome. Cet instrument obéit au principe de la machine à découper le jambon. Mais l'arête qui cisaille l'échantillon est généralement en diamant afin de réaliser des sections d'épaisseur relativement homogène, de l'ordre de la centaine de nanomètres, pour l'observation en transmission. Enfin pour améliorer le contraste entre les différents organites cellulaires, on expose l'échantillon à un produit contenant des atomes lourds (classiquement acétate d'uranyl et citrate de plomb) afin que ces derniers en diffusant à la surface des différentes structures cellulaires, noyau, appareil de Golgi, mitochondries, les rendent visibles (voir plus loin la fig. V.4).
Récemment, les processus de fixation purement physiques, par congélation ultrarapide des tissus sur un bloc de cuivre refroidi à l'hélium ou à l'azote liquide se sont imposés comme voie privilégiée pour la préservation des structures cellulaires et sub-cellulaires. Une fois la matière biologique congelée, de nombreuses voies de traitement ont été proposées conduisant à des observations très diverses. Elles sont regroupées sommairement dans le tableau IV.1.
Tableau IV.1
Pour les fragments de tissu, les suspensions ou cultures cellulaires, le produit cryofixé peut être sectionné par cryo-ultramicrotomie pour la réalisation de couches minces qui sont directement observées à l'état congelé hydraté dans un microscope équipé d'un porte-objet permettant l'observation à la température de l'azote liquide (77 K). Pour préserver l'aspect ultrastructural d'un tissu, il faut que l'eau soit congelée à l'état de glace amorphe et sa recristallisation en glace hexagonale ou cubique, plus stable, mais impropre à l'observation, doit être évitée en maintenant l'échantillon à une température inférieure au seuil de dévitrification, soit 153 K, tout au long de la chaîne du froid. Une seconde solution consiste à fracturer l'échantillon congelé sous vide afin d'en observer la surface de fracture directement à l'aide d'un microscope à balayage ou indirectement après dépôt d'une replique de carbone ultra-mince dont on observe le relief, éventuellement ombré à l'aide d'une évaporation de grains métalliques très fins pour en faciliter la visualisation, en microscopie à transmission conventionnelle à température ordinaire (il s'agit alors de la technique dite de cryodécapage). Enfin une dernière méthode utilise la déshydratation à froid sous vide suivie de traitements variés de cryo-substitution ou de cryo-imprégnation conduisant à la préparation d'échantillons secs pour une observation à la température ambiante comme avec une préparation chimique conventionnelle. Ces méthodes cryogéniques présentent des avantages nombreux vis à vis des techniques chimiques comme une préservation des structures jusqu'à une échelle de 2 à 3 nm et une stabilité de la composition chimique en limitant au maximum la redistribution des électrolytes inorganiques et constituants diffusibles. On peut aussi imaginer facilement son utilisation dans l'étude de la dynamique de comportements biologiques. En effet, il est possible de réaliser la trempe ultra-rapide de l'échantillon à tout instant d'un cycle d'activité physiologique afin de saisir une image de la structure, voire de la chimie locale, caractéristique de cet état d'activité.
Une autre grande catégorie d'études en microscopie électronique concerne les macromolécules ou ensembles macromoléculaires extraits de cellules ou de tissus. On sait en effet fragmenter un ensemble intégré de fonctions afin d'isoler une activité biologique particulière pour la caractériser. La plupart des fonctions biologiques sont associées à de grands assemblages macromoléculaires comportant des acides nucléiques (ADN ou ARN) associés à de nombreuses protéines et peptides. La compréhension des mécanismes d'action de ces complexes passe par l'étude des modifications conformationnelles ou topologiques, le plus souvent induites par des interactions directes acides nucléiques-protéines. Pour les étudier, de nombreux procédés sont utilisés pour l'isolement et la visualisation des molécules isolées ou des complexes macromoléculaires. La plus efficace et la plus simple consiste à adsorber les molécules sur un support dont on sait contrôler l'état hydrophile ou hydrophobe de la surface par des traitements appropriés. Il est en effet important que la molécule biologique adhère sur la surface sans être déformée. Pour augmenter artificiellement la visibilité d'un objet de faible contraste déposé sur un support mince de carbone, on utilise des atomes lourds ainsi qu'illustré sur la figure IV. 3. Ils peuvent constituer soit un simple agent colorant le pourtour de l'objet (coloration positive), soit une matrice à l'intérieur de laquelle l'échantillon apparaît en contraste négatif (coloration négative). La figure IV. 4 constitue un exemple caractéristique de la façon dont on peut visualiser ainsi des molécules d'ADN déposées sur un film mince de carbone.
Figure IV. 3 Différentes méthodes de préparation d'échantillons de macromolécules isolées pour l'observation en microscopie électronique à transmission
Figure IV. 4 Images de molécules d'ADN circulaire. L'ADN extrait chimiquement et purifié, est déposé sur une peau de carbone très fine (environ 3,5 nm d'épaisseur) et contrasté par le dépôt de sel d'uranium qui se fixent sur les charges négatives de l'ADN. Un fort contraste est obtenu par l'observation des molécules en fond noir annulaire.a) double chaîne super torsadée avec chevauchement de brins; b) double chaîne circulaire relâchée, la coupure d'un des brins entraînant la libération des contraintes de superhélicité (clichés E.Delain, IGR Villejuif).
En utilisant des supports fonctionnalisés (films lipidiques), les molécules à étudier peuvent s'orienter, s'organiser et cristalliser en un réseau bidimensionnel. C'est sur de tels réseaux de protéines membranaires qu'ont pu être réalisées récemment par cristallographie électronique, des cartes structurales avec une résolution meilleure que 0,5 nm. Il s'agit là d'un développement très prometteur de la microscopie électronique, qui peut devenir compétitive avec les techniques de diffraction X pour résoudre des structures au niveau quasi-atomique, quand il est difficile de cristalliser des grandes quantités de matériau. Mais la préparation de l'échantillon ne constitue que la première étape d'une étude longue et délicate, où toutes les ressources les plus pointues de la microscopie elle-même (observation sous dose très réduite pour limiter les dommages d'irradiation) et du traitement de l'information a posteriori, sont requises.
Enfin, la méthode la plus élégante pour l'étude de dispersions de molécules individuelles consiste à congeler rapidement une suspension de ces molécules en milieux aqueux, en en plongeant une goutte adhérente à une grille de cuivre dans de l'éthane liquide. L'amincissement à une épaisseur convenable, est préalablement réalisé en éliminant une grande partie de la goutte avec un papier filtre. L'épaisseur du film de glace fin, de l'ordre de 100 nm permet l'observation des molécules maintenues dans leur solution d'origine, dans leur environnement aqueux et ionique initial. Cependant, les phénomènes de surface, gênants dans la technique du dépôt, ne sont pas complétement éliminés dans la mesure où l'échantillon est confiné dans une mince couche de solution. En outre l'orientation aléatoire des particules biologiques peut être un handicap, mais les progrès récents en analyse d'images permet de résoudre bien des difficultés quand on a accès à des populations de molécules de plusieurs milliers.
Pour clore ce chapitre, il est utile de mentionner quelques développements récents dans le domaine de la microscopie à balayage conventionnelle. L'environnement requis en vide et les phénomènes de charge induite par le faisceau primaire quand l'échantillon est non conducteur, en limitent singulièrement le champ d'applications, dans le monde industriel en particulier. Pour y remédier plusieurs solutions ont été utilisées. Par exemple, il est commun de recouvrir toute surface non conductrice d'un film mince métallique avant observation. Parmi les autres remèdes proposés, le recours à des tensions d'accélération réduites (de l'ordre du kV) permet de compenser à peu près exactement les charges apportées par le faisceau primaire et celles réémises par l'échantillon de telle sorte que la charge accumulée reste négligeable. Mais il est un développement récent qui semble apporter un remède à toutes ces difficultés.
Revenons sur la notion de vide. La pression atmosphérique normale se situe aux environs de 760 mm de mercure (dans les systèmes de pompage on aime bien encore l'unité "torr" qui équivaut à 1 mm de Hg): la pression de l'atmosphère équilibre le poids d'une colonne de mercure de 760 mm de haut. Les physiciens utilisent de nos jours l'unité Pascal (Pa), la pression normale de l'air est 105Pa. La pression résiduelle dans une colonne de microscope est de l'ordre de 10-4 Pa. Sous une telle pression le nombre de molécules de gaz par litre est de quelques 1013, si bien que la probabilité de collision entre un électron rapide du faisceau et une de ces molécules de gaz est pratiquement nulle. C'est la raison pour laquelle une telle qualité de vide est maintenue dans une colonne de microscope. Mais il n'est pas nécessaire qu'elle soit présente autour de l'échantillon lui-même. C'est ce qui a conduit au développement récent de microscopes avec un vide différentiel entre le microscope et la chambre échantillon. En maintenant dans cette dernière enceinte une moins bonne qualité de vide que dans le reste de la colonne (jusqu'à 50 torr dans le dernier microscope environnemental de la marque Electroscan), on conjugue plusieurs avantages. Le premier est une réduction des effets de charge électrique sur la surface d'un isolant. En effet les molécules de gaz autour de l'échantillon peuvent être ionisées sous l'impact soit des électrons primaires, soit des électrons secondaires, et venir neutraliser la surface du spécimen. Le second est de disposer d'une possibilité accrue de maintien des morphologies naturelles pour un grand nombre d'échantillons ayant tendance à dégazer facilement sous vide (papiers, lubrifiants, crèmes variées, nourriture..). Il en résulte un élargissement tout à fait spectaculaire du champ d'utilisation du microscope. Pour ne citer qu'un exemple aperçu lors d'un congrès récent de microscopie électronique, je mentionnerai la séquence tout à fait impressionnante des insectes se déplaçant dans des cavernes gigantesques à l'intérieur d'un fromage, insectes conservant tout leur dynamisme jusqu'à ce qu'un accroissement de la dose d'électrons nécessaire pour travailler à plus haute résolution, ne soit responsable de leur trépas. Il est donc possible dans ces conditions, c'est à dire avec des grandissements modestes, de suivre le mouvement d'organismes vivants à l'intérieur du microscope, contredisant ainsi une nouvelle fois les prédictions de Gabor.
Lorsqu'on observe des images acquises avec un microscope photonique, l'interprétation du message perçu ne soulève pas à première vue de difficultés particulières. En effet il s'agit d'une représentation agrandie du monde observé utilisant les mêmes systèmes de perception que dans la vision usuelle, à savoir une image souvent colorée avec des parties sombres et lumineuses. On admet alors que selon le cas, examen par transmission ou par réflexion, les différentes zones de l'échantillon absorbent ou réfléchissent différemment et voire même sélectivement en fonction de leur longueur d'onde, les rayons lumineux. Sans être un expert des mécanismes physiques complexes qui interviennent lors de l'interaction du champ électromagnétique avec la matière, l'observateur peut tirer des informations plus ou moins significatives de ce qu'il voit directement ou indirectement à travers le support d'une caméra de télévision ou d'un film photographique. Car dans la vie quotidienne, il se trouve confronté à l'expérience de la vitre plus moins transparente ou du miroir qui lui renvoie sa propre image. Il a même déjà eu l'occasion de s'interroger sur la validité de ses observations devant des images déformées à travers la paroi d'une bouteille ou sur la surface du café contenu dans son bol. En contemplant les rayons du soleil à travers un voilage les figures irisées et géométriques qu'il y a discernées ont souvent attiré son attention.
Mais dans le monde exploré par le microscope électronique, il n'est pas aussi évident de comprendre les images obtenues et d'en déduire des informations utiles sur l'échantillon observé. Car nous manquons singulièrement d'échelles et de repères lorsqu'il s'agit d'explorer la matière dans sa constitution la plus intime. Le microscope électronique est un outil fantastique pour voir l'invisible, mais les clefs destinées à en apprécier les richesses doivent être élaborées. Et plus on s'approche des limites ultimes, à savoir reconstruire la structure de la matière atome par atome, plus l'interprétation des images requiert un support théorique élaboré faisant appel à des notions fort variées de mécanique quantique, physique atomique, optique ondulatoire, cristallographie, physique des solides, chimie inorganique, biologie moléculaire selon la nature des échantillons étudiés.
Loin de nous l'idée d'aborder ce champ complexe de connaissances qui peut (et doit) conduire à la prévision des images enregistrées pour une certaine structure ou défaut de structure, en fonction des conditions de fonctionnement du microscope. Ce qui constitue bien évidemment une étape recommandée. Notre ambition, dans le présent chapitre, est de fournir au lecteur les éléments de réflexion lui permettant de se poser quelques questions élémentaires et de mettre à l'épreuve son sens critique vis à vis des images qu'il peut être amené à contempler.
La première étape va nous plonger directement dans la situation extrême où on suppose qu'un électron de haute énergie passe au voisinage d'un atome isolé. Comme nous l'avons rappelé, ce dernier est constitué de charges électriques, les unes positives concentrées dans le noyau, les autres, les électrons de charge négative, gravitant autour du noyau. Entre ces charges relativement localisées et la charge négative de l'électron incident se développent des interactions coulombiennes, c'est-à-dire des forces attractives ou répulsives qui vont contribuer à dévier ou à ralentir ce dernier. A priori on considère que l'atome étudié est au repos dans son état d'énergie minimum et qu'il ne peut que prendre de l'énergie à l'électron primaire qui par conséquent subit une perte d'énergie. La figure V.1 illustre les différents types d'évènements qui peuvent se produire alors.
Figure V.1 a) Diffusions élastique et inélastique entre un électron incident de haute énergie et un atome ; b) Niveaux énergétiques concernés par une excitation électronique avec la perte d'énergie correspondante subie par l'électron incident de haute énergie.
Les électrons qui s'approchent le plus du noyau subissent une interaction attractive et sont par conséquent déviés d'une façon significative. Il est convenu d'appeler ce type d'interaction une diffusion élastique (sans changement d'énergie). C'est à une autre échelle l'équivalent d'une bille légère et rapide qui rebondit sur une boule de billard lourde sans lui communiquer d'énergie cinétique car la différence de masse entre les deux partenaires de la collision est trop importante. Dans le cas qui nous intéresse, l'angle de déviation est important, ce qui reste tout à fait relatif, car il s'agit d'un angle en moyenne de 10-2 radian c'est à dire de l'ordre dy demi-degré d'angle.
Les électrons qui traversent le nuage des orbitales électroniques interagissent avec des particules de même masse et peuvent par conséquent leur communiquer de l'énergie, c'est-à-dire dans le modèle atomique les faire passer d'un niveau à un autre ou même les expulser complètement de façon à transformer l'atome initialement neutre en ion. La perte d'énergie subie par l'électron incident est ainsi gagnée par l'électron de la cible, comme montré sur la figure V.2.
La déviation angulaire est en générale sensiblement plus faible que dans le cas de la diffusion élastique : on dit alors que les processus de diffusion inélastique (avec transfert d'énergie) sont concentrés dans un domaine angulaire restreint (de l'ordre de 10-4 à 10-3 radian).
Nous allons donc décrire successivement les conséquences des mécanismes élémentaires pour la compréhension des images de microscopie électronique à transmission en y insistant sur le cas de la microscopie à très haute résolution.
La notion de contraste est tout à fait essentielle. Elle est directement incluse dans le fait qu'une image est une représentation bidimensionnelle d'une certaine propriété de l'échantillon (fig. I.5). Par conséquent, le nombre d'électrons recueillis en un point du détecteur $I(x,y)$ est différent de celui recueilli en un point voisin $I(x + \Delta x, y + \Delta y)$. Le contraste est défini comme la variation entre ces deux mesures réalisées en des points de l'échantillon séparés de $\Delta x/M$ et $\Delta y/M$ (avec M le grandissement du microscope) :
$$ C=\frac{I(x + \Delta x, y + \Delta y)-I(x,y)}{\overline{I(x,y)}} $$
où $\overline{I(x,y)}$ est la valeur moyenne de l'intensité dans la zone considérée. Par la suite, toutes les dimensions spatiales sont considérées au niveau de l'échantillon.
En microscopie électronique à transmission, l'échantillon est une lame mince d'épaisseur t suffisamment faible pour que le nombre d'interactions soit limité et le ralentissement des électrons primaires négligeable. A ce stade, on ne considèrera pour interpréter la formation de l'image que les effets élastiques qui ont pour conséquence d'ouvrir angulairement un faisceau d'électrons incidents initialement parallèle. Le rôle des effets inélastiques et de leurs conséquences sera décrit dans le cours du chapitre VI dédié à la microscopie analytique. Retenons donc pour l'instant que l'effet essentiel imposé par l'interaction électron-matière est de produire à la sortie de l'échantillon un faisceau d'électrons se déplaçant dans différentes directions à l'intérieur d'un cône de diffusion, comme schématisé sur la figure V.3.
Figure V.3 Origine du contraste dit d'absorption introduit par un diaphragme à la sortie de l'échantillon
Supposons que, pour les deux points A et B de l'échantillon qui nous intéressent, on recueille l'ensemble des électrons diffusés. Il n'y aurait pas de contraste. Par conséquent, une première idée simple consiste à introduire dans la colonne après la face de sortie de l'échantillon une ouverture circulaire (un diaphragme de contraste) pour ne sélectionner qu'une fraction seulement des électrons transmis. On conçoit alors que, par cet intermédiaire, il est possible de discriminer deux points sur l'échantillon dont le pouvoir diffuseur (soit la nature des atomes constitutifs, soit le nombre de ces atomes - et par conséquent l'épaisseur locale -) est différent. C'est le principe du contraste d'absorption qui est à la base de la visualisation des structures dans tout spécimen "amorphe". On comprend, à ce stade de la discussion, par amorphe, tout spécimen pour lequel on peut considérer l'échantillon comme un rassemblement dense d'atomes sans organisation particulière, si ce n'est une distance entre plus proches voisins toujours sensiblement équivalent. Pour prendre un exemple concret, il s'agit des échantillons de matière biologique, composés donc essentiellement d'atomes légers C, H, O et N, dans lesquels les structures cellulaires sont rendues visibles par un marquage sélectif avec des atomes lourds (osmium, tungstène, uranium) - voir la figure V.4.
Fig. V.4 Micrographie en fond clair conventionnel d'une section de cellules de rein de poulet infectées par le virus de la Myéloblastose aviaire (leucémie). On distingue parfaitement le noyau (N) avec la chromatine dense et la membrane nucléaire double avec ses pores (p), les polyribosomes (r) attachés aux parois de l'ergatoplasme ou du feuillet cytoplasmique de la membrane nucléaire. Le cytoplasme contient des mitochondries (m) et la coupe transversale d'un centriole (c); on voit quelques microtubules (mt). Dans les espaces intercelullaires sont présents de nombreux virus (v, rétrovirus proche de celui du Sida (cliché E. Delain, IGR Villejuif).
Insistons sur le fait que ce contraste - dit d'absorption - ne correspond pas à une absorption réelle des électrons dans l'échantillon. Pour les épaisseurs usuellement observées, tous les électrons sont transmis. Il s'agit donc d'une "absorption virtuelle" au niveau de l'image, car certains des électrons transmis n'arrivent pas jusqu'au détecteur à cause de l'introduction du diaphragme de contraste.
A ce niveau de la discussion, il est important de revenir sur une propriété essentielle de la lentille objectif, à savoir sa double fonction de produire des images agrandies ou des clichés de diffraction. Reprenons le schéma des trajectoires électroniques à travers une lentille - la discussion qui suit s'applique aussi bien au cas des lentilles de l'optique photonique - voir la figure V.5.
Figure V.5. Double fonction de la lentille objectif pour la formation d'images agrandies ou de clichés de diffraction
Le faisceau parallèle à l'axe $A_1 A_o A_2 $ sur l'échantillon est focalisé en un point O au foyer image de la lentille, avant de former une image agrandie et renversée $A'_1 A'_o A'_2$ dans le plan image de la lentille. Mais si dans l'échantillon ce faisceau parallèle est dévié globalement d'un angle tout en restant parallèle, il devient focalisé en un point O' different du point O dans le plan focal, avant de redonner la même image agrandie que le faisceau non dévié par l'échantillon. Cette remarque prend toute son importance car elle montre clairement qu'au niveau de son plan focal une lentille permet de distinguer les trajectoires qui y pénètrent sous des angle q variés. Par exemple, on calcule facilement la distance OO' = f.q dans le plan focal (où f est la distance focale de la lentille). Par conséquent, si on désire filtrer une partie seulement du faiseau transmit dans le microscope électronique à transmission, le diaphragme de contraste doit être introduit dans le plan focale image de la lentille objectif. A ce endroit, il n'interfèe pas avec l'image mais joue pleinement son rôle de filtre de contraste.
Considérons maintenant le cas des échantillons cristallins. Pour des raisons de compacité maximum, les atomes dans un solide ont tendance naturellement à se rassembler en des arrangements bien organisés. C'est identique au pavage d'un sol qui reproduit périodiquement à deux dimensions un même motif de base. De la même façon, la structure stable d'un solide est le cristal qui reproduit périodiquement à trois dimensions le même motif. Depuis longtemps, l'existence de symétries remarquables avait suscité la curiosité des savants qui après Haüy et Bravais au XIXème siècle avaient réalisé un travail énorme de classification suivant le degré de complexité des opérations de symétrie impliquées. La confirmation de l'existence de cet ordre tridimensionnel fut apportée au début du XXème siècle par von Laue à travers ses expériences de diffraction des rayons. Expérience confirmée en 1927 par la diffraction des électrons sur un cristal de nickel réussie par Davisson et Germer qui par la même occasion vérifiaient la dualité onde-corpuscule des électrons. En effet, pour comprendre la diffraction par un réseau, le faisceau primaire doit être décrit comme une onde avec une amplitude, une phase et une longueur d'onde. Il y a diffraction, c'est-à-dire interférences constructives ou destructives dans certaines directions, selon que les ondes réfléchies sur les plans cristallographiques sont, ou non, en phase.
Figure V.6 Diffraction de Bragg sur une famille de plans équidistants.
La figure V.6 illustre un cas particulier, à savoir la diffraction de Bragg par un réseau cristallin. Celui-ci est représenté comme un empilement de plans atomiques séparés par une distance d, qui se comportent vis-à-vis de l'onde incidente comme des plans semi-réfléchissants. Il y a diffraction dans une direction bien déterminée quand les ondes réfléchies sur les plans successifs sont en phase, c'est-à-dire quand la différence de marche entre ces ondes est égale à un nombre entier de fois la longueur d'onde de la radiation incidente, soit d'après la figure :
$$ 2 d \sin q= n \lambda$$
Ceci est la loi de Bragg qui relie la distance interplanaire dans le réseau cristallin à l'angle de diffraction 2q (entre le faiseau incident et le faiseau transmit et la longeur d'onde $\lambda$. Cette formule est valable aussi bien pour un rayonnement électromagnétique que pour celui associé à des particules chargées. Mais on constate immédiatement que pour qu'il y ait diffraction par un réseau cristallin il faut que l soit inférieur à 2d, car sinq est toujours inférieur à 1. Par conséquent pour des distances d de l'ordre de 0,1 à 0,3 nm il en résulte que l doit lui aussi être inférieur à 0,2 à 0,6 nm. Dans le cas du rayonnement lumineux, ceci implique l'utilisation des rayons X (et cet effet a donné naissance à toute la radio-cristallographie). Pour les électrons de haute énergie utilisés en microscopie électronique, pour lesquels la longueur d'onde est environ 100 fois plus faible que la distance entre atomes plus proches voisins, la condition angulaire est respectée sans problème. Les angles typiques de diffraction sur les plans les plus denses d'un réseau cristallin sont alors de quelques 10-2 radians.
Par conséquent, lorsqu'on observe par microscopie électronique un échantillon cristallin, un diagramme de diffraction constitué de spots bien organisés se forme dans le plan focal de l'objectif. Si, par un réglage judicieux de l'excitation des lentilles suivantes de la colonne, on rend ce plan conjugué de celui de l'écran d'observation ou du film photographique, on visualise directement un diagramme de diffraction. Celui-ci renseigne directement sur la structure cristalline (type de symétrie, distances interatomiques) et sur l'orientation de ce réseau ordonné par rapport au faisceau incident.
Figure V.7. Clichés de diffraction réalisés sur un cristal d'alumine Al2O3 orienté suivant l'axe [2110 ]: a) Diffraction conventionnelle en faisceau parallèle ; b) Diffraction en faisceau convergent (clichés D. Bouchet, Orsay)
La figure V.7 présente deux exemples de clichés de diffraction ainsi enregistrés. Il est alors particulièrement utile d'identifier l'origine de ces différentes taches en les associant à des familles bien spécifiques de plans dans la structure cristalline, c'est ce qui s'appelle "indexer" un diagramme de diffraction. Rappelons donc que chacun des spots correspond à une direction différente permise aux électrons quittant la face de sortie de l'échantillon, faisant un angle déterminé par rapport à la direction du faisceau incident, prise comme référence (000) dans le centre du cliché de diffraction.
Si on considère à nouveau la figure V.5, il est important à ce niveau de souligner la complémentarité entre les deux plans fondamentaux par rapport à l'échantillon, auxquels la lentille objectif donne accès : le plan image (qui est une image agrandie de l'échantillon, on dit alors qu'elle donne une vision de l'espace réel), le plan diffraction (qui est une carte des directions de diffraction pour une structure donnée, on parle alors d'information liée à une certaine section de l'espace réciproque).
Par un jeu adapté de diaphragmes introduits et déplacés dans ces deux plans, l'expérimentateur dispose d'une grande variété de modes d'observation. Dans une première étape, il choisit au moyen d'un diaphragme de sélection situé dans le plan image une zone bien définie de l'échantillon. En modifiant l'excitation de la lentille intermédiaire, il peut visualiser sur l'écran d'observation le diagramme de diffraction correspondant à cette zone bien définie. Puis au moyen du diaphragme de contraste introduit pour sélectionner ou bien la tache centrale du diagramme correspondant au faisceau transmis, ou bien une tache diffractée, il peut ensuite en revenant dans le mode image visualiser sur l'écran une image dite en champ clair, ou une image dite en champ noir. Cette dernière est donc réalisée uniquement avec les électrons ayant subi une réflexion sur une famille de plans déterminés.
C'est un moyen très puissant pour obtenir une information cristalline très sélective. Dans certains cas (situation à deux ondes), l'échantillon est orienté de façon à ce qu'une seule famille de plans soit en situation pour diffracter. Si, dans le champ observé, un défaut de structure déforme localement le réseau par rapport au réseau parfait, les plans cristallins au voisinage du défaut ne sont pas dans les mêmes conditions de Bragg que la matrice autour. Par conséquent, selon le cas, ces défauts apparaissent en clair sur un fond sombre ou en noir sur fond clair : voir l'exemple présenté dans la figure V.8.
Figure V.8 Images en condition deux ondes (002) de dislocations dans un échantillon de diopside (CaMgSi2O6) déformé expérimentalement à 800°C : a) Image en champ clair réalisée avec le faisceau transmis ; b) Image en champ sombre réalisée avec le faisceau diffracté (002)(clichés J. Ingrin,, Orsay)
De façon générale, pour des orientations de haute symétrie et des échantillons relativement épais le diagramme de diffraction devient très complexe avec de nombreuses taches et des diffusions multiples entre les taches. Néanmoins, même dans ces conditions, les techniques de diffraction sont devenues très puissantes pour étudier la structure cristalline locale. Avec le système d'éclairement on condense le faisceau primaire en un spot de taille réduite sur l'échantillon (l'information acquise est plus localisée) ; dans le diagramme de diffraction, les taches deviennent des disques dont la dimension est déterminée par l'angle de convergence, et la superposition de ces figures de diffraction donne lieu à des diagrammes de diffraction en faisceau convergent, dont l'analyse complexe a ouvert récemment de nouvelles perspectives très puissantes pour l'étude des microstructures cristallines (voir figure V.7b).
Les techniques de diffraction électronique permettent d'analyser les périodicités présentes sur l'ensemble de l'aire sélectionnée sur l'échantillon. Si, au lieu de réaliser une image en introduisant un diaphragme ne laissant passer qu'une tache de diffraction, on y place un diaphragme suffisant large pour laisser passer la tache centrale ainsi que les spots diffractés les plus proches, on recueille sur l'écran d'observation une figure d'interférence entre tous ces faisceaux. L'image lorsqu'elle est suffisamment agrandie présente alors toutes les propriétés de périodicité et de symétrie cristallines correspondant à l'ensemble du cliché de diffraction sélectionné. Elle est constituée d'une juxtaposition de points blancs et noirs alignés, avec des distances entre ces alignements égales aux distances réticulaires dans le cristal réel. Il est donc possible d'interpréter une telle micrographie comme une image agrandie de la projection de colonnes atomiques parallèlement au faisceau incident. La figure V.9 illustre la relation entre la structure cristalline tridimensionnelle de l'échantillon, son diagramme de diffraction et l'image agrandie de la structure atomique projetée.
Figure V.9 Le principe de la formation d'images de structures cristallines en microscopie électronique à transmission à très haute résolution : on obtient sur l'écran final une image d'interférences entre les différents faisceaux diffractés identifiables dans le plan de la diffraction. Les contrastes de points noirs et blancs sur l'image (voir par exemple l'encart relatif à un nanocristal de ZnO) correspondent à la projection des colonnes atomiques individuelles orientées parallèlement au faisceau incident (cliché N.Brun, Orsay).
A l'examen de cette figure, on conçoit aisément quelques unes des limites de la méthode. La première est de satisfaire des conditions d'orientation relativement strictes pour qu'il n'y ait pas superposition entre les projections de colonnes atomiques adjacentes. La seconde est que le microscope soit capable de résoudre les distances interatomiques concernées. En effet nous avons souligné dans un chapitre précédent que les lentilles de l'optique électronique ne sont pas parfaites et souffrent de défauts (aberration d'ouverture, défocalisation) qui en font des outils imparfaits de transfert de l'information. Nous avons alors caractérisé ces défauts au moyen d'une fonction de transfert (fig. III.10) définie dans l'espace des fréquences spatiales qui est en fait l'équivalent du plan de diffraction. Rappelons en effet les relations fondamentales existant entre périodicité (d, exprimé en nm) dans le plan de l'échantillon, fréquence spatiale ($\nu=\frac{1}{d}$ exprimé en nm et angle de diffraction $2\theta=\frac{\lambda}{d}=\lambda\nu$, grandeur sans dimention exprimée en radian). Une théorie célèbre, dite théorie d'Abbe de la formation de l'image développée à la fin du siècle dernier pour interpréter les images du microscope photonique, décrit le processus de formation de l'image par une lentille objectif, tel qu'il est illustré dans la figure V.9, en trois étapes. Supposons que l'échantillon agisse sur l'onde plane incidente comme un modulateur complexe, modifiant localement la phase et son amplitude.
(i) Dans une première étape, la lentille objectif analyse, en fonction des fréquences spatiales concernées, ces modifications de la fonction d'onde imposées par l'échantillon. On parle alors d'analyse (ou de transformation de Fourier) et le résultat s'inscrit dans le plan focal de la lentille. Mais soyons prudents : si on introduit un écran à ce niveau (ou éventuellement dans un plan équivalent sur l'écran d'observation du microscope), on n'enregistre que des intensités. C'est le diagramme de diffraction et on perd toute information sur la phase de l'onde issue de la face de sortie de l'échantillon.
(ii) Dans le plan focal de l'objectif, les défauts inhérents à la lentille, représentés en termes de fonction de transfert, modulent la phase et l'amplitude de la transformée de Fourier de la fonction d'onde électronique. Or on a vu que ce transfert est loin d'être uniforme sur toute une bande de fréquences spatiales. Son premier effet est de limiter tout transfert d'information au-delà d'une fréquence limite, ou ce qui revient au même, en deça d'une distance caractéristique: c'est la limite de résolution de l'information, et il n'est pas possible de résoudre des images de structure atomique en deça de cette valeur (voir la figure III.10).
Sur cette même figure présentant le comportement de la fonction de transfert du microscope, l'échelle des fréquences spatiales est aussi calibrée en distances dans l'espace réel, et pour fournir un ordre de grandeur les distances interréticulaires entre plans appartenant à certaines orientations privilégiées pour un cristal semiconducteur de InP sont aussi indiquées.
Ainsi il n'y a pas d'espoir de résoudre des plans distants de d3 = 0,17 nm avec ce microscope dont la limite de résolution de l'information est de 0.2 nm. Par contre, il est possible de visualiser les distances réticulaires d2 et d1, à 0.25 et 0.4 nm respectivement, avec un bon contraste. Mais la fonction de transfert, qui dépend de la défocalisation, peut moduler en positif ou en négatif ce contraste. Il en résulte que selon les distances considérées et les conditions d'utilisation du microscope, les images de colonnes atomiques peuvent apparaître en blanc ou en noir!! Et dans cette description simpliste, nous avons négligé les effets dynamiques complexes au niveau de l'interaction électron-spécimen qui font que le contraste dépend aussi de l'épaisseur locale et que cette théorie simplifiée ne s'applique que pour les échantillons très minces (en général d'épaisseur inférieure à 10 nm).
(iii) La troisième et dernière étape est de reconstruire l'onde arrivant au niveau de l'image finale par une nouvelle transformation de Fourier (on revient dans l'espace des dimensions réelles d) de l'onde modulée par la fonction de transfert de l'objectif, en n'oubliant pas que le détecteur utilisé ne permet d'appréhender que les intensités. Cependant, en jouant habilement avec la défocalisation de l'objectif, il est possible, ainsi que nous l'avons montré, de visualiser des déphasages sur l'onde transmise.
En résumé, il est important de retenir que les images haute résolution de structures atomiques représentent bien une certaine projection de ces structures. Mais pour une interprétation plus quantitative, il est nécessaire d'effectuer des simulations sur ordinateur tenant compte de tous les paramètres qui peuvent intervenir (épaisseur, composition et orientation de l'échantillon d'une part, alignement, focalisation, aberrations de la lentille d'autre part) et de comparer ces micrographies calculées à celles enregistrées expérimentalement. Cette méthode a été largement exploitée ces dernières années pour visualiser la structure d'édifices localement parfaits (comme dans les nombreux composés supraconducteurs à haute température critique récemment synthétisés, voir la figure V.10) ou des structures complexes comme au voisinage d'interfaces entre cristaux ou dans des nanoparticules. Dans tous les cas, la maîtrise expérimentale du microscope à ses limites de performance, doit être associée à un effort important de modélisation numérique. Et cette tendance ne fera que se développer en passant du stade actuel semi-quantitatif d'inteprétation des images (analyse des fréquences et des positions noir-blanc des colonnes) au stade ultérieur réellement quantitatif où il s'agira de relier la valeur mesurée de l'intensité locale (sur toute une gamme de gris) à la composition chimique de la colonne visualisée.
Figure V.10 Micrographie à très haute résolution de la structure d'un composé au mercure 1223 supraconducteur à haute température(environ 120K). Comparaison avec l'image simulée numériquement à partir d'un modèle de structure cristalline (document M. Hervieu,Caen).
Lorsque le faisceau d'électrons primaires (d'énergie variable entre 1 et 30 keV) pénètre dans un échantillon massif, il subit une succession de chocs inélastiques et élastiques qui contribuent à son ralentissement. On montre que l'ensemble des trajectoires suivies par ces électrons s'inscrit dans une "poire" telle que représentée dans la figure V.11, dont la largeur et la profondeur dépendent de l'énergie des électrons primaires et du numéro atomique moyen des atomes constitutifs de la cible. Le ralentissement s'accompagne de réémissions diverses à partir de la surface irradiée : en particulier on y distingue plusieurs types d'électrons selon leur énergie cinétique (voir figure V.12).
Figure V.11 Pénétration d'un faisceau d'électrons de haute énergie dans une cible massive et définition des volumes de génération des différents types de signaux d'émission électronique.
Certains ont une énergie proche de l'nergie des électrons primaires (E0): ce sont donc des électrons du faisceau incident qui ont subi des chocs avec déviation angulaire supérieure à ?/2 et qui ressortent de la surface en ayant subi au maximum quelques collisions inélastiques accompagnant ce choc élastique. On les appelle électrons rétrodiffusés (R). On comprend alors pourquoi un tel signal contient une information significative sur la composition du matériau dans la mesure où la probabilité d'observer de telles interactions croît considérablement avec le numéro atomique (Z) des élements rencontrés. De plus l'origine de ce signal recouvre assez bien le volume de pénétration des électrons primaires.
Une autre famille d'électrons quittant la surface de l'échantillon possède une faible énergie cinétique de l'ordre de quelques eV à une centaine eV. Ce sont des électrons, appartenant essentiellement à la population d'électrons du solide, qui ont été mis en mouvement à la fin des différents processus en cascade impliqués dans le ralentissement du faisceau primaire : on les identifie sous le nom d'électrons secondaires (S). Comme leur énergie cinétique est faible, ils ne peuvent provenir que d'une couche de faible épaisseur sous la surface, sinon ils n'auraient guère l'énergie suffisante pour l'atteindre et en sortir. Par conséquent, l'information transportée par ces électrons est relativement limitée en termes de composition, mais reflète bien la topographie de surface, car leur taux de production dépend sensiblement de l'inclinaison de la face de sortie par rapport à la direction du faisceau primaire.
Figure V.12 La distribution énergétique des électrons réémis par une cible massive sous l'impact d'électrons primaires de haute énergie.
Comme déjà montré dans la figure III.15, la nature et la géométrie des détecteurs d'électrons implantés face au spécimen dans la chambre d'observation du microscope à balayage, ont été étudiées pour recueillir ces deux types de signaux et tirer partie de l'information spécifique à chacun. Les électrons rétrodiffusés sont mesurés par un détecteur semiconducteur annulaire situé sous la face inférieure de la pièce polaire de l'objectif. Dans les microscopes récents, ce détecteur est fendu en deux parties : quand on somme les différents signaux, on obtient l'image dite de composition. Au contraire quand on réalise, au moyen de l'électronique associée, des différences entre ces composantes, on a accès à une information topographique car la distribution spatiale des électrons rétrodiffusés dépend en fait légèrement de l'orientation de la surface de l'échantillon. Cet effet topographique est évidemment accru dans les images dites d'électrons secondaires réalisés avec le signal provenant en général d'un photomultiplicateur situé derrière une grille polarisée sous une faible tension positive afin d'attirer tous les électrons de faible énergie cinétique quittant la surface de l'échantillon. La figure V.13 présente un exemple de clichés de microscopie électronique à balayage utilisant ces deux types d'électrons.
Figure V.13 - Les détecteurs pour électrons secondaires et rétrodiffusés émis à partir d'une cible massive et utilisés en microscopie électronique à balayage en réflexion.
Etant donnée la complexité des processus mis en oeuvre, il est évident que l'interprétation quantitative de telles images est loin d'être équivalente à celle atteinte dans le domaine de la microscopie électronique en transmission à haute résolution. Dans certains cas, de géométrie et de composition simple, on peut cependant dépasser l'interprétation qualitative en comparant la distribution des intensités mesurées à des résultats de simulation dites de Monte-Carlo. On y reproduit les trajectoires réalisées par un grand nombre d'électrons primaires au moyen de lois de probabilité contrôlées par les ordres de grandeur et distribution des différents paramètres (sections efficaces différentielles en angle et en énergie, sections efficaces totales, libres parcours moyens) intervenant dans ces processus.
Figure V.14 - Micrographies (MEB) obtenues en modes électrons rétrodiffusés et secondaires à partir d'un échantillon de pyrite d'un interbanc argileux du grès armoricain (clichés J. Estéoule et J. Le Lannic, Rennes)
On peut aussi à travers ces calculs mieux appréhender la résolution spatiale accessible dans ces différents modes, celle-ci étant davantage contrôlée par la localisation des différents évènements élastiques ou inélastiques produits lors de l'interaction électron-matière, que par la qualité et la finesse de la sonde d'électrons primaires.
Signalons enfin que d'autres paramètres peuvent modifier les contrastes observés (cristallinité, texture, champs électromagnétiques près de la surface) et fournir d'autres informations relatives à la structure cristalline, à la présence de domaines électriques ou magnétiques ou à l'existence de potentiels de surface, par exemple. Pour être complets, mentionnons enfin les modes plus spécialement impliqués dans l'observation des circuits intégrés semiconducteurs par la mesure des courants induits sous le faisceau.
Jusqu'à maintenant, nous n'avons guère considéré l'aspect analyse chimique qui peut être associé aux microscopes électroniques. Cependant, tout au long des chapitres précédents, nous avons introduit tous les éléments nécessaires pour comprendre dans quelle mesure la conception même des microscopes électroniques, dans le mode balayage en particulier, et la nature des interactions électrons-matière pouvaient fournir facilement cette information analytique. C'est ce que nous allons résumer dans ce premier paragraphe en illustrant notre propos de quelques brefs rappels historiques destinés à mieux faire comprendre l'évolution des idées, des méthodes et des techniques au cours des dernières cinquante années dans un domaine de l'instrumentation scientifique où la contribution des chercheurs français fut essentielle.
La figure VI.1 présente les contraintes géométriques rencontrées lors de l'implantation des spectromètres nécessaires pour l'acquisition des signaux analytiques, à partir d'un échantillon préparé sous forme de lame mince. N'oublions pas que celui-ci doit être situé dans l'entrefer de la lentille objectif afin de préserver les possibilités tout à fait indispensables d'imagerie haute résolution et de diffraction en aire sélectionnée ou sous faisceau convergent, qui font tout l'intérêt d'associer en un instrument unique les techniques de la microscopie telles qu'elles ont été décrites au travers des chapitres précédents et celles de l'analyse ponctuelle.
De la même façon que nous avons consacré un chapitre complet au thème "Comprendre les images", il serait nécessaire de proposer de façon équivalente un chapitre "Comprendre les spectres". Pour des raisons bien compréhensibles de place en arrivant près de la conclusion de ce volume, cette démarche ne peut que rester relativement superficielle, d'autant plus que les effets physiques dont il est nécessaire de maîtriser les interprétations physiques deviennent de plus en plus raffinés et subtils.
A plusieurs reprises dans ce chapitre, nous avons déjà eu l'occasion de souligner que cette composante analytique ajoutait une nouvelle dimension à l'imagerie du monde nanométrique. Le nombre d'images qu'il est ainsi possible d'enregistrer croît au rythme des fenêtres spectrales utilisées. L'aspect "images en couleur" a déjà été évoqué non sans raison. Mais le saut accompli ne peut réellement être mesuré qu'au terme d'une nouvelle réflexion sur la signification des images.
Dans le langage technocratique d'aujourd'hui, le microscope électronique est considéré comme un "équipement mi-lourd". Bien entendu ce n'est pas son poids qui est en cause bien qu'il tourne autour de quelques tonnes en général. Non, sous cette désignation, c'est son coût qui est concerné. L'acquisition et l'installation d'un microscope électronique requièrent un budget pouvant varier entre 500 kF et 5 à 10 MF. Les prix les plus bas permettent l'achat d'un microscope à balayage dans sa version de base alors que la limite supérieure correspond à un microscope à transmission avec tous les développements et accessoires récents pour l'analyse, la digitalisation et le traitement des données, un canon à effet de champ et quelques porte-objets spéciaux pour effectuer in-situ sur l'échantillon des traitements thermiques, des déformations au cours de l'observation...
Cet ouvrage a été complétement récrit en 1996 pour se substituer à une première version du même titre sous la plume de Pierre Selme de 1963. C'était à l'époque un ouvrage de référence et je me souviens que ce fut ma première lecture sur la microscopie électronique au moment d'intégrer le groupe de recherches du Professeur Castaing à l'Université d'Orsay en 1965 pour y commencer mon travail de thèse. mais en trente années bien des choses ont changé et à part quelques lignes et une ou deux figures sur la conception des lentilles magnétiques pour l'optique électronique, il ne subsiste rien de commun entre le présent texte et la première version. il est même dommage que ce titre ne soit plus guère disponible au catalogue, car la comparaison est particulièrement édifiante. Que de progrès réalisés depuis cette époque!
Pour la présente version j'ai été particulièrement aidé par mon collègue Paul Ballongue du Laboratoire de Physique des Solides qui a réalisé l'ensemble des figures originales. Qu'il en soit chaleureusement remercié. Je dois aussi remercier tous les collègues qui m'ont communiqué les documents (micrographies, clichés de diffraction, spectres) illustrant cet ouvrage et lui conférant ainsi un caractère visuel très attractif. Les firmes d'instrumentation scientifique fabriquant ou participant au développement de microscopes électroniques publient également des documentations scientifiques fort bien réalisées et illustrées sur leurs produits. Ces sources d'information m'ont aussi été très précieuses.
Aux lecteurs qui désireraient consulter, à la fin ce cette lecture, des ouvrages plus complets, je recommanderai les titres suivants:
i) le bouquin du CNRS récent publié par P. Hawkes
ii) Transmission Electron Microscopy et Scanning Electron Microscopy par L. Reimer, Vol. 36 et 45 de Springer Series in Optical Sciences
iii) Handbook of Microscopy, edité par S. Amelinckx et coll., sous presse chez VCH (Allemagne)