La Microscopie Electronique

La Microscopie Electronique

par

Christian COLLIEX

Directeur de Recherches au CNRS

1996, Presse Universitaire de France

Edition française actuellement hors catalogue.

Edition allemande disponible auprès de l'editeur Wissenschaftliche Buchgesellschaft:

C. Colliex (trad. H. Kohl), Elektronenmikroskopie: eine anwedungsbezogene Einführung, Darmstadt (2008) isbn: 978-3804723993

Table des Matières

Chapitre I : Introduction

I.1 Les échelles du monde infiniment petit

Grâce à notre expérience corporelle quotidienne nous avons appris à connaître le monde qui nous entoure. Dans cette exploration de notre espace sensoriel, la vision joue un rôle prépondérant dans la mesure où, grâce à la stéréoscopie du système oculaire, elle permet de nous situer dans son intégration à trois dimensions. Nous savons aussi que le détecteur constitué par les cellules de notre rétine permet de discerner les couleurs à l'intérieur d'un spectre s'étendant du bleu violet au rouge profond.

Si riche soit elle, cette perception visuelle n'offre qu'un champ limité d'exploration et depuis fort longtemps l'homme s'est ingénié à réaliser des outils permettant de dépasser ces limites. C'est à cette démarche que participent tous les développements de l'optique. Aux insuffisances de l'oeil pour détecter des détails de plus en plus fins, le premier remède fut la loupe, cet instrument taillé ingénieusement dans un matériau transparent et capable de délivrer d'un objet une image agrandie. C'est le point de départ de la microscopie, qui, comme l'indique son étymologie (du grec mikros, petit, et skopein, examiner), permet l'examen d'objets ou de détails invisibles à l'oeil nu. Dans cette exploration du monde de plus en plus petit, le microscope électronique constitue l'un des outils les plus perfectionnés.

Dans cette brève introduction, un certain nombre d'éléments-clés sont d'ores et déjà identifiables et vont constituer la trame de notre réflexion tout au long de cet ouvrage. Le microscope électronique est un instrument, donc un intermédiaire entre l'homme et la matière. Un instrument délivre des informations, et dans le cas présent nous parlerons d'images, dont il est nécessaire de comprendre la relation profonde avec l'objet étudié. Comme dans le processus de la vision directe par l'oeil, l'information acquise doit être interprétée. Si dans le premier cas le cerveau remplit naturellement cette fonction et nous procure la vision de l'objet en termes de contour, forme, dimension et couleur, la démarche équivalente, lorsqu'un instrument d'optique intervient dans cette chaîne de perception, requiert une compréhension de toutes les étapes conduisant à l'acquisition de ces images. Il s'agit d'interpréter une image, un contraste, une distribution de couleurs et cette étape fait nécessairement appel à un support théorique. Enfin, dans ce monde à l'intérieur duquel nous sommes naturellement aveugles, comment est-il possible de se repérer, en un mot quelles sont les dimensions accessibles, comment les mesurer, comment vérifier que l'image obtenue est une représentation significative ? C'est pourquoi, en utilisant toutes les données fournies par les instruments les plus divers imaginés et réalisés au cours de ces dernières années, il nous paraît indispensable de rappeler en premier lieu, les échelles de dimensions pour les différents constituants de la matière.

L'unité de longueur du système métrique est le mètre (m). Pour pénétrer dans le domaine des petites dimensions, nous allons procéder par bonds d'un facteur mille. La première étape est le millimètre (mm ou 10-3m), grandeur que nous savons encore apprécier directement comme la dimension de la petite division d'une règle graduée. L'étape suivante est le micromètre (µm ou 10-6m), mille fois plus petit que le millimètre et qu'il devient impossible d'appréhender sans l'aide d'un microscope ordinaire. Franchissons encore une étape, nous atteignons le domaine du nanomètre (nm ou 10-9 m soit un milliardième de mètre). Le microscope électronique va nous donner les clés pour l'explorer. Les dimensions inférieures s'appellent pour mémoire le picomètre (pm ou 10-12m) et le femtomètre (fm ou 10-15m). Sur la figure I.1 sont reportées vis-à-vis de l'échelle ainsi définie les dimensions typiques d'un certain nombre d'objets ou de structures identifiables.

 

Figure I.1

Accordons une place toute particulière à l'atome dont la dimension caractéristique est de l'ordre du dixième de nanomètre sur l'échelle ci-dessus, grandeur pour laquelle a été introduite une unité de longueur spéciale: l'angström (Å). Nous savons que toute matière relevant du règne animal, végétal ou minéral, est constituée d'arrangements plus ou moins organisés d'atomes ou de familles d'atomes (les molécules). Cette notion d'atome est centrale dans les représentations de l'univers et dans les modèles de compréhension de la matière mais il faut bien reconnaître que jusqu'à une période récente, elle relevait d'une visualisation théorique plus que réelle. A la question "Pouvez-vous me montrer un atome ou une famille d'atomes ordonnés?", ce ne sont que les progrès récents de l'instrumentation scientifique et en particulier de la microscopie électronique, qui ont pu apporter des réponses positives.

Pour information, poursuivons notre description sommaire des constituants de l'atome à l'échelle subatomique. Dès le début du siècle, l'atome était décrit, par Rutherford par exemple, comme un système solaire de taille infiniment petite avec des particules de charge négative, les Z électrons de l'atome, gravitant autour d'une particule de charge positive, le noyau. Peu à peu le modèle s'est affiné; le choix des trajectoires offertes aux électrons ne se fait pas au hasard, ils occupent des familles d'orbitales bien définies auxquelles correspondent des énergies elles aussi bien définies. La figure I.2 fournit une représentation "naïve" de l'atome, telle qu'on peut la déduire d'une description en termes de mécanique quantique. L'électron n'y est plus une particule ponctuelle située à un instant donné en une position bien définie sur sa trajectoire avec une vitesse donnée. Il faut au contraire considérer l'atome comme une succession de pelures d'oignon autour du noyau, constituées de nuages électroniques associés à leur probabilité de présence  dans ces domaines de l'espace. Ces couches ou orbitales correspondent à des états quantiques dont les niveaux d'énergie sont bien déterminés, résultant des lois de la mécanique quantique et de l'équilibre des forces électromagnétiques. Cette connaissance de la structure interne des atomes nous sera très utile dans un chapitre ultérieur quand nous décrirons les techniques élaborées pour identifier la nature des atomes constitutifs de l'échantillon examiné en microscopie électronique.

 

Figure I.2

L'atome n'est cependant pas cet être insécable que pourrait laisser supposer son appellation. Les méthodes de la physique atomique ont montré qu'il est possible de "jouer" avec les électrons d'un atome, de les exciter en les faisant passer d'une couche à une autre, de les arracher même à leur atome, laissant derrière eux des ions positifs, c'est à dire des atomes ayant perdu une ou plusieurs charges électriques. Et il est bien heureux qu'il soit ainsi possible, sous certaines conditions, d'extraire de la matière constituée d'un assemblage d'atomes, quelques électrons. Car c'est le principe même de la microscopie électronique que d'utiliser ces électrons comme des particules libres que l'on accélère et qu'on envoie sur une cible tels des projectiles pour en étudier la structure.

Pour être complet dans cette introduction à la constitution de la matière, rappelons enfin, bien que cet aspect soit sans influence directe avec le thème du présent ouvrage, que le jeu des "poupées russes" s'emboîtant les unes dans les autres n'est pas terminé à ce niveau. Le noyau est lui-même une structure complexe composée de nucléons (les neutrons sans charge électrique et les protons de charge positive égale en valeur absolue à celle de l'électron). Les protons eux-mêmes sont composés de quarks, au nombre de six, et on se demande maintenant si ces quarks ne sont pas des architectures complexes faites de pré-quarks. Nous sommes là dans un tout autre domaine, celui de la physique des très hautes énergies qui utilise des appareillages gigantesques pour comprendre les rouages les plus subtils de la composition de notre univers. Pour se convaincre qu'il reste encore beaucoup à apprendre, ne serait-ce que sur les dimensions de ces différents composants, la taille des noyaux et des nucléons est bien connue, respectivement autour de la dizaine de femtomètres et du femtomètre, mais personne à ce jour n'est capable de donner un ordre de grandeur pour la taille de l'électron. Et pour les quarks les conjectures tournent autour de 10-30 m.

Restons raisonnables et revenons au niveau de l'angström et au-dessus, domaine où l'arrangement des atomes en solides divers régit les propriétés diverses de la matière, domaine qui va aussi constituer le champ d'investigations particulièrement adapté aux performances des microscopes électroniques modernes.

I.2 Les outils d'exploration du monde infiniment petit

Au cours de l'observation visuelle, les informations relatives à l'objet, c'est-à-dire sa forme, son contour, sa couleur, sont contenues dans les modifications du rayonnement lumineux utilisé pour l'observer. Il s'agit d'un cas particulier d'interaction entre un rayonnement externe et la matière et il est naturel d'étendre cette approche à d'autres domaines du spectre du rayonnement électromagnétique, dont la lumière "visible" ne constitue qu'une infime partie. La figure I.3 rappelle la place occupée par cette fraction du spectre directement accessible au détecteur oculaire dans l'ensemble du spectre ondulatoire. Les échelles sont exprimées en longueurs d'ondes (l) à comparer aux échelles de longueur introduites dans le paragraphe précédent. Une autre présentation utile de la gamme des rayonnements électromagnétiques est en termes de fréquences, car il s'agit d'ondes périodiques de fréquences caractéristiques n se propageant à la vitesse de la lumière c, telles que:

n = c/l   ( n est exprimée en hertz Hz = s-1)

Figure I.3

Ainsi on conçoit aisément qu'une première solution pour adapter le rayonnement incident à l'échelle des dimensions explorées consiste à modifier la longueur d'onde de l'onde utilisée. L'information spectrale prend alors une autre signification, débordant largement celle de couleur. En effet à une fréquence n correspond une énergie déterminée E par l'intermédiaire de la relation :

E= hn (avec h = constante de Planck = 6,62x 10-34 Js)

Outre la détermination des distances caractéristiques à une échelle variable, une approche expérimentale consistant à mesurer la distribution en fréquences du rayonnement après intéraction avec l'objet, permet aussi d'en déterminer les niveaux énergétiques spécifiques et par conséquent d'en identifier la composition chimique ou les propriétés électroniques, comme nous le montrerons dans un des chapitres ultérieurs.

Une autre solution consiste à remplacer la nature même du rayonnement incident. A la suite des travaux de de Broglie, on sait qu'il est possible d'attribuer à toute particule de masse m et de vitesse v un comportement ondulatoire de longueur d'onde l, telle que:

l = h/mv

C'est la conséquence immédiate de la dualité onde-corpuscule qui fut le fondement de la mécanique ondulatoire entre 1920 et 1930. Par conséquent, il est possible de substituer aux photons, grains d'énergie lumineuse sans masse, des particules  accélérées, comme outil d'exploration de la matière. C'est l'origine de l'idée d'utiliser des électrons à cette fin. Mais évidemment d'autres possibilités existent et le tableau I.1 ci-dessous résume les principales solutions envisageables.

Tableau I.1

Paramètres des différents types de particules utilisables pour explorer la matière


Nature

Longueur d'onde (nm)

Energie

Photons (visible)

400 Æ 700

? 2 eV

Photons (domaine X)

5x10-2 Æ 1,25

25 keV Æ 1keV

Electrons

10-3 Æ 3x10-3

1 MeV Æ 100 keV

Protons ou ions

~ 10-4

~ 10 keV

Neutrons

~ 0,1

~ 0.025 eV


Dans ce tableau, les énergies sont exprimées en eV, c'est-à-dire en unité équivalente à l'énergie d'un électron accéléré sous un volt (1 eV = 1,6x10-19J)

Suivant que l'on raisonne en termes d'ondes ou de corpuscules, le comportement de ces projectiles doit être décrit différemment. Dans le premier cas nous parlerons d'interférences, de diffraction, de contraste de phase. Dans le second, il est plus adapté de considérer l'interaction rayonnement-matière en termes de collisions.  On irradie l'échantillon avec un faisceau de particules de vitesses et de directions bien définies et on mesure avec un détecteur la distribution des vitesses et des directions après collision.

Dans toutes ces expériences de diffraction ou de collision entre un faisceau primaire et l'échantillon cible, la source de particules et le (ou les) détecteurs sont situés à une grande distance (très grande vis-à-vis des longueurs d'onde utilisées) de l'échantillon. Cette configuration est valable pour toutes les microscopies traditionnelles décrites dans cet ouvrage: on est dans le régime de propagation ou de champ lointain. Le lecteur doit cependant être averti que depuis 1980, cette approche n'est plus la seule offerte. A la suite des travaux de Binnig et de Röhrer au début des années 1980 au sein du laboratoire IBM de Zürich, une nouvelle famille de "microscopes" a vu le jour. Il s'agit bien de microscopes au sens premier du terme, mais leur conception est radicalement différente. Pour cette nouvelle famille d'instruments, dits de champ proche pour les distinguer clairement des microscopes conventionnels, les fonctions de source, d'échantillon et de détecteur ne sont pas nettement séparées. Il n'existe pas de propagation de l'information entre ces différentes composantes dans la mesure où elle est recueillie à la source même de sa production. Le prototype en est le microscope tunnel qui utilise la dépendance très rapide du courant électrique tunnel entre une pointe métallique et la surface du solide à explorer. Ce dispositif, dont le principe est représenté sur la figure I.4, a permis de réaliser des images de surface avec une résolution meilleure que la distance inter-atomique.

Figure I.4

A partir de cette première réalisation, toute une génération d'instruments nouveaux a vu le jour. Ils reposent tous sur le principe d'une sonde locale qui explore point par point une grandeur physique de l'objet étudié. A ce jour le succès le plus spectaculaire est celui du microscope à force atomique qui mesure les forces d'interaction pointe-substrat, et dont le champ d'applications est par conséquent immense. Ces nouvelles technologies sont décrites dans un volume indépendant de la même collection.

I.3 La notion d'image

Dès les premières lignes de ce chapitre, nous avons souligné que tout microscope, et le microscope électronique en particulier, est un instrument qui fournit de la matière explorée des images, dont le cerveau et les théories qu'il a su élaborer, doivent nous permettre de saisir la signification. Cette notion d'image constitue donc un concept tout à fait fondamental qui mérite bien quelques considérations générales, même si celà peut paraître superflu dans la civilisation de l'image au sein de laquelle nous vivons.

Tout au long de la journée, nous sommes submergés d'images, que ce soit sur le support papier du journal, sur le tube cathodique de notre écran de télévision ou de notre ordinateur, sur la diapositive que nous projetons en famille sur un drap blanc hâtivement tendu. Mais qu'ont-elles donc toutes en commun ces images? Elles nous informent, à divers niveaux, sur le monde qui nous entoure et que nous ne percevons pas directement. La télévision nous transporte, comme si nous y étions réellement, à l'autre extrémité de la planète pour y assister à un événement sportif, aux funérailles d'une personnalité illustre. Elle nous fournit une certaine vision de ce que nous ne percevons pas directement.

C'est donc le propre de toute image que de fournir une représentation, généralement par l'intermédiaire d'un support plan de taille finie, d'une scène, d'un paysage, d'un évènement. Elle nous fournit une certaine vision de ce que nous ne percevons pas directement.

Figure I.5

Schématiquement, nous pouvons donc définir toute image comme une distribution bidimensionnelle d'information I(x,y), voir figure I.5. Pratiquement pour tous les cas usuels de notre vie, le récepteur final étant l'oeil, l'information présentée est une intensité lumineuse sur une certaine échelle allant du noir au blanc, et dans les cas plus élaborés faisant intervenir le spectre des couleurs. Chaque image peut donc être décrite comme une assemblée organisée d'éléments d'image, appelés pixels (x,y) dont le nombre peut varier notablement. Plus le nombre de pixels est élevé dans une image donnée, meilleure est sa définition. Dans un monde de plus en plus régi par l'informatique et le système binaire, on préférera donc une image 1024X1024 à une image 512x512.  De la même façon, la gamme des intensités dans une image s'évalue en niveaux de gris  et on sait que l'oeil humain ne peut en discerner qu'un nombre réduit, quelques centaines dans les meilleurs cas. Néanmoins, dans tout système pourvoyeur en images, il est souvent utile de transporter une échelle plus dense d'intensités ( 64000 niveaux ou 16 bits par exemple), quitte à la comprimer en un domaine plus réduit au niveau de la présentation finale.

A partir des exemples cités ci-dessus, on peut classer les modes de production d'images en deux grandes familles, celle où la définition des différents pixels se fait spatialement par l'intermédiaire d'un instrument d'optique (une lentille de projection par exemple) et celle où elle s'accomplit séquentiellement en utilisant le déplacement d'une sonde selon une trame déterminée (dont le plus bel exemple est l'image télévision). Dans le domaine qui nous concerne nous appellerons les deux grandes classes de microscopes qui s'y rattachent microscopes conventionnels et microscopes à balayage respectivement. Dans le premier cas, on dit qu'il existe une relation biunivoque entre chaque point de l'objet et chaque point de l'image et cette relation se comprend aisément si la correspondance entre points objets et points images se fait par l'intermédiaire d'un ensemble de fibres optiques individualisées. Nous montrerons que les lentilles de l'optique lumineuse (et électronique) peuvent remplir ce rôle. Dans le second cas, la relation image-objet s'effectue par l'intermédiaire du déplacement synchronisé de la sonde sur l'échantillon et du spot de visualisation sur l'écran cathodique du moniteur. A cette catégorie appartiennent bien sûr tous les microscopes de champ proche décrits ci-dessus.

A l'occasion de divers événements, on a tous fait l'expérience que l'image montrée pouvait travestir la réalité. Par exemple, dans une photo de groupe, un individu peut être caché par un autre et, bien que présent, ne pas apparaître dans le cliché. Sans aller jusqu'à introduire la contribution subjective de l'artiste qui montre "sa" vision des choses, on peut se demander si l'instrument ne déforme pas lui aussi, mais de façon objective, la réalité. Dans le domaine de la microscopie c'est un problème fondamental quand on n'a pas accès à d'autres moyens de connaître la structure de l'infiniment petit qui nous intéresse. Nous le rencontrerons donc à de nombreuses reprises, en particulier au moment de définir la limite de résolution du microscope quand il s'agira d'évaluer le flou nous empêchant de distinguer deux détails très proches l'un de l'autre. A d'autres moments, nous introduirons la notion de transfert limité de l'information qui s'adapte très bien à tous les instruments délivrant des images. Mais nous saurons aussi utiliser toutes les possibilités de l'informatique qui est désormais capable de créer des images de synthèse. Nous montrerons en quoi il est utile de synthétiser à partir de paramètres déterminés des images théoriques à comparer aux images expérimentales.

Chapitre II : Du microscope photonique au microscope électronique

II.1 Le fonctionnement et les limites du microscope photonique

Le microscope photonique (ou optique) est le descendant des premiers microscopes inventés en Hollande au XVIIème siècle et qui, sans cesse développés au cours des siècles, ont contribué si puissamment à notre connaissance du monde microscopique, dans tous les domaines des sciences expérimentales de la physique à la chimie, de la pétrologie à la biologie. Il utilise les radiations électromagnétiques du spectre visible (la lumière) ou dans le proche infrarouge ou ultraviolet, dont la propagation est déviée, focalisée par des lentilles de verre. La lumière est une ondulation constituée par des vibrations de champs électrique et magnétique se propageant aussi bien dans le vide que dans l'air ou dans des matériaux transparents. Ces vibrations sont périodiques, c'est-à-dire qu'elles se retrouvent identiques à elles-mêmes en un point de l'espace à des intervalles de temps réguliers (la période T  exprimée en secondes) ou avec une fréquence n = 1/T (exprimée en Hertz). Elles se propagent dans le vide à la vitesse c (égale à la vitesse de la lumière) et la distance, à un instant donné, entre deux états équivalents de l'oscillation est la longueur d'onde l (exprimée en unités de longueur). Chaque couleur du spectre visible correspond à une longueur d'onde déterminée comprise entre 0,4 et 0,7 mm environ. La lumière blanche est un mélange de toutes les radiations de longueur d'onde comprises dans cette bande. L'ultraviolet correspond aux radiations de longueur d'onde inférieure et l'infrarouge à celles  de longueur d'onde supérieure.

Un microscope traditionnel est constitué des principaux éléments suivants:

  • une source de rayonnement lumineux et un dispositif d'éclairage de l'objet;
  • une optique constituée de plusieurs lentilles assurant la fonction d'agrandissement;
  • un détecteur permettant l'observation ou l'enregistrement de l'image (oeil, émulsion photographique, caméra et moniteur TV).

L'échantillon peut être observé en transmission s'il est partiellement transparent à la lumière ou en réflexion si il possède un fort pouvoir réfléchissant comme une surface métallique ou minérale. La figure II.1 présente un schéma de principe pour un microscope moderne permettant une variété d'éclairements et de modes d'observation. On y repère plusieurs familles de lentilles: les condenseurs, l'objectif, l'oculaire, les projecteurs. L'instrument original, à l'architecture simplifiée, était constitué d'un objectif qui donne de l'objet une image agrandie et d'un oculaire, jouant le rôle d'une loupe et au travers duquel on observe à l'infini une image virtuelle agrandie. L'objectif est en fait le coeur du microscope et de ses propriétés dépendent essentiellement les performances de l'instrument.

Figure II.1

Dans un schéma simplifié (voir la fig. II.2), pour un microscope plein champ où l'ensemble de la préparation est éclairé, on assimile l'objectif et l'oculaire à des lentilles minces simples. L'objet est représenté par un segment A0B0 dont l'objectif de distance focale f (de quelques mm) donne une image agrandie A1B1. De cette image située dans son plan focal objet (distance focale f' de quelques cm), l'oculaire donne une image A'B' rejetée à l'infini et observée par l'œil. La mise au point s'effectue en modifiant la distance frontale entre l'objet et la face d'entrée de l'objectif.

En microscopie visuelle, on appelle grossissement le rapport entre l'angle q' sous lequel on voit dans l'instrument l'image A'B' et l'angle q sous lequel l'œil le verrait à la distance d'approche maximum soit 25 cm:

$G=\frac{\tan \theta '}{\tan \theta}\simeq 500$

Pour obtenir une microphotographie, on introduit après l'oculaire un objectif photographique qui forme sur l'émulsion placée dans son plan focal une image réelle A''B''. Dans ce cas on caractérise le fonctionnement du microscope par son grandissement linéaire total:

$$ g=\frac{A''B''}{A_0B_0}$$

Figure II.2 La formation de l'image dans un microscope optique.

Même si on augmente le grossissement au-delà de 1000, la qualité de l'observation ne s'améliore pas car on atteint alors la limite de résolution de l'instrument. Cette notion mérite une discussion plus approfondie. Le premier obstacle est associé à la nature ondulatoire du rayonnement: il s'agit du phénomène de diffraction. L'image d'un point, donnée par une lentille parfaite et un rayonnement monochromatique de longueur d'onde l, est une tache circulaire brillante entourée d'anneaux moins lumineux dont l'intensité décroît lorsqu'on s'écarte du centre; il s'agit de la tache d'Airy dont on sait que le diamètre d est égal à 1.22 l/a' (voir fig. II.3).

Figure II.3 - Diffraction par une ouverture et définition du pouvoir de résolution

Ramenée au plan objet, cette dimension s'exprime grâce à la même formule avec l'angle a égal au demi-angle sous lequel l'objet est vu par l'objectif. A partir de la formule ci-dessus, on constate que cette tache sera d'autant plus étroite, et l'image par conséquent d'autant plus piquée, que l'angle a augmente et que la longueur d'onde l décroît. Pour une lentille objectif de faible distance focale travaillant avec un grandissement de l'ordre de 100, l'angle a n'est plus très petit et on le remplace dans la formule ci-dessus par l'ouverture numérique $O_n=n\sin \alpha$ où n est l'indice de réfraction du milieu dans lequel on peut immerger l'échantillon devant la face d'entrée de l'objectif. Les plus grandes ouvertures numériques sont de l'ordre de 1,3. Pour une longueur d'onde de 0,6 mm correspondant à de la lumière jaune, on obtient donc une valeur de d = 0,56 mm.

Le pouvoir de résolution (ou pouvoir séparateur) mesure la distance transversale minimale s entre deux points dont les taches de diffraction peuvent être séparées. Suivant le critère de lord Rayleigh, on définit cette distance pour le cas où le maximum d'une tache de diffraction se situe au premier zéro de la tache voisine. Il en résulte que:

$$s=\frac{0.61\lambda}{O_n}$$

soit 0,28 µm pour l'exemple ci-dessus.

Il existe une autre façon de mesurer la qualité de l'observation fournie par un système optique que l'on comprend aisément en se référant aux mires de réglage de nos écrans de télévision. Supposant que notre objet soit constitué d'un réseau de lignes blanches et noires de périodicité p. Comme le montre la fig. II.4, l'image qu'en donne l'objectif est un contraste oscillant g = (I2 - I1)/(I1 + I2) où I2 est l'intensité des maximums et I1 celle des minimums. La fréquence spatiale n'a pas changé mais les traits noirs sont devenus gris et cet effet est d'autant plus marqué que la distance p est plus faible, c'est-à-dire quand la taille de la tache de diffraction devient de l'ordre de grandeur de la période p. On représente cette variation sous forme d'une fonction de transfert de contraste entre la valeur du contraste g et la fréquence spatiale 1/p. Pour une certaine fréquence de coupure 1/p0, le contraste dans l'image est devenu zéro et I1 = I2. La connaissance de la fonction de transfert, et de la fréquence de coupure en particulier, apporte toutes les informations nécessaires sur la loi de correspondance entre l'objet et l'image.

Figure II.4 Une autre approche à la définition du pouvoir de résolution : la fonction de transfert.

Dans la discussion qui précède, nous avons supposé que la lentille objectif est une lentille parfaite. Or on sait que les lentilles de verre ne sont pas exemptes de défauts. Elles souffrent en particulier de chromatisme, c'est-à-dire qu'elles focalisent mieux les radiations de plus courte longueur d'onde, ce qui entraîne des effets d'irisation lors de l'utilisation de la lumière blanche. De plus, même pour une lumière monochromatique, la focalisation n'est pas parfaite. Par exemple, les rayons marginaux convergent davantage que les rayons passant près de l'axe de la lentille, ce qui est responsable d'effets connus sous le nom d'aberration sphérique (ou d'ouverture) et de coma. Les lentilles de l'optique photonique présentent cependant une grande qualité, à savoir qu'elles peuvent être soit convergentes, soit divergentes selon la nature de la courbure de leurs faces. En associant plusieurs lentilles de propriétés différentes en doublets, triplets et multiplets, il est possible de réaliser des objectifs stigmatiques, pour lesquels le chromatisme, l'aberration sphérique et la coma sont corrigés.

Suivant la direction de propagation du rayonnement en transmission, il est aussi important de définir une résolution verticale, ou profondeur de champ. C'est la distance dz, sur l'axe optique, pour laquelle la netteté des détails perçus reste acceptable. Cette épaisseur est d'autant plus faible que l'ouverture numérique On est plus grande. Dans les meilleurs cas elle est aussi de l'ordre d'une fraction de micromètre et de cette façon on peut dire que le microscope réalise une coupe optique dans l'objet, bien qu'un rayonnement lumineux défocalisé provenant des coupes adjacentes soit aussi transmis à l'observateur.

Afin d'améliorer le pouvoir de discrimination optique à travers l'épaisseur d'un échantillon transparent, le microscope confocal à balayage laser est apparu récemment sur le marché. Dans cet instrument, la source et le détecteur sont focalisés simultanément en un même point de l'échantillon par un jeu adapté de trous d'épingle (diaphragmes), de miroirs et d'objectifs communs. L'échantillon est éclairé et interrogé point par point, de façon successive grâce à un mécanisme de balayage optique du faisceau. Ce principe permet d'éliminer totalement la lumière qui ne provient pas du plan de mise au point optique. Par conséquent, on a ainsi accès à un contraste amélioré, une très faible profondeur de champ (de l'ordre de 0,5 mm) tout en conservant une résolution latérale de 0,2 à 0,3 mm par utilisation d'objectifs à immersion de forte ouverture numérique. Ce microscope confocal, permettant de réaliser des observations tridimensionnelles avec une résolution submicronique dans les trois directions, représente le développement le plus important de la microscopie photonique au cours des dix dernières années, en particulier dans le domaine tissulaire et cellulaire lorsqu'il est utilisé avec des marqueurs fluorescents spécifiques.

Dans cet exposé rapide des acquis de la microscopie photonique, nous avons volontairement omis les développements les plus récents en microscopie de champ proche, sans propagation, où la distance objet-détecteur est faible par rapport à la longueur d'onde du rayonnement. Il s'agit d'une des retombées les plus spectaculaires des techniques de microscopies tunnels déjà mentionnées brièvement en I.2.

II.2 L'électron comme source de rayonnement primaire

C'est à partir de la définition et de l'évaluation du pouvoir de résolution du microscope photonique, bien adapté à l'exploration du monde micronique, que se justifie le recours à des faisceaux d'électrons pour espérer franchir plusieurs ordres de grandeur et avoir accès directement aux distances interatomiques. Le seul paramètre sur lequel il est possible de gagner le facteur  de l'ordre de 1000 requis, est la longueur d'onde de la radiation utilisée. Dans le tableau I.1 nous avons montré que deux solutions étaient envisageables, à savoir le recours à des radiations électromagnétiques dans le domaine X ou à des particules chargées et en particulier à des électrons.

Dans le premier cas, les progrès ont été très lents dans la mesure où ne savait pas réaliser des éléments optiques focalisants (tous les matériaux ont un indice de réfraction quasiment égal à l'unité dans cette gamme de longueurs d'onde). La seule solution consistait à envisager des microscopies par projection où on observe l'ombre portée de l'échantillon sur le détecteur. La résolution est alors limitée soit par la taille de la source, soit par celle du détecteur (grain de l'émulsion) suivant la configuration, source-échantillon-détecteur, choisie. Mais dans tous les cas cette résolution n'est pas sensiblement différente de celle offerte par la microscopie photonique dans le domaine visible. Ajoutons cependant que l'introduction d'optiques à base de réseaux faits d'empilements de matériaux lourds et légers, a permis récemment  de réaliser des expériences prometteuses de focalisation de rayons X avec une résolution de l'ordre de quelques dizaines de nanomètres. C'est un progrès très sensible dans la voie d'une microscopie X dont il faudra suivre l'évolution avec intérêt.

Revenons à la relation de Louis de Broglie qui attribue une longueur d'onde l à un électron de masse m et de vitesse v, soit l = h/mv. Ceci n'est qu'une loi approchée non relativiste. La loi exacte tenant compte de l'énergie au repos de l'électron, $E_0=mc^2=511 $  keV,  est:

$$ \lambda(pm)=\frac{1226}{[eV(1+0,9785 \cdot 10^{-6}eV)]^{1/2}} $$ (II.2)

à partir de laquelle on peut calculer les paramètres associés à des électrons accélérés dans le vide sous une tension V (Tableau II.1)

Tableau II.1

V (kV)

b = v/c

m/m0

l (pm)

100

0,548

1,196

3,70

300

0,776

1,587

1,97

1000

0,941

2,957

0,87

Il résulte de la lecture de ce tableau que les électrons accélérés sous les tensions usuelles de fonctionnement d'un microscope électronique se propagent à une vitesse supérieure à la moitié de la vitesse de la lumière, qu'ils sont donc relativistes avec une masse variant de 1,2 à 3 fois la masse de l'électron au repos, que leur longueur d'onde est nettement inférieure aux distances moyennes interatomiques et qu'ils constituent donc un rayonnement adapté à l'exploration de la matière aux échelles subnanométriques.

Construire un instrument d'optique électronique de conception semblable au microscope optique est en outre envisageable car on sait que ces particules chargées sont susceptibles de subir l'action des forces imposées par des champs électromagnétiques et de voir ainsi leurs trajectoires modifiées et contrôlées. Il est ainsi possible de réaliser des combinaisons de champs exerçant sur ces particules une action identique au rôle des lentilles de verre pour les rayons lumineux, ce sont les lentilles électroniques que nous décrirons dans le chapitre suivant. Par contre, utiliser un faisceau d'électrons impose un certain nombre de contraintes, la plus importante étant qu'à cause de leur pouvoir d'interaction avec la matière, ils ne se propagent librement que dans le vide. Une colonne de microscope électronique est donc essentiellement une enceinte pompée sous des vides de l'ordre ou inférieur à un milliardième de la pression atmosphérique. (Cette affirmation sera commentée à nouveau au paragraphe IV.4).

II.3 Une brève histoire de la microscopie électronique

Le microscope électronique, utilisant un faisceau d'électrons accélérés sous une différence de potentiel donnée pour produire une image agrandie de la matière, n'a pas été conçu et construit d'un seul coup. Les appareils en fonctionnement de nos jours sont le résultat d'une évolution graduelle qui a été initiée au début de ce siècle. A l'origine on peut situer la découverte de l'électron et de ses propriétés. Citons surtout J.J. Thomson qui en 1897 détermine le rapport e/m entre la charge et la masse de ces charges élémentaires d'électricité négative et Millikan qui en 1909 mesure leur charge individuelle égale à 1,6. 10-19 C. Leur masse est donc de 9,1.10-31 kg. A la même époque, les expériences réalisées par un certain nombre de physiciens (Birkeland, Poincaré) sur les faisceaux d'électrons, aussi connus alors sous le nom de rayons cathodiques, montrent qu'il est possible de les faire converger vers des points privilégiés de l'espace, au moyen de champs magnétiques de révolution en particulier. Les éléments nécessaires à la réalisation de lentilles électroniques étaient rassemblés, mais il fallut attendre près de trois décennies pour que les étapes menant à la rmise au point du premier microscope électronique soient franchies.

Les travaux théoriques de Louis de Broglie établissant l'aspect ondulatoire des électrons, constituèrent un élément décisif à l'origine des premières réalisations expérimentales. En parallèle Hans Busch, un physicien allemand, établit les bases de l'optique électronique. En calculant les trajectoires des électrons dans un champ magnétique à symétrie de révolution, il montre qu'ils s'y comportent de façon similaire aux rayons lumineux dans les systèmes optiques à symétrie de révolution, permettant ainsi de concevoir des lentilles électroniques équivalentes aux lentilles de l'optique photonique. Les principaux éléments devant conduire à la naissance du microscope électronique sont en place. Ceci n'échappe guère à l'attention de deux physiciens, qui deviendront célèbres plus tard, bavardant en 1928 dans un recoin du café Wien à Berlin:

Szilard: "Busch has shown that one can make electron lenses, de Broglie has shown that they have sub-Angström wave lengths. Why don't you make an electron microscope, one could see atoms with it!"

Gabor: "Yes, I know. But one cannot put living matter into a vacuum and everything will burn anyway to a cinder under an electron beam."[1]

    L'histoire montrera comment ils avaient en quelques mots compris les perspectives immenses qui s'ouvraient à eux tout en en identifiant les limites.

    Malgré tout, deux physiciens berlinois décidaient de se lancer dans l'aventure: le 4 juin 1931, Max Knoll rapporte lors d'une conférence à l'Ecole Technique de Berlin les expériences réalisées avec son étudiant Ernst Ruska, présentant à cette occasion les premières images obtenues avec un microscope à deux lentilles fonctionnant sous une tension de quelques milliers de volts. Déjà une résolution de quelques dizaines de nanomètres était atteinte, les limites fondamentales de la microscopie photonique étaient franchies et c'était le début d'une grande aventure, pour laquelle l'un des inventeurs, Ernst Ruska, dut attendre plus de cinquante années avant de se voir décerner le prix Nobel de physique en 1986. La figure II.5 montre un schéma du premier microscope électronique réalisé en 1931. Berlin était alors le théâtre d'une grande effervescence dans ce domaine. La société AEG-Telefunken y avait créé un centre de recherches très actif au sein duquel Ernst Brüche aidé de son collaborateur H. Johannson, obtenait lui aussi, quelques mois plus tard en août 1931, ses premières images de microscopie électronique, après avoir dès 1930, introduit la notion d'indice de réfraction fictif, complétant ainsi l'analogie entre l'optique électronique et l'optique géométrique.

    Le mouvement, initié en Allemagne, ne va pas tarder à rayonner à travers l'Europe et à franchir l'Atlantique. Au cours de la décennie qui précède la guerre, des microscopes électroniques sont aussi construits en Hollande, en Belgique, en Angleterre et à Toronto. Et en 1939 des images prouvent qu'une résolution ponctuelle de 10 nm est atteinte.

    Figure II.5 Schéma du premier microscope électronique de Ruska
    (document Akademia Leopoldina)

    Mais il faut revenir à Berlin où à cette époque, il se passe beaucoup de choses. C'est ainsi que dans les laboratoires de la société Siemens et Halske, Bodo von Borries et Ernst Ruska construisent le premier "ultramicroscope" commercial. Les techniques de préparation d'échantillons minces se développent aussi peu à peu et des images de bactéries, de virus, de particules de carbone, de diatomées, encore un peu floues certes, sont réalisées. Les sombres prédictions de Gabor n'étaient pas vérifiées. Tout au long de la guerre, les progrès n'allaient cesser de part et d'autre de l'Atlantique. Différentes compagnies se lançaient dans l'aventure (Philips, R.C.A., Metropolitan Vickers) mais bien des résultats acquis à cette époque n'ont jamais été divulgués pour de bien compréhensibles secrets d'états.

    En France, si quelques essais de réalisaion d'un microscope électronique sont dus à J.J. Trillat et R. Fritz en 1933, le premier instrument qui fonctionna réellement, un microscope à lentilles électrostatiques et non pas magnétiques comme celles utilisées en Allemagne, fut construit par Pierre Grivet pendant l'occupation. Au Japon et en U.R.S.S. les travaux ne démarreront réellement qu'après la guerre.

    Revenons une dernière fois à Berlin dans les laboratoires Siemens en 1936. Le microscope électronique, décrit ci-dessus, n'est pas la seule voie explorée. On y rencontre  Erwin Müller qui met au point le microscope à émission de champ: l'échantillon est préparé sous forme d'une pointe fine, un champ électrique intense est appliqué à son extrémité en la portant à un potentiel de quelques milliers de volts, on l'immerge dans une enceinte où le vide est poussé à ses limites et on recueille sur un écran phosphorescent situé en face une image représentative de la surface de la pointe, de ses symétries cristallines en particulier, avec une résolution de l'ordre de 10 nm aussi. Mais ceci est une autre histoire dont nous reparlerons ailleurs.

    Ce qui nous concerne plus directement dans le présent volume, c'est le travail poursuivi dans une autre pièce par Max Knoll et Manfred von Ardenne. Ils y conçoivent et réalisent le prototype du microscope électronique à balayage. L'image y est construite point par point par déplacement d'une fine sonde d'électrons sur la surface de l'échantillon et par visualisation sur un tube cathodique d'un spot dont l'intensité est modulée par la grandeur d'un signal résultant de l'interaction entre la sonde et l'échantillon. Si il y eut bien pendant la guerre des travaux poursuivis dans la même direction aux laboratoires de R.C.A. aux U.S.A., il fallut attendre les travaux de Oatley à Cambridge en 1953 pour que le microscope à balayage naisse réellement et devienne l'instrument commercial que nous connaissons aujourd'hui.

    Cette courte histoire de la microscopie électronique était essentiellement consacrée à ses balbutiements. Les progrès se sont poursuivis régulièrement après la guerre. Plusieurs compagnies se sont solidement implantées sur le marché et ont vendu en quatre décennies plusieurs dizaines de milliers d'appareils dans le monde,  dont plus des deux-tiers sont des microscopes à balayage. En 1995, le marché est tenu surtout par des firmes européennes (Philips, Zeiss, Leica) et japonaises (JEOL, Hitachi) pour ne citer que les principales. Mais il me semble indispensable avant de clore cet historique de citer deux noms importants de la microscopie électronique de l'après-guerre. En France, Gaston Dupouy s'est fait l'apôtre de la microscopie à très haute tension pour l'examen d'échantillons plus épais. Il entreprend d'abord la construction d'un microscope pouvant fonctionner sous une tension d'un million de volts. En décembre 1960, il présente, en collaboration avec Frantz Perrier, les premières images acquises avec l'instrument installé dans la "boule" sur le campus du CNRS à Toulouse. Dans une seconde étape, il construira, dix ans plus tard, un microscope plus puissant encore, travaillant sous des tensions de 3 millions de volts, suivi dans cette voie par les japonais. Mais cette course aux hautes tensions est devenue très onéreuse, les instruments ont pris une dimension sans commune mesure avec les moyens normaux des laboratoires, les performances escomptées en termes de résolution n'ont pas suivi les espérances, quelques champs d'application bien spécifiques seulement continuent à être utilisés et vers la fin des années 1980, seules quelques machines de ce type restent opérationnelles dans le monde. Par contre au cours des dernières années, un renouveau de la microscopie à très haute tension a vu le jour. Les problèmes techniques qui n'avaient pas permis d'utiliser réellement la très courte longueur d'onde des instruments de la génération des années 1960-1970 pour améliorer la résolution, ont enfin été résolus. Cinq à six microscopes (de fabrication japonaise) fonctionnant sous 1 MV et destinés à des études de structures à très haute résolution (de l'ordre de 0.1 nm) ont été récemment implantés au Japon, le seul exemplaire non japonais étant acquis par le Max Planck Institut de Stuttgart.

    Dans le domaine de la microscopie à balayage, c'est leur grande commodité d'utilisation, leur souplesse pour visualiser des champs d'extension très variable, l'étendue de leur profondeur de champ qui en font un outil indispensable pour visualiser la surface d'échantillons massifs très divers et en ont rapidement assuré le succès commercial en l'imposant comme un outil incontournable dans un grand nombre de laboratoires industriels en particulier. Mais en 1970, Albert Crewe, à l'Université de Chicago, réalise un microscope à balayage en transmission, combinant les techniques d'imagerie par trame de la microscopie à balayage et l'utilisation de signaux acquis après transmission des électrons à travers un échantillon préparé sous forme de lame mince. L'originalité de ce STEM (Scanning Transmission Electron Microscope) réside dans sa source d'électrons à effet de champ qui permet de focaliser le faisceau primaire d'électrons en une sonde de diamètre inférieur à 0.5 nm qui lui permet de visualiser pour la première fois des atomes isolés (lourds de préférence!) déposés sur un film très mince de carbone amorphe. Ce fut le point de départ d'une microscopie analytique à très haute résolution, à laquelle nous consacrerons un chapitre spécial (chapitre VI), dont le développement a été largement assuré par le relais commercial assuré par la firme britannique d'instrumentation scientifique Vacuum Generators, seule sur le marché depuis 1975 à proposer de tels microscopes STEM.



    [1]Szilard : "Busch a montré comment réaliser des lentilles pour les électrons, de Broglie a montré qu'ils possédaient des longueurs d'onde inférieures à l'angströms. Pourquoi ne construisez-vous pas un microscope électronique, on pourrait voir les atomes avec !!"

    Gabor : "Oui, j'en suis conscient. Mais on ne peut pas s'introduire dans la matière vivante dans le vide et tout se transformerait immédiatement en cendres sous le faisceau d'électron".

    II.4 Classification des grandes familles de microscopes électroniques

    On peut classer les microscopes électroniques en plusieurs catégories suivant les critères choisis. Le premier concerne la géomètrie de l'échantillon. S'il s'agit d'un échantillon massif, on s'intéresse à des signaux issus de sa surface dans une géométrie en réflexion. L'autre solution consiste à étudier des échantillons préparés sous forme de lames minces et il s'agit alors d'une microscopie en transmission (voir tableau II.2).

    Nature de l'échantillon

    Type de microscope

    Origine de l'information

    Massif

    Réflexion

    Surface ou faible profondeur

    Lame mince

    Transmission

    Intégée sur l'épaisseur

    Tableau II.2

    La seconde classification est de type instrumental (voir tableau II.3).. On y distingue, selon les types d'images, les microscopes conventionnels, dont la conception dérive naturellement de celle des microscopes photoniques, et les microscopes à balayage dont l'origine s'inspire des systèmes de télévision. Dans le premier cas, on éclaire avec une famille de lentilles condenseurs une zone relativement étendue de l'échantillon et un système optique composé de plusieurs lentilles après l'échantillon (lentilles objectif, intermédiaire, projectif) en donne une image agrandie ou un cliché de diffraction. Dans le second cas un système d'éclairement focalise une sonde primaire en une sonde incidente sur l'échantillon et il n'existe pas d'optique après l'échantillon. C'est un jeu approprié de détecteurs et spectromètres (pour l'analyse) qui recueille les différents signaux consécutifs à l'interaction. L'image est obtenue au moyen d'un dispositif de balayage séquentiel de la sonde et d'une visualisation synchronisée des divers signaux recueillis.

    Microscopie conventionnelle

    Microscopie à balayage

    Faisceau fixe

    +

    optique après l'échantillon

    Faisceau mobile (sonde)

    Optique focalisante d'éclairement

    +

    Détecteurs appropriés

    Images globales

    ou

    diffractions

    Images par balayage

    ou

    analyses locales

    Tableau II.3

                En associant ces deux types de classification, on aboutit à quatre grandes familles de microscopes électroniques:

    1. MET (Microscopie conventionnelle à transmission), ou CEM ou CTEM
    2. MER (Microscopie conventionnelle à réflexion) ou REM
    3. MEB (Microscopie à balayage en réflexion) ou SEM
    4. MEBT (Microscopie à balayage en transmission) ou STEM [2]

    Parmi ces quatre catégories seules sont pratiquement utilisées aujourd'hui les catégories 1, 2 et 4 que nous allons discuter de façon détaillée dans les chapitres qui suivent. Signalons que pour associer les avantages des deux modes  (Conventionnel et Balayage) pour l'étude en transmission des lames minces, il est apparu au cours des dernières années des optiques hybrides TEM/STEM qui associent les deux modes de fonctionnement sur le même instrument. Ceci n'a été rendu possible qu'au prix d'une complexité accrue de la colonne dans laquelle ont été introduites quelques lentilles supplémentaires.

    En ce qui concerne la tension d'accélération usuelle, elle est de 10 à 30 kV pour les microscopes MEB, de 100 à 400 kV pour les microscopes MET (et de 100kV pour les microscopes MEBT). Les raisons du choix de ces tensions de fonctionnement seront explicitées ultérieurement quand on se penchera sur la compréhension des images (chapitre V).


    [2] Les sigles anglais correspondent à :

    1. CEM (CTEM) : Conventional (Transmission) Electron Microscope.
    2. REM : Reflexion (Conventional) Electron Microscope.
    3. SEM : Scanning (Reflexion) Electron Microscope.
    4. STEM : Scanning Transmission Electron Microscope.

    Chapitre III : Les principaux éléments du microscope électronique

    Malgré leur diversité, les microscopes électroniques sont constitués d'un certain nombre de composantes communes : un ensemble de pompage destiné à assurer un vide convenable dans l'enceinte du microscope, une colonne d'optique électronique comprenant une source d'électrons, des lentilles électroniques, un ou plusieurs systèmes de détection, un étage porte-échantillon permettant l'introduction et les déplacements élémentaires du spécimen en cours d'observation et bien entendu tout l'environnement électrique, électronique et digital pour assurer le fonctionnement des éléments constitutifs du microscope, l'enregistrement et le traitement des résultats. Dans le présent chapitre, nous nous proposons de décrire les principaux éléments constitutifs des microscopes électroniques des dernières générations (1990-1995).

    III.1. Les sources d'électrons

    Le canon à électrons assure la production des électrons, leur accélération et délivre à l'entrée de la colonne du microscope un pinceau fin d'électrons plus ou moins divergent. Il s'agit donc d'un ensemble complexe devant remplir simultanément ces différentes fonctions. On peut le représenter comme une lentille électrostatique à plusieurs électrodes (voir figure III.1).

    Fig III.1 Schéma de principe d'une source d'électrons

    La source d'électrons, à proprement parler, est la cathode. Plusieurs mécanismes physiques peuvent être utilisés pour assurer l'extraction d'un flux d'électrons à partir d'une surface métallique constituant un réservoir (inépuisable) d'électrons :

         - la température (T°C). En chauffant par effet Joule un filament de matériau réfractaire à suffisamment haute température, une faible fraction de ses électrons peuvent acquérir l'énergie nécessaire pour franchir le mur de potentiel qui les maintient dans le solide et être ainsi libérés dans le vide où le champ électrique accélérateur va les attirer vers les anodes. Pratiquement le filament de tungstène en forme de V porté à 2500°C a été pendant des décennies la source d'électrons habituellement utilisée. Dans cette catégorie des sources thermiques, la pointe en hexaborure de lanthane (LaB6) chauffée à 1500°C l'a supplanté au cours de ces dernières années, car elle délivre un flux de courant environ 30 fois supérieur à partir d'une zone émissive plus réduite.

         - Cependant c'est l'utilisation d'un champ électrique intense (F exprimé en V/cm) qui constitue l'alternative la plus efficace pour disposer de flux d'électrons bien plus intenses. On utilise les propriétés des pointes à l'extrémité desquelles un champ très élevé de l'ordre de V/R est réalisé (V = différence de potentiel entre la cathode et l'anode d'extraction, R = rayon de la pointe à son extrémité). Pratiquement pour une pointe en tungstène de 100 nm de rayon, une différence de potentiel de 1000 volts permet d'obtenir les champs critiques de l'ordre de quelques 107 V/cm requis pour permettre l'émission d'électrons par effet de tunnel à travers le mur de potentiel qui les maintient dans la pointe. Une telle source délivre des flux d'électrons près de un million de fois supérieurs à ceux issus du filament en tungstène classique, semblant provenir d'une zone très petite située au voisinage du centre de la pointe (voir figure III.3).

    Figure III.2 L'émission d'électrons à partir de la pointe dans une source à effet de champ.

    On dit de ces nouvelles sources à effet de champ qu'elles sont bien plus lumineuses ou brillantes, et cette propriété permet en particulier de refocaliser ultérieurement le faisceau en une sonde très fine tout en y maintenant un courant important. Ce fut l'utilisation d'une telle source qui conduisit aux succès des microscopes analytiques de type STEM. Cependant, de telles performances requièrent des conditions de fonctionnement très particulières en termes de qualité du vide : en effet dès qu'un mince film moléculaire de gaz adsorbé les recouvre, le transfert d'électrons à travers la barrière tunnel ne s'effectue plus aussi bien et les propriétés émissives se dégradent très vite. Il faut donc maintenir la surface de la cathode dans un vide de l'ordre de quelques 10-14 pression atmosphérique (critère d'ultra-vide) pour leur assurer un régime d'émission stable.

         - Au cours des dernières années, plusieurs solutions associant champ électrique intense et haute température sur des pointes métalliques, traitées thermiquement ou recouvertes d'oxydes, ont vu le jour et permettent d'envisager des sources aux propriétés compétitives avec celles de l'émission de champ pure (ou froide car fonctionnant à température ambiante) et n'étant pas aussi contraignantes en qualité de vide.

    Le choix du processus d'émission conditionne les caractéristiques du flux d'électrons à la sortie de la surface de la cathode. Ce n'est que la première étape. Le canon doit aussi transformer ce flux d'électrons qui quittent la cathode avec une vitesse faible en un faisceau d'électrons accélérés et collimatés à l'entrée de la colonne. C'est la fonction des électrodes suivantes dont le rôle diffère suivant le type de source. Dans le cas de l'émission de champ, la première anode joue réellement la fonction d'extractrice d'électrons car c'est elle qui définit le champ électrique actif sur la surface de cathode. Elle est donc portée à un potentiel V1 de quelques kilovolts, positif par rapport à la cathode. Au contraire pour les sources thermiques, cette première électrode n'a qu'une fonction focalisante, elle est donc portée à un potentiel négatif de quelques centaines de volts par rapport à la cathode : on l'appelle alors électrode de wehnelt. Mais dans tous les cas, la seconde électrode est l'anode accélératrice : sa différence de potentiel V0 définit la tension de travail du microscope.

    Pour les valeurs supérieures à 100 kV utilisées en microscopie à transmission, une telle tension ne peut être appliquée directement et un étage accélérateur en plusieurs étapes est requis. Finalement à la sortie du canon, tous les électrons pénétrant dans le microscope sont quasiment monochromatiques (avec une largeur énergétique variant de 0.3 à 2 eV suivant le type de source utilisée, les meilleures performances étant aussi obtenues pour les sources à effet de champ), ils sont accélérés sous la tension nominale de fonctionnement, ils proviennent d'un point virtuel, le cross-over de sortie du canon. C'est la distribution de courant au niveau de ce cross-over (courant total, section du faisceau) qui conditionne principalement les propriétés ultérieures du faisceau en particulier au niveau de l'échantillon.

    III.2. Les lentilles électroniques magnétiques : principe et fonctionnement.

    Nous avons rencontré au niveau du canon une première famille de lentilles électroniques, une lentille électrostatique qui donne de la cathode une image au niveau du cross-over. Une lentille électrostatique agit sur le faisceau d'électrons par l'intermédiaire des forces de Coulomb exercées par des champs électriques sur les charges électriques. Une famille d'électrodes circulaires centrées le long d'un axe commun et portées à des tensions différentes constitue le système le plus simple. Mais il n'est guère très commode de les utiliser sous des tensions élevées (100 kV et plus) à cause des difficultés d'isolation. Les grandes variations de tension doivent être réalisées sur des distances interélectrodes aussi courtes que possible, et il en résulte des risques de claquage le long des porcelaines isolantes et d'amorçage d'étincelles détruisant irrémédiablement l'état de surface des lentilles.

    Ce type de lentilles n'est donc plus utilisé de nos jours que dans le canon du microscope. Tout au long de la colonne, les trajectoires électroniques sont gouvernées par des lentilles magnétiques.

    La loi régissant le mouvement d'un électron dans un champ magnétique est la loi de Lorentz :

    $$\vec{F}=-e(\vec{v}\wedge \vec{B}) $$ (III.1)

    Le produit vectoriel entre le vecteur vitesse des électrons ($\vec{v}$) et le champ magnétique ($\vec{B}$) signifie que la force résultante est constamment perpendiculaire à $\vec{v}$, donc à la trajectoire de l'électron. Elle produit un travail toujours nul et par conséquent ne modifie ni la grandeur de la vitesse, ni l'énergie de l'électron pendant la traversée du champ. Elle ne fait que courber sa trajectoire. Ceci différencie fondamentalement l'action d'un champ magnétique de celle d'un champ électrique.

    Lorsque la vitesse initiale d'un électron est perpendiculaire à un champ magnétique uniforme, il y décrit un cercle de rayon R qui se calcule en exprimant que la force centrifuge est égale à la force exercée par le champ :

    $$m\frac{v^2}{R}=evB\text{  où  } R=\frac{mv}{eB}$$ (III.2)

    Si ce champ n'agit que sur une longueur l, il en résulte une déviation a, telle que :

    $$\alpha=\frac{eBl}{mv} $$(III.3)

    Cette deviation dépend donc de la vitesse des électrons, et un champ magnétique uniforme perpendiculaire à la trajectoire des électrons se comporte donc comme un prisme. Cette propriété est utilisée pour mesurer les pertes d'énergie subies par les électrons à la traversée de l'échantillon, comme nous le décrirons au chapitre consacré à la microscopie analytique.

    Un champ magnétique uniforme colinéaire avec la vitesse d'un électron ne modifie en rien la trajectoire car la force résultante est alors nulle. Par contre, si la vitesse des électrons est oblique par rapport aux lignes de force du champ, on peut la décomposer en une composante perpendiculaire à la direction du champ qui produit un mouvement circulaire et une composante parallèle qui n'est pas modifiée et conduit à une translation uniforme. La résultante en est donc un mouvement hélicoïdal.

    Considérons d'abord le cas du mouvement d'un faisceau d'électrons dans une bobine longue (fig. III.3).

    Figure III.3 

    Tous les électrons décrivent des trajectoires hélicoïdales s'enroulant sur différents cylindres, d'axes parallèles à celui de la bobine dont les rayons R dépendent de la composante radiale de la vitesse de chacun des électrons. Si en outre on peut considérer que tous les électrons accélérés initialement sous la même différence de potentiel (V) ont sensiblement la même vitesse longitudinale :

    $$v=\sqrt{\frac{2e}{m}V}$$(III.4)

    au bout d'un certain temps, $t=\frac{2\pi R}{v} $, ils ont décrit un tour des hélices et se retrouvent simultanément en un même point A' situé sur la génératrice commune à tous les cylindres. La distance est :

    $$ L=vt=\frac{\pi}{B}\sqrt{8mV}{e} $$(III.5)

    Le plan perpendiculaire au champ et contenant A' est plan image du plan contenant A, mais cette transformation se réduisant à une simple translation, le grandissement est égal à l'unité.

    Pour réaliser une action focalisante, équivalente à celle exercée par une lentille de verre sur des rayons lumineux, il faut utiliser le champ de fuite existant aux extrémités d'une bobine courte (voir figure III.4).

    Figure III.4 La distribution du champ magnétique dans une bobine courte.

    Il apparaît alors une composante radiale dont l'effet, à l'entrée de la bobine, est de courber énergiquement la trajectoire des électrons, en la déviant perpendiculairement au plan méridien. Une fois ce mouvement amorcé, la vitesse comporte alors une composante transversale perpendiculaire à l'axe et l'action du champ longitudinal se manifeste par une force radiale qui rabat l'électron vers l'axe tout au long de la bobine. L'électron décrit ainsi une trajectoire curviligne complexe que l'on étudie généralement dans un plan méridien mobile qui suit l'électron dans son mouvement de rotation.

    Le même effet du champ de fuite se retrouve à la sortie, la composante radiale du champ agit de nouveau et annule alors le mouvement de rotation hélicoïdale et la trajectoire de l'électron émergent redevient rectiligne pour recouper l'axe en A' (voir figure III.5).

    La représentation des phénomènes peut être facilitée en supposant que le champ de la bobine s'exerce entre deux plans p et p'; l'effet de la composante radiale BR est alors instantané à la traversée de ces plans en dehors desquels elle est nulle. Il en résulte des points anguleux fictifs M et M' le long de la trajectoire. Mais cette représentation permet de découpler facilement les projections du mouvement dans un plan méridien et dans un plan perpendiculaire à l'axe de la bobine. On calcule ainsi simplement l'angle de rotation entre le plan objet et le plan image :

    $$\theta=\sqrt{\frac{e}{8mv}}BL $$(III.6)

    où L est la distance entre les plans p et p', sur laquelle s'exerce un champ magnétique axial uniforme égal à B, et dans le plan méridien la longueur focale est donnée par :

    $$\frac{1}{f}=\frac{e}{8mV}B^2L$$(III.7)

    équivalente à celle d'une lentille mince en optique conventionnelle. Dans un plan méridien, il est donc particulièrement commode de représenter les trajectoires des électrons au moyen de rayons obéissant aux lois de l'optique.

    Figure III.5 Action rotatoire et focalisante du champ magnétique d'une bobine courte sur les trajectoires électroniques

    Remarquons que l'angle de rotation est une fonction linéaire du champ, donc change de signe si la direction du champ est renversée. Par contre, la distance focale (f) et la convergence ($C=\frac{1}{f}$) sont des fonctions paires du champ donc sont positives quelle que soit la direction du champ. Il ne peut donc exister que des lentilles convergentes.

    Pour obtenir des lentilles de courte distance focale, à fort pouvoir focalisant, il est donc nécessaire que la composante radiale du champ soit aussi grande que possible et, par conséquent, que le champ magnétique soit localisé dans une portion très réduite de l'espace. C'est ce qui a conduit à proposer une géométrie dans laquelle le champ magnétique est contenu à l'intérieur d'un faible volume de l'espace dans l'entrefer d'une pièce polaire en fer doux d'un électro-aimant (voir figure III.7).

    Figure III.6 Le champ magnétique dans une lentille magnétique

    Dans une telle géométrie, l'intensité du champ est proportionnelle au nombre d'ampères-tours NI de la bobine et la convergence de la lentille est donc proportionnelle à $\frac{N^2I^2}{V^*}$ où NI est le produit du nombre de tours de fil par l'intensité qui les parcourt, V* est la valeur de la tension corrigée pour les effets relativistes. Le facteur $K=\frac{N^2I^2}{V^*}$ qui joue donc un rôle fondamental dans le fonctionnement des lentilles magnétiques est appelé facteur d'excitation. Si le nombre de spires est fixé par construction, on peut modifier continûment par le jeu de potentiomètres sur le circuit électrique qui les alimente, le courant circulant dans le bobinage et par conséquent faire varier à volonté leur distance focale. Ceci confère à un montage d'optique électronique magnétique une très grande souplesse d'emploi, par rapport aux lentilles de l'optique conventionnelle dont la distance focale est fixée par construction.

    Parmi les différentes lentilles qui se succèdent le long de la colonne du microscope, on distingue : (i) les lentilles condenseur qui assurent le transfert du faisceau d'électrons entre la source et l'échantillon et qui sont donc responsables des conditions d'éclairement ; (ii) la lentille objectif dans l'entrefer de laquelle est immergé, en général, l'échantillon. C'est elle qui en donne la première image agrandie ou un diagramme de diffraction dans un plan focal. Ce sont aussi ses caractéristiques qui contrôlent les performances ultimes du microscope et sa description mérite un paragraphe tout particulier ; (iii) les lentilles intermédiaires et projectifs qui reprennent plusieurs fois l'image (ou le cliché de diffraction) délivrée par l'objectif, en l'agrandissant en plusieurs étapes afin de la visualiser sur l'écran d'observation ou tout autre détecteur placé à l'extrémité de la colonne du microscope.

    III.3. Une lentille privilégiée : l'objectif, ses qualités optiques, ses aberrations, ses performances ultimes.

    La lentille objectif est donc vraiment l'élément central du microscope électronique. C'est de la réussite de son étude et de la perfection de sa réalisation que dépend en grande partie la qualité des résultats.

    C'est une lentille de courte distance focale, entre 1 et 3 mm qui donne de l'objet une image agrandie plusieurs dizaines de fois. Dans les nouvelles configurations, l'échantillon est situé dans la zone de champ intense entre les pièces polaires, voire même au centre symétrique de la lentille dans les configurations dites "twin" introduites voici presque vingt ans par la société Philips. La figure III.8 montre quelques géométries d'entrefer et de position de l'échantillon rencontrées sur les microscopes les plus modernes.

    Figure III.7 Schémas de pièce polaire pour un objectif électronique moderne (d'après un document Topcon)

    Une telle lentille parfaite donnerait d'un point objet sur l'échantillon une image elle aussi ponctuelle. Mais ce n'est pas le cas : de façon tout à fait semblable à un objectif de microscope photonique, l'objectif du microscope électronique présente lui aussi des défauts et même à une échelle telle que son pouvoir de résolution est loin d'être comparable à la longueur d'onde du rayonnement. Il nous faut décrire de façon plus complète le rôle et la nature des aberrations de la lentille objectif.

    Comme l'électron se comporte aussi comme une onde, le premier obstacle est le phénomène de diffraction par une ouverture de taille finie, de même que pour les lentilles de l'optique photonique. La lentille objectif fournit d'un point objet une image, la tache d'Airy, dont le diamètre (dd) rapporté au niveau de l'échantillon, est égal à $1.22\cdot\frac{\lambda}{\alpha}$. Cet élargissement est proportionnel à la longueur d'onde, et par conséquent on imagine clairement tout l'intérêt de travailler avec des électrons de plus en plus accélérés, possédant des longueurs d'ondes de plus en plus courtes. Par contre le demi-angle d'ouverture (a) de la lentille doit être aussi large que possible.

    C'est là que réside toute la différence avec les lentilles de l'optique lumineuse. En effet, la principale cause de dégradation de la focalisation d'une lentille magnétique est l'aberration sphérique (ou d'ouverture). Les rayons marginaux convergent plus rapidement que les rayons para-axiaux (voir figure III.8).

    Figure III.8 Définition de l'aberration d'ouverture

    Si on représente la lentille par un schéma de lentille mince, l'objet sur l'échantillon est en O, les rayons issus de cet objet sont interceptés par un diaphragme d'ouverture (ou de contraste) à l'entrée de la lentille et seuls ceux contenus dans un cône de demi-angle d'ouverture a pénètrent dans l'objectif. L'image exacte de O au voisinage du plan O', conjugué de O, dépend en fait de la position exacte de l'écran d'observation. Selon cette abscisse, l'image présente plusieurs formes, mais de toutes façons même au niveau de la meilleure focalisation (au niveau du disque de moindre confusion), le rayon en reste fini et est proportionnel au cube de l'ouverture de la lentille. Rapporté au niveau de l'objet, ce rayon (rs) de la tache d'aberration sphérique est égal à :

    $$r_s=\frac{1}{4}C_s \alpha^3 $$(III.8)

    où Cs est le coefficient d'aberration sphérique exprimé en mm. Les études détaillées montrent qu'il varie de façon assez semblable à la distance focale et doit être aussi faible que possible pour améliorer la résolution. Pour un Cs de 1 mm, tout à fait réalisable avec un microscope moderne, on montre que le rayon de la tache d'aberration sphérique est égal à 0,1 nm lorsque a est de l'ordre de 7,5 milliradians. Le domaine des ouvertures angulaires utilisables pour obtenir une résolution comparable aux distances interatomiques dans un solide est donc très restreint, inférieur au centième de radian ou 0,5° d'angle.

    Parmi les autres aberrations jouant un rôle important au niveau de l'objectif, citons :

    (i) l'aberration chromatique :

    La distance focale d'une lentille et par conséquent son pouvoir focalisant dépendent à la fois du champ magnétique H le long de l'axe, selon une loi en H2, et de la tension relativiste des électrons, selon une loi en V*. Il en résulte que tout écart à la monochromaticité du faisceau d'électrons induisant une fluctuation DV sur le potentiel ou toute variation du courant dans le bobinage des lentilles imposé par des instabilités DI, entraînent une dispersion des trajectoires électroniques et un flou de focalisation. On montre que l'élargissement correspondant de la tache image de l'objet varie comme:

    $$ r_c=C_c \alpha\left( 2 \left( \frac{\Delta I}{I} \right)^2 + \left( \frac{\Delta V}{V} \right)^2 \right)^{1/2}$$

     (III.9)

    où Cc est le coefficient d'aberration sphérique exprimé en mm et a la demi-ouverture angulaire de la lentille objectif. Si les stabilités des courants des lentilles et des tensions d'accélération, ($\Delta I$) et ($\Delta V$) respectivement, sont de l'ordre de la p.p.m. dans les instruments les plus modernes, la largeur énergétique naturelle de l'émission au niveau de la cathode du canon ne peut être négligée : à ce titre les sources à effet de champ réduisent le flou chromatique par un facteur de l'ordre de 3 à 5 par rapport aux sources thermiques. En outre, lorsque l'action de l'objectif s'exerce sur les trajectoires électroniques après la traversée de l'échantillon, il faut aussi prendre en considération le rôle néfaste des pertes d'énergie qui élargissent considérablement la distribution énergétique des électrons (de l'ordre de plusieurs dizaines d'eV pour un échantillon d'une centaine de nm d'épaisseur). Dans ce cas, l'image formée par les électrons inélastiques est défocalisée sensiblement par rapport à l'image élastique et y contribue par un fond d'intensité relativement étalé, réduisant ainsi les contrastes observables. Pour cette raison, l'importance d'incorporer un filtre d'énergie a été démontrée depuis plus de trente ans (travaux de R. Castaing et de ses collaborateurs à Orsay) mais n'a été vraiment admise par la communauté des utilisateurs de microscopes électroniques à transmission qu'au cours de la dernière décennie : le filtrage d'énergie des électrons transmis constitue une étape indispensable dans toute tentative de microscopie électronique quantitative, sans oublier son rôle en microscopie analytique comme il le sera démontré au chapitre VI.

    (ii) l'aberration d'ellipticité, ou astigmatisme.

    Elle résulte des défauts de symétrie de révolution dans l'objectif, qui ont pour conséquence d'imposer une distance focale différente en fonction de la direction azimuthale. L'origine de cet astigmatisme peut provenir d'un défaut d'usinage ou d'inhomogénéités dans les propriétés magnétiques du métal employé. Son importance varie aussi en fonction d'une contamination éventuelle des surfaces et des diaphragmes. Mais, pratiquement, il ne constitue pas un défaut insurmontable, contrairement à ce qu'il était dans les années héroïques de la microscopie électronique. On sait maintenant réaliser et introduire à l'intérieur de la lentille objectif des correcteurs d'astigmatisme. Le principe en est simple : créer au moyen de petites bobines un champ équivalent à une faible lentille cylindrique de convergence et de distribution azimuthale réglables de façon à compenser les défauts de la lentille principale.

    (iii) Les autres aberrations de coma, de courbure de champ, de distorsion n'interviennent qu'au second ordre ou pour les lentilles de projection.

    (iv) Par contre, on peut aussi classer parmi les aberrations ou défauts de la lentille, même si cette dernière est parfaite, l'erreur de mise au point, ou défocalisation, qui se définit comme la distance Dz, le long de l'axe du microscope, entre le plan de l'échantillon et le plan conjugué à travers la lentille objectif du plan imagé sur l'écran final (plan gaussien) - cf. figure III.9.

    Figure III.9  Définition du défaut de mise au point ou défocalisation.

    Par convention, on dit que l'objectif travaille dans un mode surfocalisé, lorsque Dz > 0, c'est-à-dire lorsque le plan gaussien est situé entre l'échantillon et la lentille, et en mode sousfocalisé, lorsque Dz < 0, c'est-à-dire lorsque le plan gaussien est situé en dehors de la zone spécimen-lentille. Il est important de souligner que cette défocalisation, en microscopie électronique, constitue un paramètre maîtrisable permettant en particulier de compenser partiellement le défaut d'aberration sphérique. En effet, une variation continue du courant circulant dans le bobinage de la lentille permet de faire varier à volonté la distance focale, selon la loi : 

    $$\frac{\Delta f}{f}=\frac{2 \Delta I}{I} $$ (III.10)

    Si on estime que les plus petites variations significatives du courant sont de l'ordre de 2 à 3 fois 10-6, il en résulte que des variations contrôlables de Df (de l'ordre de Dz dans le mode de fonctionnement à fort grandissement, 50 ou 100, d'une lentille objectif) de l'ordre de $5\times 10^{-6}5$ f peuvent être réalisées, soit 5 nm pour une lentille de 1 mm de distance focale.

    Nous possédons maintenant tous les éléments nécessaires pour évaluer le pouvoir de résolution imposé par les caractéristiques de fonctionnement de la lentille objectif.

    La première approche consiste à additionner les différents effets d'élargissement de l'image d'un point objet. Si on suppose qu'il n'existe aucune corrélation entre ces différentes aberrations, on peut les ajouter de façon quadratique. Bien entendu la largeur de l'image dépend des conditions de focalisation. Dans les conditions optimales de l'optique géométrique, c'est-à-dire au niveau du disque de moindre confusion de la figure III.9, on peut calculer, en ne retenant que les termes principaux de diffraction et d'aberration sphérique :

    $$d_t^2=(d_s^2+d_d^2)^{1/2}=\left[ \left( \frac{1.22 \lambda}{\alpha}  \right)^2 + \left( \frac{1}{2} C_s \alpha^3 \right)^2 \right]^{1/2}$$

    (III.11)

    Pour les microscopes modernes dont l'électronique est bien stabilisée, avec un faisceau bien monochromatique, et en ne considérant que la contribution élastique à l'image, on montre que le terme d'aberration chromatique est assez sensiblement inférieur aux deux précédents.

    De l'équation (III.11) ci-dessus, on déduit qu'il existe un angle d'ouverture optimum aopt, compromis entre les lois de variation de la diffraction, réclamant un angle a grand et de l'aberration sphérique réclamant une faible ouverture a. On calcule donc :

    $$\alpha_{\text{opt}}=1.14 \times \left(C_s \lambda^3\right)^{1/4} $$

    et

    $$d_{\text{opt}}=0.43 \times \left(C_s \lambda^3\right)^{1/4} $$

     (III.12)                                           

    ce qui correspond pour un excellent microscope moderne (Vo = 200 kV, l = 2,51 pm, Cs = 0,4 mm) à :

    $$\alpha_{\text{opt}}=10^{-2} \text{rad} $$

    $$d_{\text{opt}}=0.13 nm $$

    On vérifie donc qu'avec les ouvertures utilisées de l'ordre de 10-2 radian, le pouvoir de résolution peut être inférieur à 0.2 nm, c'est-à-dire à la distance typique séparant deux atomes dans un solide.

    Une autre façon très utile de mesurer la qualité de l'observation fournie par un système optique est la fonction de transfert de contraste schématisée par la figure II.4 dans le cas de la microscopie photonique. Il s'agit d'une fonction reliant le contraste dans une image à la fréquence spatiale ($\nu=1/d), où d est la période caractéristique de l'objet. Lorsque nous avons introduit cette fonction, nous l'avions utilisée pour décrire l'image de lignes de mire parallèles avec un espacement (p). On comprend aisément que ce concept puisse ainsi s'étendre à toute image bidimensionnelle. Il est donc particulièrement intéressant de calculer de telles fonctions pour les lentilles de l'optique électronique. La théorie complète pour calculer cette relation dépend non seulement des propriétés de l'objectif mais aussi de l'importance de l'interaction entre le faisceau et l'échantillon. En résumé on montre que, dans le cas dit de l'objet de phase faible (voir le chapitre V), cette fonction de transfert de contraste s'écrit :

    $$ T(\nu)=-2\sin \chi (\nu) $$ (III.13)

    avec

    $$\chi(\nu) = 2\pi \left( C_s \frac{\lambda^3 \nu^4}{4}+ \Delta z \cdot \lambda \frac{\nu^2}{2} \right) $$(III.14)

    où on reconnaît les paramètres importants l, Cs et Dz introduits dans la description ci-dessus. La figure III.10 montre la fonction de transfert de contraste pour le microscope moderne déjà mentionné ci-dessus.

    a) Pouvoir de résolution optimum

    b) Limite de résolution de l'information

    Figures III.10a et III.10b Fonctions de transfert calculées à la défocalisation de Scherzer pour un microscope électronique à haute résolution. a) cohérente b) avec effet de cohérence partielle spatiale et temporelle. Calculs effectués pour un microscope Topcon 002B

    La fonction de transfert de contraste oscille avec des valeurs positives, négatives et nulles. Cela signifie que pour certaines distances, les objets (atomes ou colonnes atomiques parallèles au faisceau) ne sont pas visibles ou bien apparaissent avec des contrastes renversés (points blancs ou noirs). Ces courbes dépendent bien évidemment de la défocalisation et celle présentée sur la figure III.10a correspond à la défocalisation dite de Scherzer (Dz = 42 nm) pour laquelle on obtient la plus large bande de fréquence spatiale à contraste stable. Dans ce cas le pouvoir de résolution optimum correspond au premier zéro de la fonction de transfert. Au-delà de cette valeur, une information oscillante est encore transférée. Mais dans le cas réel où on introduit aussi le terme d'aberration chromatique une fonction enveloppe vient se superposer à la fonction précédente et amortit rapidement le contraste au-delà de cette valeur (voir figure III.10b). Pour comparer les propriétés de différents microscopes, la connaissance de ces fonctions de transfert constitue un moyen d'évaluation plus élaboré que la connaissance des valeurs de dopt déduites de l'équation III.12.

    III.4. Les détecteurs d'électrons.

    La nature des détecteurs utilisés en microscopie électronique dépend du type d'instrument, selon la classification introduite à la fin du chapitre II (transmission ou réflexion, conventionnel ou balayage).

    i) L'interaction du faisceau d'électrons primaires avec l'échantillon produit une cascade d'évènements. Le signal utile et caractéristique peut donc se présenter sous des formes très variables. Dans le cas de la microscopie à transmission, le faisceau se propage après l'échantillon dans le prolongement de la direction incidente avec une énergie très peu différente de l'énergie primaire. Par conséquent, il faut alors détecter et mesurer des électrons de haute énergie (proche de l'énergie initiale, soit de 100 kV à 1 MV). Au contraire, lorsqu'il s'agit d'un microscope destiné à étudier la surface d'un échantillon massif (microscopie à balayage) les électrons qui sont réémis par la surface présentent une très large distribution énergétique (voir aussi la fig. V.12 plus loin). Certains, dits rétrodiffusés, possèdent une énergie proche de l'énergie primaire (c'est-à-dire entre quelques kV et quelques dizaines de kV). D'autres, dits secondaires, sont le résultat final d'une séquence de collisions qui ont conduit au ralentissement complet des électrons incidents dans la cible : ces électrons secondaires proviennent de la population d'électrons du solide et sont émis avec une énergie cinétique très faible (de l'ordre de quelques eV). Les détecteurs du microscope à balayage doivent alors être conçus pour mesurer deux types de flux d'électrons de haute et de faible énergie.

    Comme déjà mentionné, à la fonction "mesure d'un courant d'électrons", il est utile d'associer la fonction "discrimination en énergie" à des fins d'analyse ou de filtrage. C'est le rôle de spectromètres, fonctionnant en analyseurs ou en filtres qui sont introduits sur la trajectoire des électrons entre la face de sortie de l'échantillon et le détecteur lui-même. Nous reviendrons ultérieurement sur leur conception et fonctionnement. De la même façon, il existe d'autres signaux produits par les interactions électron-matière : les rayonnements lumineux ou photons générés au cours des transitions électroniques qui se produisent à l'intérieur du solide pour évacuer une partie de l'énergie qui y a été déposée par le faisceau primaire. La longueur d'onde de ces photons couvre une vaste gamme spectrale depuis le visible jusqu'au domaine X. Il est donc utile, à des fins analytiques, de recueillir aussi ces photons émis par l'échantillon et éventuellement de mesurer leur énergie.

    ii) Dans un mode conventionnel, il existe une relation directe au moyen d'une optique d'imagerie entre chaque point de l'échantillon et un point équivalent sur le détecteur. Celui-ci doit donc être un détecteur à localisation bimensionnelle (2D). Par contre, en mode balayage, la localisation spatiale de l'information sur l'échantillon est réalisée au moyen d'une trame de balayage séquentielle au cours de laquelle un point de coordonnées (X,Y) est illuminé à l'instant t. Dans ce cas, un détecteur simple sans localisation (0D) suffit.

    Afin de satisfaire ces différents critères, plusieurs types de détecteurs sont donc utilisés. Les mécanismes physiques à la base de leur fonctionnement impliquent tous un transfert d'énergie entre la particule à détecter et le matériau du détecteur : production de paires électrons-trous dans un semiconducteur et mesure du courant associé, émission de photons par un milieu luminescent, élévation de température, réaction chimique.

    Dans la pratique, les systèmes d'acquisition et d'enregistrement des images ou des signaux les plus fréquemment rencontrés sont donc les suivants :

    a) Pour la microscopie à transmission :

         - L'écran fluorescent d'observation au bas de la colonne, constitué d'une poudre, phosphorescente qui réémet de la lumière dans la gamme jaune-vert sous l'impact des électrons. L'expérimentateur l'observe directement à l'oeil nu ou au moyen d'une loupe binoculaire à travers un hublot (verre ou plomb) suffisamment épais pour arrêter toute émission de rayons X qui pourrait être dangereuse.

         - L'émulsion photographique constitue depuis plusieurs décennies le support le plus largement utilisé. Un seul électron de 100 kV est suffisant pour créer l'image latente (agrégation de quelques atomes de métal d'argent dans les cristaux de bromure d'argent noyés dans le film de gélatine), que le révélateur transforme ultérieurement en grains d'argent. L'émulsion traitée est plus ou moins opaque suivant la quantité de rayonnement à laquelle elle a été exposée. Il existe un domaine d'exposition sur lequel le noircissement du film (ou densité optique) est proportionnel au flux d'électrons incidents (de 10-11 C/cm2 à 10-10 C/cm2). Le principal avantage de l'enregistrement par plaque photographique réside dans sa très grande capacité de stockage. Si on estime à 50 µm la résolution sur l'émulsion, il en résulte qu'un film 6 ¥ 9 cm peut contenir l'équivalent de plusieurs millions d'éléments images (ou pixels) différents. Par contre la gamme dynamique des intensités mesurables entre les faibles doses qui ne produisent que du bruit et les fortes doses conduisant à saturation, n'est que de deux à trois ordres de grandeur, ce qui réduit sensiblement leur utilisation à des fins quantitatives. De toutes façons, pour avoir accès à une information quantitative, il est nécessaire d'avoir recours à un système de digitalisation a posteriori de l'image révélée et fixée, au moyen d'un microdensitomètre ou d'une caméra de télévision.

         - Un grand effort a donc été accompli au cours des dernières années pour équiper les microscopes les plus récents de nouveaux moyens de détection plus quantitatifs et, si possible, interfacés directement à l'ordinateur destiné à assurer le stockage et le traitement numérique des données. Les tubes électroniques ont ainsi connu un certain succès en couplant la face d'entrée d'une caméra TV à la face arrière d'un scintillateur utilisé comme convertisseur électrons-photons. Dans certains cas, un ou plusieurs étages intensificateurs sont intégrés ou ajoutés de façon à améliorer la sensibilité de détection, qui a pu atteindre la détection de l'électron incident unique dans les cas extrêmes.

    Cependant, la tendance la plus récente est de faire appel aux réseaux de détecteurs semiconducteurs que la technologie moderne sait réaliser sous forme de matrices de 512 ¥ 512 et même 1024 ¥ 1024 éléments avec une distance de l'ordre de 25 µm centre à centre (voir figure III.11a). Il s'agit de photodiodes associées à des puits de potentiel pour le stockage des charges induites.

    On distingue dans la pratique les détecteurs de type CCD (charge coupled devices) dans lesquels la lecture se fait par transfert de charge et registre à décalage et les détecteurs de type PDA ("photodiode arrays" ou réseau de photodiodes) où la lecture à décalage s'effectue par commutation.

      Figure III.11  a - Schéma de principe d'un détecteur semi-conducteur bidimensionnel, b - réalisation d'une caméra CCD pour microscope TEM (d'après un document Gatan).
                    

    Dans la pratique, un système tel que celui présenté dans la figure III.11b, à couplage indirect (scintillateur en grenat d'yttrium-aluminium - YAG -, couplage par réseau de fibres optiques, réseau de diodes refroidi par effet Peltier) permet de lire plusieurs images $512 \times 512$ par seconde avec une sensibilité correcte (5 e-/pixel), une gamme dynamique de 5000 et une résolution de l'ordre de 50 µm. Ceci constitue déjà un excellent compromis pour l'enregistrement quantitatif d'images ou de clichés de diffraction. L'interactivité entre le microscope et l'ordinateur est devenue si efficace à travers un tel système d'acquisition des données qu'il devient peu à peu possible de confier à l'ordinateur les fonctions de focalisation et d'alignement du microscope. Tous les traitements mathématiques nécessaires pour contrôler la qualité de l'image en fonction des différents paramètres accessibles (courant dans la lentille d'objectif ou dans les correcteurs d'astigmatisme), peuvent être d'ores et déjà effectués quasiment en temps réel.

    b) Pour la microscopie à balayage :

    Deux grandes familles de détecteurs sans localisation sont actuellement en pratique :

    • les systèmes scintillateur-photomultiplicateur,
    • les dispositifs semiconducteurs,

    avec pour les premiers une gamme dynamique qui en mode analogique peut s'étendre jusqu'à des valeurs de 108 e-/s, et pour le second une grande efficacité de détection aux faibles courants et une souplesse plus large d'utilisation dans des géométries variées.

    Dans les deux cas, le signal généré par le détecteur est immédiatement converti en signal numérique et transféré vers l'unité de calcul. Par sa conception même, tout microscope à balayage (qu'il soit en réflexion ou en transmission) est naturellement adapté à la numérisation des données, car il permet de mesurer à travers un ou plusieurs détecteurs, un ou plusieurs signaux dépendant du temps.

    III.5. La colonne du microscope électronique à transmission.

    Tous les éléments constitutifs d'un microscope électronique ont été décrits : la source d'électrons, les lentilles magnétiques, dont l'objectif qui gouverne les performances optiques ultimes de l'appareil et le système d'observation et d'enregistrement des images. La figure III.12 présente une coupe d'un microscope moderne où tous ces composants sont associés pour constituer une colonne étanche au vide et mécaniquement stable. Mais le plus important reste à faire : introduire et situer l'échantillon au bon endroit dans cet ensemble.

    Figure III.12  Coupe d'une colonne de microscope électronique à transmission (d'après un document JEOL)

    Cet emplacement est situé dans l'entrefer de la lentille objectif, dans une position en général proche de son centre. L'échantillon, préparé sous forme de lame mince, doit être contenu à l'intérieur d'un disque ou d'une grille de 3 mm de diamètre : ceci constitue un standard pour tous les microscopes actuellement sur le marché. La contrainte essentielle consiste à rendre compatibles tous les mouvements mécaniques à exercer sur l'échantillon (déplacements horizontaux, éventuellement vertical, et inclinaison par rapport à la direction des électrons incidents) à l'intérieur d'un volume global disponible d'autant plus restreint que la lentille objectif est de forte convergence, avec une distance focale courte et un faible coefficient d'aberration sphérique.

    De plus, le spécimen doit être introduit de l'extérieur vers l'intérieur de cette enceinte dont le vide doit être aussi élevé que possible et dont les surfaces en regard de l'échantillon doivent être très propres afin d'éviter toute contamination des surfaces à observer par des molécules organiques extérieures au spécimen. Il est donc nécessaire de prévoir un sas d'entrée avec un système de pompage indépendant pour permettre ce transfert.

    Figure III.13  Le porte échantillon d'un microscope électronique à transmission

    Deux géométries ont été utilisées pour réaliser cette introduction de l'échantillon vers sa position d'observation : selon une direction coïncidant avec l'axe du microscope (et on parle de porte-objet de type "top" - "ou "bottom-entry") ou directement à travers la paroi latérale du microscope selon une direction perpendiculaire à l'axe de l'instrument (il s'agit alors d'un porte-objet de type "side-entry"). Cette seconde solution est de nos jours favorisée car elle est plus adaptée à une manipulation simple de l'échantillon. La figure III.13 présente le schéma de principe d'un tel porte-échantillon. Le spécimen est situé à l'extrémité d'une tige globalement cylindrique. L'inclinaison du plan de l'échantillon autour de cet axe est très facile à réaliser. Les déplacements latéraux en X et Y avec une course totale comprise entre 2 et 3 mm dans chaque direction s'exécutent au moyen d'un jeu de soufflets, de ressorts et de rotules. L'inclinaison selon un axe perpendiculaire à la direction d'introduction requiert un système de micro-mécanique plus complexe inséré dans l'extrémité de la canne porte-échantillon.

    Lorsqu'on désire examiner un échantillon avec des grandissements supérieurs à plusieurs centaines de mille, dans des conditions adaptées à la résolution de colonnes atomiques, on conçoit que des critères très stricts de stabilité mécanique (rigidité échantillon-colonne par exemple) doivent être observés afin que les vibrations, déplacements erratiques soient réduits au minimum tolérable. Ceci implique un couplage rigide entre l'échantillon et la colonne et, au contraire, un découplage entre cet ensemble et le milieu externe afin de réduire l'importance des vibrations qui pourraient en émaner. En outre, on est souvent amené à chercher la meilleure orientation par rapport à l'axe des électrons, favorisant l'observation d'un détail ou d'un défaut particulier. Ceci est réalisé grâce à une platine goniométrique, si possible eucentrique, dans laquelle l'axe d'inclinaison passe par le point observé de l'échantillon.

    Ceci conduit donc à la construction d'ensembles mécaniques perfectionnés, afin que l'expérimentateur puisse retrouver rapidement toutes les coordonnées et conditions d'une observation. La reproductibilité des mouvements est désormais telle que les conditions de fonctionnement des moteurs qui en sont responsables sont mémorisées dans un ordinateur et directement accessibles.

    La géométrie consistant à placer l'échantillon à l'extrémité d'une canne porte-spécimen présente d'autres avantages. En particulier, il est plus aisé dans cette configuration d'implanter au voisinage immédiat de la zone observable divers systèmes de circulation de fluide cryogénique, de chauffage, de traction, de déformation, qui offrent des possibilités tout à fait originales d'observation du comportement de la matière sous température variable, sous contrainte externe. Ces possibilités sont amenées à conférer au microscope électronique une vocation de "mini-laboratoire" dans lequel non seulement on observe et on mesure à l'échelle du nano- ou micromètre, mais aussi on peut agir et réaliser des expériences originales.

    III.6. La colonne du microscope électronique à balayage (voir figure III.14).

    Le microscope électronique à balayage se distingue de plusieurs façons de l'instrument conventionnel. La colonne d'optique électronique à proprement parler y est plus réduite et simplifiée avec uniquement un ensemble de lentilles condenseur et objectif situées entre la source d'électrons et l'échantillon. Il faut cependant y ajouter entre les deux lentilles un système de bobines à balayage constituées de déflecteurs électromagnétiques. Son rôle est de déplacer la sonde d'électrons sur la surface de l'échantillon, selon une trame bien définie, obéissant à un standard télévision ou à toute une gamme de balayages réduits ou plus lents.

    Fig. III.14 Schéma d'une colonne de microscope électronique à balayage (d'après les document JEOL)

    Contrairement au microscope à transmission, l'échantillon est généralement situé en dehors des pièces polaires de la dernière lentille d'éclairement, dont le rôle est de focaliser le faisceau à une certaine distance (de quelques mm à quelques cm) en avant de la dernière pièce polaire. Par conséquent, il est relativement aisé de concevoir des porte-objets goniométriques permettant l'introduction d'échantillons de grande taille (plusieurs cm) et offrant une vaste plage de déplacements horizontaux, verticaux et d'inclinaisons adaptés à l'examen tridimensionnel de topographies complexes.

    Les différents détecteurs pour capter les flux d'électrons rétrodiffusés ou secondaires sont aussi situés dans la chambre porte-échantillon, directement en regard de la surface à observer : le premier est généralement constitué d'un ou plusieurs cristaux semiconducteurs situés sous la face inférieure de la pièce polaire de l'objectif ; le second est introduit latéralement et une tension positive est appliquée sur le collecteur, afin de recueillir sur la face d'entrée du scintillateur la grande majorité des électrons lents secondaires réémis par la surface (cf. fig. III.15).

    Fig. III.15 Les détecteurs pour électrons secondaires et retrodiffusés émis à partir d'une cible massive et utilisés en microscopie électronique à balayage en réflexion.

    L'image finale est restituée sur un ou plusieurs moniteurs extérieurs dont la trame de balayage est synchronisée avec celle du balayage de la sonde sur l'échantillon, et dont la luminosité du spot est modulée électroniquement par l'intensité des différents signaux captés par les détecteurs à l'intérieur de la chambre échantillon. Comme la génération de cette image finale repose sur un certain nombre de circuits électroniques, on conçoit que de nombreuses possibilités de manipulation analogique ou digitale du signal puissent être facilement implantées à ce niveau.

    Par exemple, il est aisé d'agir sur le contraste d'une image en jouant sur le niveau du zéro et sur la gamme des intensités (linéaire, logarithmique, ...), de l'inverser, de la dilater... Toutes ces possibilités permettent non seulement d'optimiser la perception visuelle finale en fonction des signaux délivrés, mais aussi d'adapter des processus plus complexes de filtrage, ou de mélange de signaux conduisant à une perception accrue de l'information générée.

    Chapitre IV : Les échantillons pour la microscopie électronique

    Vis à vis de la diversité des matériaux à observer, des observations recherchées, des outils utilisés, il est évident que la préparation des échantillons destinés à l'examen par microscopie électronique peut emprunter des voies très variées. Nous allons identifier dans un premier temps les contraintes générales avant de présenter une sélection de techniques utilisables selon qu'on s'intéresse à des substances organiques ou inorganiques.

    IV-1 - Contraintes générales.

    Quel que soit le type de microscope utilisé, l'observation se déroule sous vide et sous l'impact d'un faisceau d'électrons. Il en résulte une double contrainte :

    i) la morphologie et la structure doivent être préservées afin que l'examen apporte des informations significatives;

    ii) l'échantillon ne doit pas subir une évolution irréversible sous l'action du faisceau primaire, ce qui signifie en particulier absence d'effets de charge électrique sur les surfaces ou réduction des dégâts d'irradiation dans le matériau lui-même.

    Enfin, selon la catégorie d'instruments, on s'intéresse soit à la surface d'échantillons massifs (dans les microscopes à balayage en réflexion), soit à des lames minces (dans les microscopes à transmission). La zone génératrice de l'information dépend à la fois des paramètres du faisceau primaire (tension d'accélération, dimensions latérales...) et des mécanismes d'interaction entre les électrons et le matériau étudié, sur lesquels nous reviendrons de façon détaillée au cours du prochain chapitre.

    A ce niveau, il est seulement nécessaire de rappeler que dans une géométrie par réflexion, les électrons transportant le signal utile sont issus d'une épaisseur superficielle variant du nanomètre (pour les électrons secondaires) à quelques centaines ou milliers de nanomètres (pour les électrons rétrodiffusés). Au contraire dans la géométrie à transmission qui est particulièrement adaptée à l'étude à très haute résolution des propriétés internes du solide, les échantillons doivent être suffisamment minces pour que les électrons transmis y subissent un nombre réduit d'interactions. Et que, par conséquent, le faisceau transmis conserve un degré satisfaisant de collimation et une dispersion énergétique réduite afin de produire sur l'écran ou le détecteur une image finale de bonne qualité. Il n'existe pas de critère simple de définition d'une épaisseur critique, celle-ci dépendant de l'information et de la résolution recherchée. En général, on admet que cette épaisseur est de l'ordre de quelques dizaines à quelques centaines de nanomètres pour des électrons d'énergie primaire 100 ou 200 keV. Pour des électrons de plus haute énergie, la pénétration est accrue et on peut obtenir des images nettes avec des échantillons d'épaisseur micrométrique. Ceci a constitué un des grands succès des microscopes fonctionnant sous des tensions de 1,2 et 3 MV, construits à Toulouse sous l'impulsion de G. Dupouy.

    En résumé, l'observation par MEB requiert une surface propre, dont la morphologie a été préservée au cours de la préparation et peu sensible aux effets de charge. A l'opposé, le TEM nécessite des échantillons préparés sous forme de lames minces, résistantes aux électrons et orientées de telle sorte que l'information acquise soit adaptée à la géométrie du problème recherché.

    En outre le très grand pouvoir de grandissement offert par l’instrument impose une réflexion nouvelle lorsqu’on entreprend de relier une observation réalisée à l’échelle du microscope électronique à la dimension réelle de la matière à étudier. Prenons l’exemple du microscope à transmission. Supposons qu'en moyenne une image 10 cm x 10 cm corresponde à l'observation d'un échantillon d'épaisseur 50 nm, avec un grandissement de 100 000. Il lui correspond un volume total de matière observé de :

                V = 50 x 103 x 103 = 5 x 107 nm3

    contenant environ 5 x 109 atomes.

    Pour comparaison, un mm3 de matière contient de l'ordre de 1020 atomes. Il faudrait donc plus de 1010 images de ce type pour explorer systématiquement l'ensemble d'un millimètre cube de matériau. Ceci est absolument hors de portée : un expérimentateur entraîné réalise de 50 à 100 bonnes images en une journée !!... Et en outre il est sûrement sans intérêt de vouloir effectuer ce type d'examen exhaustif. Au passage on peut aussi se dire qu'avec tous les microscopes électroniques ayant existé depuis leur invention, on n'a pas encore exploré un volume de matériau de l'ordre du millimètre cube.

    Par conséquent, on conçoit l'importance de l'échantillonnage, c'est-à-dire de cette démarche qui consiste à localiser et à identifier rapidement au cours d'un examen au microscope électronique les zones représentatives des propriétés étudiées. On est largement aidé dans cette tâche par la grande souplesse du microscope à "zoomer" sur des zones choisies de l'échantillon, c'est-à-dire de travailler d'abord sous un grandissement d'une valeur de quelques dizaines à quelques centaines pour un examen général et une définition des zones minces intéressantes, avant de l'augmenter jusqu'à des valeurs de l'ordre de plusieurs centaines de mille pour l'observation fine à haute résolution.

    IV-2 -Les techniques de préparation d'échantillons inorganiques pour la microscopie en transmission

    Pour obtenir des lames minces adaptées à l'observation en microscopie à transmission, de nombreuses solutions ont été proposées et utilisées. Elles dépendent essentiellement de la nature chimique de l'échantillon massif et du caractère  plus ou moins localisé de l'information recherchée. Mais il faut particulièrement insister sur le fait que la réussite de la préparation d'un bon échantillon est souvent le garant d'une observation riche en renseignements nouveaux. On ne saurait donc sous-estimer cet aspect du travail du microscopiste, qui représente bien souvent une partie bien plus importante de son temps que l'examen à proprement parler au microscope.

    En règle générale, il existe deux grandes voies pour réaliser un échantillon mince :

    • partir d'un échantillon massif et l'amincir, de préférence dans la zone la plus utile ;
    • faire croître lentement l'échantillon à observer sur un substrat avant de l'en décoller et de le déposer sur une grille support.

    Dans un certain nombre de situations privilégiées, il suffit de broyer, de gratter le matériau à examiner, de le dissoudre dans un liquide adapté dont on prélève une goutte à sécher sur un support ultra-mince adapté. Ce support universel est une grille de cuivre recouverte d'un film très mince de carbone amorphe percé de trous sur les bords desquels grâce à l'intensité des forces de tension superficielle, de nombreux échantillons restent attachés de façon stable tout en débordant sur le vide. Ces lames de carbone à trous, que l'on trouve maintenant aisément dans le commerce, sont fabriquées par  évaporation Joule d'un barreau de graphite sous vide et condensation des vapeurs carbonées sur substrat de NaCl par exemple, dont il est ensuite décollé par flottage sur la surface d'un liquide.

    De façon générale, il existe maintenant tout un ensemble de techniques de dépôt et croissance contrôlés de matériaux divers sur un support donné. Le matériau est évaporé par effet Joule ou sous bombardement électronique à partir d'un matériau massif et déposé graduellement sur un substrat déterminé. Un essor tout particulier de ces méthodes a été stimulé par l'industrie des semiconducteurs où les procédés de dépôt épitaxique en jet moléculaire ont été largement développés pour la réalisation de systèmes complexes dans lesquels la composition chimique du matériau peut varier continûment, couche atomique par couche atomique, au cours de la croissance.

    Mais dans la grande majorité des cas, l'accès à des vastes plages d'échantillons minces, c'est-à-dire d'épaisseur inférieure à 100 nm sur plusieurs microns de large, requiert l'utilisation de techniques diverses d'amincissement contrôlé. Il est généralement nécessaire de prélever l'échantillon à amincir (un disque mince de 3 mm de diamètre) et de le préamincir avec diverses techniques grossières utilisant des procédés mécaniques ou chimiques. Les derniers stades de l'amincissement doivent être contrôlés de façon plus précise afin de préserver de vastes zones très minces au voisinage du trou ainsi réalisé (voir fig. IV.1).                                                        

    Figure IV.1 Les étapes de l'amincissement d'un échantillon inorganique pour l'observation en microscopie à transmission de zones d'intérêt situées près du bord d'un trou.

    Parmi les techniques utilisées :

    • Le polissage électrolytique (méthode de l'anode soluble) est bien adaptée aux métaux et alliages.
    • Le polissage chimique (dissolution progressive sous l'impact d'un produit dissolvant, acide par exemple) utilisé pour les semiconducteurs.
    • L'amincissement sous bombardement d'ions primaires qui érode progressivement l'échantillon. C'est devenu au cours des dernières années une technique très populaire dans la mesure où elle peut être utilisée pour presque tous les types de matériau. En outre, il est possible de réaliser des faisceaux d'ions focalisés et de les adapter à des usinages à façon pour un amincissement localisé. La figure IV.2 présente le principe d'un amincisseur équipé de ses deux canons à ions, ainsi qu'un exemple de lame mince de dispositif semiconducteur réalisée sous bombardement ionique focalisé.En  particulier, cette technique est très adaptée à la préparation de sections transverses, c'est-à-dire à la réalisation d'échantillons dans lesquels l'interface ou les interfaces à étudier sont orientés parallèlement au faisceau d'électrons du microscope, et sont visibles dans des zones minces près du bord de l'échantillon (c'est-à-dire obéissant de façon aussi satisfaisante que possible aux conditions représentées en loupe sur la figure IV.1).

                                    

    Figure IV.2 (a et b) Schéma de principe d'un appareil d'amincissement par bombardement ionique (Duomill-Gatan)

        

    • Enfin, le dernier cri de la technique d'amincissement est le polissage mécanique très doux sur un système dit tripode. Mais il faut être un artiste pour réaliser cet amincissement très graduel, avec des angles de biseau très faibles en bordure de la lame mince.

    IV-3 - Les techniques de préparation des échantillons organiques

    Que ce soit pour l'observation en transmission ou en réflexion, la matière organique présente des spécificités liées à son caractère très déformable. On imagine aisément les dégâts qui peuvent se produire lorsqu'on introduit un échantillon de tissu biologique, qui contient une très grande proportion d'eau, dans l'environnement sous vide que constitue la chambre d'observation de tout microscope électronique. Les espoirs de voir des cellules vivantes se sont donc évanouis depuis longtemps, confirmant ainsi les sombres prédictions de Gabor, avant même d'invoquer le rôle destructeur du faisceau d'électrons. Cependant la situation n'est pas complètement désespérée, et au prix d'astuces nombreuses et diversifiées, les biologistes ont pu au cours des décennies récentes, "voir" l'ultrastructure des tissus et des cellules, et à un degré plus élaboré, étudier la morphologie de molécules individuelles comme les protéines et les acides nucléiques. Comment ces succès ont-ils pu être obtenus? En premier lieu grâce à l'ingéniosité des chercheurs qui ont su mettre au point toute une chaîne de traitements permettant la préservation de l'échantillon à partir de son prélèvement sur le sujet de l'étude, qui est bien souvent la souris de laboratoire, les cellules en culture in vitro, mais qui peut être aussi le patient humain, jusqu'à son observation sous le faisceau d'électrons du microscope.

    Afin de maintenir l'échantillon dans un état morphologique aussi proche que possible de son état naturel, il est nécessaire d'effectuer un traitement de fixation, préalable à l'étape de déshydratation. Il s'agit, par un processus chimique ou physique approprié, d'éviter aux substances protéiniques ou lipidiques qui le composent, les déformations brutales qui accompagnent la mise sous vide. Dans la méthode "conventionnelle" de préparation d'échantillons pour l'observation en microscopie électronique, cette étape de fixation est réalisée chimiquement (fixation au glutaraldéhyde, puis au tétroxyde d'osmium le plus souvent) suivie de la déshydratation par substitution à la température ambiante de solvants organiques (alcool ou acétone) à l'eau, et de l'imprégnation dans différents types de résines, choisies en fonction de ce que l'on cherche à voir dans l'objet inclus. Après polymérisation, le matériau est devenu suffisamment résistant pour pouvoir éventuellement être débité sous forme de lames minces par découpe sous ultramicrotome. Cet instrument obéit au principe de la machine à découper le jambon. Mais l'arête qui cisaille l'échantillon est généralement en diamant afin de réaliser des sections d'épaisseur relativement homogène, de l'ordre de la centaine de nanomètres, pour l'observation en transmission. Enfin pour améliorer le contraste entre les différents organites cellulaires, on expose l'échantillon à un produit contenant des atomes lourds (classiquement acétate d'uranyl et citrate de plomb) afin que ces derniers en diffusant à la surface des différentes structures cellulaires, noyau, appareil de Golgi, mitochondries, les rendent visibles (voir plus loin la fig. V.4).

    Récemment, les processus de fixation purement physiques, par congélation ultrarapide des tissus  sur un bloc de cuivre refroidi à l'hélium ou à l'azote liquide se sont imposés comme voie privilégiée pour la préservation des structures cellulaires et sub-cellulaires. Une fois la matière biologique congelée, de nombreuses voies de traitement ont été proposées conduisant à des observations très diverses. Elles sont regroupées sommairement dans le tableau IV.1.

    Tableau IV.1

    Pour les fragments de tissu, les suspensions ou cultures cellulaires, le produit cryofixé peut être sectionné par cryo-ultramicrotomie pour la réalisation de couches minces qui sont directement observées à l'état congelé hydraté dans un microscope équipé d'un porte-objet permettant l'observation à la température de l'azote liquide (77 K). Pour préserver l'aspect ultrastructural d'un tissu, il faut que l'eau soit congelée à l'état de glace amorphe et sa recristallisation en glace hexagonale ou cubique, plus stable, mais impropre à l'observation, doit être évitée en maintenant l'échantillon à une température inférieure au seuil de dévitrification, soit 153 K, tout au long de la chaîne du froid. Une seconde solution consiste à fracturer l'échantillon congelé sous vide afin d'en observer la surface de fracture directement à l'aide d'un microscope à balayage ou indirectement après dépôt d'une replique de carbone ultra-mince dont on observe le relief, éventuellement ombré à l'aide d'une évaporation de grains métalliques très fins pour en faciliter la visualisation, en microscopie à transmission conventionnelle à température ordinaire (il s'agit alors de la technique dite de cryodécapage). Enfin une dernière méthode utilise la déshydratation à froid sous vide suivie de traitements variés de cryo-substitution ou de cryo-imprégnation conduisant à la préparation d'échantillons secs pour une observation à la température ambiante comme avec une préparation chimique conventionnelle. Ces méthodes cryogéniques présentent des avantages nombreux vis à vis des techniques chimiques comme une préservation des structures jusqu'à une échelle de 2 à 3 nm et une stabilité de la composition chimique en limitant au maximum la redistribution des électrolytes inorganiques et constituants diffusibles. On peut aussi imaginer facilement son utilisation dans l'étude de la dynamique de comportements biologiques. En effet, il est possible de réaliser la trempe ultra-rapide de l'échantillon à tout instant d'un cycle d'activité physiologique afin de saisir une image de la structure, voire de la chimie locale, caractéristique de cet état d'activité.

    Une autre grande catégorie d'études en microscopie électronique concerne les macromolécules ou ensembles macromoléculaires extraits de cellules ou de tissus. On sait en effet fragmenter un ensemble intégré de fonctions afin d'isoler une activité biologique particulière pour la caractériser. La plupart des fonctions biologiques sont associées à de grands assemblages macromoléculaires comportant des acides nucléiques (ADN ou ARN) associés à de nombreuses protéines et peptides. La compréhension des mécanismes d'action de ces complexes passe par l'étude des modifications  conformationnelles ou topologiques, le plus souvent induites par des interactions directes acides nucléiques-protéines. Pour les étudier, de nombreux procédés sont utilisés pour l'isolement et la visualisation des molécules isolées ou des complexes macromoléculaires. La plus efficace et la plus simple consiste à adsorber les molécules sur un support dont on sait contrôler l'état hydrophile ou hydrophobe de la surface par des traitements appropriés. Il est en effet important que la molécule biologique adhère sur la surface sans être déformée. Pour augmenter artificiellement la visibilité d'un objet de faible contraste déposé sur un support mince de carbone, on utilise des atomes lourds ainsi qu'illustré sur la figure IV. 3. Ils peuvent constituer soit un simple agent colorant le pourtour de l'objet (coloration positive), soit une matrice à l'intérieur de laquelle l'échantillon apparaît en contraste négatif (coloration négative). La figure IV. 4 constitue un exemple caractéristique de la façon dont on peut visualiser ainsi des molécules d'ADN déposées sur un film mince de carbone.

    Figure IV. 3 Différentes méthodes de préparation d'échantillons de macromolécules isolées pour l'observation en microscopie électronique à transmission

    Figure IV. 4 Images de molécules d'ADN circulaire. L'ADN extrait chimiquement et purifié, est déposé sur une peau de carbone très fine (environ 3,5 nm d'épaisseur) et contrasté par le dépôt de sel d'uranium qui se fixent sur les charges négatives de l'ADN. Un fort contraste est obtenu par l'observation des molécules en fond noir annulaire.a) double chaîne super torsadée avec chevauchement de brins; b) double chaîne circulaire relâchée, la coupure d'un des brins entraînant la libération des contraintes de superhélicité (clichés E.Delain, IGR Villejuif).

    En utilisant des supports fonctionnalisés (films lipidiques), les molécules à étudier peuvent s'orienter, s'organiser et cristalliser en un réseau bidimensionnel. C'est sur de tels réseaux de protéines membranaires qu'ont pu être réalisées récemment par cristallographie électronique, des cartes structurales avec une résolution meilleure que 0,5 nm. Il s'agit là d'un développement très prometteur de la microscopie électronique, qui peut devenir compétitive avec les techniques de diffraction X pour résoudre des structures au niveau quasi-atomique, quand il est difficile de cristalliser des grandes quantités de matériau. Mais la préparation de l'échantillon ne constitue que la première étape d'une étude longue et délicate, où toutes les ressources les plus pointues de la microscopie elle-même (observation sous dose très réduite pour limiter les dommages d'irradiation) et du traitement de l'information a posteriori, sont requises.

    Enfin, la méthode la plus élégante pour l'étude de dispersions de molécules individuelles consiste à congeler rapidement une suspension de ces molécules en milieux aqueux, en en plongeant une goutte adhérente à une grille de cuivre dans de l'éthane liquide. L'amincissement à une épaisseur convenable, est préalablement réalisé en éliminant une grande partie de la goutte avec un papier filtre. L'épaisseur du film de glace fin, de l'ordre de 100 nm permet l'observation des molécules maintenues dans leur solution d'origine, dans leur environnement aqueux et ionique initial. Cependant, les phénomènes de surface, gênants dans la technique du dépôt, ne sont pas complétement éliminés dans la mesure où l'échantillon est confiné dans une mince couche de solution. En outre l'orientation aléatoire des particules biologiques peut être un handicap, mais les progrès récents en analyse d'images permet de résoudre bien des difficultés quand on a accès à des populations de molécules de plusieurs milliers.

    IV-4 - Les microscopes à environnement contrôlé

    Pour clore ce chapitre, il est utile de mentionner quelques développements récents dans le domaine de la microscopie à balayage conventionnelle. L'environnement requis en vide et les phénomènes de charge induite par le faisceau primaire quand l'échantillon est non conducteur, en limitent singulièrement le champ d'applications, dans le monde industriel en particulier. Pour y remédier plusieurs solutions ont été utilisées. Par exemple, il est commun de recouvrir toute surface non conductrice d'un film mince métallique avant observation. Parmi les autres remèdes proposés, le recours à des tensions d'accélération réduites (de l'ordre du kV) permet de compenser à peu près exactement les charges apportées par le faisceau primaire et celles réémises par l'échantillon de telle sorte que la charge accumulée reste négligeable. Mais il est un développement récent qui semble apporter un remède à toutes ces difficultés.

    Revenons sur la notion de vide. La pression atmosphérique normale se situe aux environs de 760 mm de mercure (dans les systèmes de pompage on aime bien encore l'unité "torr" qui équivaut à 1 mm de Hg): la pression de l'atmosphère équilibre le poids d'une colonne de mercure de 760 mm de haut. Les physiciens utilisent de nos jours l'unité Pascal (Pa), la pression normale de l'air est 105Pa. La pression résiduelle dans une colonne de microscope est de l'ordre de 10-4 Pa. Sous une telle pression le nombre de molécules de gaz par litre est de quelques 1013, si bien que la probabilité de collision entre un électron rapide du faisceau et une de ces molécules de gaz est pratiquement nulle. C'est la raison pour laquelle une telle qualité de vide est maintenue dans une colonne de microscope. Mais il n'est pas nécessaire qu'elle soit présente autour de l'échantillon lui-même. C'est ce qui a conduit au développement récent de microscopes avec un vide différentiel entre le microscope et la chambre échantillon. En maintenant dans cette dernière enceinte une moins bonne qualité de vide que dans le reste de la colonne (jusqu'à 50 torr dans le dernier microscope environnemental de la marque Electroscan), on conjugue plusieurs avantages. Le premier est une réduction des effets de charge électrique sur la surface d'un isolant. En effet les molécules de gaz autour de l'échantillon peuvent être ionisées sous l'impact soit des électrons primaires, soit des électrons secondaires, et venir neutraliser la surface du spécimen. Le second est de disposer d'une possibilité accrue de maintien des morphologies naturelles pour un grand nombre d'échantillons ayant tendance à dégazer facilement sous vide (papiers, lubrifiants, crèmes variées, nourriture..). Il en résulte un élargissement tout à fait spectaculaire du champ d'utilisation du microscope. Pour ne citer qu'un exemple aperçu lors d'un congrès récent de microscopie électronique, je mentionnerai la séquence tout à fait impressionnante des insectes se déplaçant dans des cavernes gigantesques à l'intérieur d'un fromage, insectes conservant tout leur dynamisme jusqu'à ce qu'un accroissement de la dose d'électrons nécessaire pour travailler à plus haute résolution, ne soit responsable de leur trépas. Il est donc possible dans ces conditions, c'est à dire avec des grandissements modestes, de suivre le mouvement d'organismes vivants à l'intérieur du microscope, contredisant ainsi une nouvelle fois les prédictions de Gabor.

     

    Chapitre V : Comprendre les images.

    V.1. Généralités.

    Lorsqu'on observe des images acquises avec un microscope photonique, l'interprétation du message perçu ne soulève pas à première vue de difficultés particulières. En effet il s'agit d'une représentation agrandie du monde observé utilisant les mêmes systèmes de perception que dans la vision usuelle, à savoir une image souvent colorée avec des parties sombres et lumineuses. On admet alors que selon le cas, examen par transmission ou par réflexion, les différentes zones de l'échantillon absorbent ou réfléchissent différemment et voire même sélectivement en fonction de leur longueur d'onde, les rayons lumineux. Sans être un expert des mécanismes physiques complexes qui interviennent lors de l'interaction du champ électromagnétique avec la matière, l'observateur peut tirer des informations plus ou moins significatives de ce qu'il voit directement ou indirectement à travers le support d'une caméra de télévision ou d'un film photographique. Car dans la vie quotidienne, il se trouve confronté à l'expérience de la vitre plus moins transparente ou du miroir qui lui renvoie sa propre image. Il a même déjà eu l'occasion de s'interroger sur la validité de ses observations devant des images déformées à travers la paroi d'une bouteille ou sur la surface du café contenu dans son bol. En contemplant les rayons du soleil à travers un voilage les figures irisées et géométriques qu'il y a discernées ont souvent attiré son attention.

    Mais dans le monde exploré par le microscope électronique, il n'est pas aussi évident de comprendre les images obtenues et d'en déduire des informations utiles sur l'échantillon observé. Car nous manquons singulièrement d'échelles et de repères lorsqu'il s'agit d'explorer la matière dans sa constitution la plus intime. Le microscope électronique est un outil fantastique pour voir l'invisible, mais les clefs destinées à en apprécier les richesses doivent être élaborées. Et plus on s'approche des limites ultimes, à savoir reconstruire la structure de la matière atome par atome, plus l'interprétation des images requiert un support théorique élaboré faisant appel à des notions fort variées de mécanique quantique, physique atomique, optique ondulatoire, cristallographie, physique des solides, chimie inorganique, biologie moléculaire selon la nature des échantillons étudiés.

    Loin de nous l'idée d'aborder ce champ complexe de connaissances qui peut (et doit) conduire à la prévision des images enregistrées pour une certaine structure ou défaut de structure, en fonction des conditions de fonctionnement du microscope. Ce qui constitue bien évidemment une étape recommandée. Notre ambition, dans le présent chapitre, est de fournir au lecteur les éléments de réflexion lui permettant de se poser quelques questions élémentaires et de mettre à l'épreuve son sens critique vis à vis des images qu'il peut être amené à contempler.

    La première étape va nous plonger directement dans la situation extrême où on suppose qu'un électron de haute énergie passe au voisinage d'un atome isolé. Comme nous l'avons rappelé, ce dernier est constitué de charges électriques, les unes positives concentrées dans le noyau, les autres, les électrons de charge négative, gravitant autour du noyau. Entre ces charges relativement localisées et la charge négative de l'électron incident se développent des interactions coulombiennes, c'est-à-dire des forces attractives ou répulsives qui vont contribuer à dévier ou à ralentir ce dernier. A priori on considère que l'atome étudié est au repos dans son état d'énergie minimum et qu'il ne peut que prendre de l'énergie à l'électron primaire qui par conséquent subit une perte d'énergie. La figure V.1 illustre les différents types d'évènements qui peuvent se produire alors.


    Figure V.1    a) Diffusions élastique et inélastique entre un électron incident de haute énergie et un atome ; b) Niveaux énergétiques concernés par une excitation électronique avec la perte d'énergie correspondante subie par l'électron incident de haute énergie.

    Les électrons qui s'approchent le plus du noyau subissent une interaction attractive et sont par conséquent déviés d'une façon significative. Il est convenu d'appeler ce type d'interaction une diffusion élastique (sans changement d'énergie). C'est à une autre échelle l'équivalent d'une bille légère et rapide qui rebondit sur une boule de billard lourde sans lui communiquer d'énergie cinétique car la différence de masse entre les deux partenaires de la collision est trop importante. Dans le cas qui nous intéresse, l'angle de déviation est important, ce qui reste tout à fait relatif, car il s'agit d'un angle en moyenne de 10-2 radian c'est à dire de l'ordre dy demi-degré d'angle.

    Les électrons qui traversent le nuage des orbitales électroniques interagissent avec des particules de même masse et peuvent par conséquent leur communiquer de l'énergie, c'est-à-dire dans le modèle atomique les faire passer d'un niveau à un autre ou même les expulser complètement de façon à transformer l'atome initialement neutre en ion. La perte  d'énergie subie par l'électron incident est ainsi gagnée par l'électron de la cible, comme montré sur la figure V.2.

    La déviation angulaire est en générale sensiblement plus faible que dans le cas de la diffusion élastique : on dit alors que les processus de diffusion inélastique (avec transfert d'énergie) sont concentrés dans un domaine angulaire restreint (de l'ordre de 10-4 à 10-3 radian).

    Nous allons donc décrire successivement les conséquences des mécanismes élémentaires pour la compréhension des images de microscopie électronique à transmission en y insistant  sur le cas de la microscopie à très haute résolution.

    V.2. Interprétation du contraste dans des images de microscopie électronique à transmission.

    La notion de contraste est tout à fait essentielle. Elle est directement incluse dans le fait qu'une image est une représentation bidimensionnelle d'une certaine propriété de l'échantillon (fig. I.5). Par conséquent, le nombre d'électrons recueillis en un point du détecteur $I(x,y)$ est différent de celui recueilli en un point voisin $I(x + \Delta x, y + \Delta y)$. Le contraste est défini comme la variation entre ces deux mesures réalisées en des points de l'échantillon séparés de $\Delta x/M$ et $\Delta y/M$ (avec M le grandissement du microscope) :

    $$ C=\frac{I(x + \Delta x, y + \Delta y)-I(x,y)}{\overline{I(x,y)}} $$

    où $\overline{I(x,y)}$ est la valeur moyenne de l'intensité dans la zone considérée. Par la suite, toutes les dimensions spatiales sont considérées au niveau de l'échantillon.

    En microscopie électronique à transmission, l'échantillon est une lame mince d'épaisseur t suffisamment faible pour que le nombre d'interactions soit limité et le ralentissement des électrons primaires négligeable. A ce stade, on ne considèrera pour interpréter la formation de l'image que les effets élastiques qui ont pour conséquence d'ouvrir angulairement un faisceau d'électrons incidents initialement parallèle. Le rôle des effets inélastiques et de leurs conséquences sera décrit dans le cours du chapitre VI dédié à la microscopie analytique. Retenons donc pour l'instant que l'effet essentiel imposé par l'interaction électron-matière est de produire à la sortie de l'échantillon un faisceau d'électrons se déplaçant dans différentes directions à l'intérieur d'un cône de diffusion, comme schématisé sur la figure V.3.

    Figure V.3 Origine du contraste dit d'absorption introduit par un diaphragme à la sortie de l'échantillon

    Supposons que, pour les deux points A et B de l'échantillon qui nous intéressent, on recueille l'ensemble des électrons diffusés. Il n'y aurait pas de contraste. Par conséquent, une première idée simple consiste à introduire dans la colonne après la face de sortie de l'échantillon une ouverture circulaire (un diaphragme de contraste) pour ne sélectionner qu'une fraction seulement des électrons transmis. On conçoit alors que, par cet intermédiaire, il est possible de discriminer deux points sur l'échantillon dont le pouvoir diffuseur (soit la nature des atomes constitutifs, soit le nombre de ces atomes - et par conséquent l'épaisseur locale -) est différent. C'est le principe du contraste d'absorption qui est à la base de la visualisation des structures dans tout spécimen "amorphe". On comprend, à ce stade de la discussion, par amorphe, tout spécimen pour lequel on peut considérer l'échantillon comme un rassemblement dense d'atomes sans organisation particulière, si ce n'est une distance entre plus proches voisins toujours sensiblement équivalent. Pour prendre un exemple concret, il s'agit des échantillons de matière biologique, composés donc essentiellement d'atomes légers C, H, O et N, dans lesquels les structures cellulaires sont rendues visibles par un marquage sélectif avec des atomes lourds (osmium, tungstène, uranium) - voir la figure V.4.

    Fig. V.4 Micrographie en fond clair conventionnel d'une section de cellules de rein de poulet infectées par le virus de la Myéloblastose aviaire (leucémie). On distingue parfaitement le noyau (N) avec la chromatine dense et la membrane nucléaire double avec ses pores (p), les polyribosomes (r) attachés aux parois de l'ergatoplasme ou du feuillet cytoplasmique de la membrane nucléaire. Le cytoplasme contient des mitochondries (m) et la coupe transversale d'un centriole (c); on voit quelques microtubules (mt). Dans les espaces intercelullaires sont présents de nombreux virus (v, rétrovirus proche de celui du Sida (cliché E. Delain, IGR Villejuif).

    Insistons sur le fait que ce contraste - dit d'absorption - ne correspond pas à une absorption réelle des électrons dans l'échantillon. Pour les épaisseurs usuellement observées, tous les électrons sont transmis. Il s'agit donc d'une "absorption virtuelle" au niveau de l'image, car certains des électrons transmis n'arrivent pas jusqu'au détecteur à cause de l'introduction du diaphragme de contraste.

    A ce niveau de la discussion, il est important de revenir sur une propriété essentielle de la lentille objectif, à savoir sa double fonction de produire des images agrandies ou des clichés de diffraction. Reprenons le schéma des trajectoires électroniques à travers une lentille - la discussion qui suit s'applique aussi bien au cas des lentilles de l'optique photonique - voir la figure V.5.

    Figure V.5. Double fonction de la lentille objectif pour la formation d'images agrandies ou de clichés de diffraction

     

    Le faisceau parallèle à l'axe $A_1 A_o A_2 $ sur l'échantillon est focalisé en un point O au foyer image de la lentille, avant de former une image agrandie et renversée $A'_1 A'_o A'_2$ dans le plan image de la lentille. Mais si dans l'échantillon ce faisceau parallèle est dévié globalement d'un angle tout en restant parallèle, il devient focalisé en un point O' different du point O dans le plan focal, avant de redonner la même image agrandie que le faisceau non dévié par l'échantillon. Cette remarque prend toute son importance car elle montre clairement qu'au niveau de son plan focal une lentille permet de distinguer les trajectoires qui y pénètrent sous des angle q variés. Par exemple, on calcule facilement la distance OO' = f.q dans le plan focal (où f est la distance focale de la lentille). Par conséquent, si on désire filtrer une partie seulement du faiseau transmit dans le microscope électronique à transmission, le diaphragme de contraste doit être introduit dans le plan focale image de la lentille objectif. A ce endroit, il n'interfèe pas avec l'image mais joue pleinement son rôle de filtre de contraste.

    Considérons maintenant le cas des échantillons cristallins. Pour des raisons de compacité maximum, les atomes dans un solide ont tendance naturellement à se rassembler en des arrangements bien organisés. C'est identique au pavage d'un sol qui reproduit périodiquement à deux dimensions un même motif de base. De la même façon, la structure stable d'un solide est le cristal qui reproduit périodiquement à trois dimensions le même motif. Depuis longtemps, l'existence de symétries remarquables avait suscité la curiosité des savants qui après Haüy et Bravais au XIXème siècle avaient réalisé un travail énorme de classification suivant le degré de complexité des opérations de symétrie impliquées. La confirmation de l'existence de cet ordre tridimensionnel fut apportée au début du XXème siècle par von Laue à travers ses expériences de diffraction des rayons. Expérience confirmée en 1927 par la diffraction des électrons sur un cristal de nickel réussie par Davisson et Germer qui par la même occasion vérifiaient la dualité onde-corpuscule des électrons. En effet, pour comprendre la diffraction par un réseau, le faisceau primaire doit être décrit comme une onde avec une amplitude, une phase et une longueur d'onde. Il y a diffraction, c'est-à-dire interférences constructives ou destructives dans certaines directions, selon que les ondes réfléchies sur les plans cristallographiques sont, ou non, en phase.

    Figure V.6 Diffraction de Bragg sur une famille de plans équidistants.

    La figure V.6 illustre un cas particulier, à savoir la diffraction de Bragg par un réseau cristallin. Celui-ci est représenté comme un empilement de plans atomiques séparés par une distance d, qui se comportent vis-à-vis de l'onde incidente comme des plans semi-réfléchissants. Il y a diffraction dans une direction bien déterminée quand les ondes réfléchies sur les plans successifs sont en phase, c'est-à-dire quand la différence de marche entre ces ondes est égale à un nombre entier de fois la longueur d'onde de la radiation incidente, soit d'après la figure :

    $$ 2 d \sin q= n \lambda$$

    Ceci est la loi de Bragg qui relie la distance interplanaire dans le réseau cristallin à l'angle de diffraction 2q (entre le faiseau incident et le faiseau transmit et la longeur d'onde $\lambda$. Cette formule est valable aussi bien pour un rayonnement électromagnétique que pour celui associé à des particules chargées. Mais on constate immédiatement que pour qu'il y ait diffraction par un réseau cristallin il faut que l soit inférieur à 2d, car sinq est toujours inférieur à 1. Par conséquent pour des distances d de l'ordre de 0,1 à 0,3 nm il en résulte que l doit lui aussi être inférieur à 0,2 à 0,6 nm. Dans le cas du rayonnement lumineux, ceci implique l'utilisation des rayons X (et cet effet a donné naissance à toute la radio-cristallographie). Pour les électrons de haute énergie utilisés en microscopie électronique, pour lesquels la longueur d'onde est environ 100 fois plus faible que la distance entre atomes plus proches voisins, la condition angulaire est respectée sans problème. Les angles typiques de diffraction sur les plans les plus denses d'un réseau cristallin sont alors de quelques 10-2 radians.

    Par conséquent, lorsqu'on observe par microscopie électronique un échantillon cristallin, un diagramme de diffraction constitué de spots bien organisés se forme dans le plan focal de l'objectif. Si, par un réglage judicieux de l'excitation des lentilles suivantes de la colonne, on rend ce plan conjugué de celui de l'écran d'observation ou du film photographique, on visualise directement un diagramme de diffraction. Celui-ci renseigne directement sur la structure cristalline (type de symétrie, distances interatomiques) et sur l'orientation de ce réseau ordonné par rapport au faisceau incident.

    Figure V.7. Clichés de diffraction réalisés sur un cristal d'alumine Al2O3 orienté suivant l'axe [2110 ]: a) Diffraction conventionnelle en faisceau parallèle ; b) Diffraction en faisceau convergent (clichés D. Bouchet, Orsay)

     

    La figure V.7 présente deux exemples de clichés de diffraction ainsi enregistrés. Il est alors particulièrement utile d'identifier l'origine de ces différentes taches en les associant à des familles bien spécifiques de plans dans la structure cristalline, c'est ce qui s'appelle "indexer" un diagramme de diffraction. Rappelons donc que chacun des spots correspond à une direction différente permise aux électrons quittant la face de sortie de l'échantillon, faisant un angle déterminé par rapport à la direction du faisceau incident, prise comme référence (000) dans le centre du cliché de diffraction.

    Si on considère à nouveau la figure V.5, il est important à ce niveau de souligner la complémentarité entre les deux plans fondamentaux par rapport à l'échantillon, auxquels la lentille objectif donne accès : le plan image (qui est une image agrandie de l'échantillon, on dit alors qu'elle donne une vision de l'espace réel), le plan diffraction (qui est une carte des directions de diffraction pour une structure donnée, on parle alors d'information liée à une certaine section de l'espace réciproque).

    Par un jeu adapté de diaphragmes introduits et déplacés dans ces deux plans, l'expérimentateur dispose d'une grande variété de modes d'observation. Dans une première étape, il choisit au moyen d'un diaphragme de sélection situé dans le plan image une zone bien définie de l'échantillon. En modifiant l'excitation de la lentille intermédiaire, il peut visualiser sur l'écran d'observation le diagramme de diffraction correspondant à cette zone bien définie. Puis au moyen du diaphragme de contraste introduit pour sélectionner ou bien la tache centrale du diagramme correspondant au faisceau transmis, ou bien une tache diffractée, il peut ensuite en revenant dans le mode image visualiser sur l'écran une image dite en champ clair, ou une image dite en champ noir. Cette dernière est donc réalisée uniquement avec les électrons ayant subi une réflexion sur une famille de plans déterminés.

    C'est un moyen très puissant pour obtenir une information cristalline très sélective. Dans certains cas (situation à deux ondes), l'échantillon est orienté de façon à ce qu'une seule famille de plans soit en situation pour diffracter. Si, dans le champ observé, un défaut de structure déforme localement le réseau par rapport au réseau parfait, les plans cristallins au voisinage du défaut ne sont pas dans les mêmes conditions de Bragg que la matrice autour. Par conséquent, selon le cas, ces défauts apparaissent en clair sur un fond sombre ou en noir sur fond clair : voir l'exemple présenté dans la figure V.8.

    Figure V.8 Images en condition deux ondes (002) de dislocations dans un échantillon de diopside (CaMgSi2O6) déformé expérimentalement à 800°C : a) Image en champ clair réalisée avec le faisceau transmis ; b) Image en champ sombre réalisée avec le faisceau diffracté (002)(clichés J. Ingrin,, Orsay)

    De façon générale, pour des orientations de haute symétrie et des échantillons relativement épais le diagramme de diffraction devient très complexe avec de nombreuses taches et des diffusions multiples entre les taches. Néanmoins, même dans ces conditions, les techniques de diffraction sont devenues très puissantes pour étudier la structure cristalline locale. Avec le système d'éclairement on condense le faisceau primaire en un spot de taille réduite sur l'échantillon (l'information acquise est plus localisée) ; dans le diagramme de diffraction, les taches deviennent des disques dont la dimension est déterminée par l'angle de convergence, et la superposition de ces figures de diffraction donne lieu à des diagrammes de diffraction en faisceau convergent, dont l'analyse complexe a ouvert récemment de nouvelles perspectives très puissantes pour l'étude des microstructures cristallines (voir figure V.7b).

    V.3. La microscopie électronique à très haute résolution et les images directes de structures atomiques.

    Les techniques de diffraction électronique permettent d'analyser les périodicités présentes sur l'ensemble de l'aire sélectionnée sur l'échantillon. Si, au lieu de réaliser une image en introduisant un diaphragme ne laissant passer qu'une tache de diffraction, on y place un diaphragme suffisant large pour laisser passer la tache centrale ainsi que les spots diffractés les plus proches, on recueille sur l'écran d'observation une figure d'interférence entre tous ces faisceaux. L'image lorsqu'elle est suffisamment agrandie présente alors toutes les propriétés de périodicité et de symétrie cristallines correspondant à l'ensemble du cliché de diffraction sélectionné. Elle est constituée d'une juxtaposition de points blancs et noirs alignés, avec des distances entre ces alignements égales aux distances réticulaires dans le cristal réel. Il est donc possible d'interpréter une telle micrographie comme une image agrandie de la projection de colonnes atomiques parallèlement au faisceau incident. La figure V.9 illustre la relation entre la structure cristalline tridimensionnelle de l'échantillon, son diagramme de diffraction et l'image agrandie de la structure atomique projetée.


    Figure V.9 Le principe de la formation d'images de structures cristallines en microscopie électronique à transmission à très haute résolution : on obtient sur l'écran final une image d'interférences entre les différents faisceaux diffractés identifiables dans le plan de la diffraction. Les contrastes de points noirs et blancs sur l'image (voir par exemple l'encart relatif à un nanocristal de ZnO) correspondent à la projection des colonnes atomiques individuelles orientées parallèlement au faisceau incident (cliché N.Brun, Orsay).

     

    A l'examen de cette figure, on conçoit aisément quelques unes des limites de la méthode. La première est de satisfaire des conditions d'orientation relativement strictes pour qu'il n'y ait pas superposition entre les projections de colonnes atomiques adjacentes. La seconde est que le microscope soit capable de résoudre les distances interatomiques concernées. En effet nous avons souligné dans un chapitre précédent que les lentilles de l'optique électronique ne sont pas parfaites et souffrent de défauts (aberration d'ouverture, défocalisation) qui en font des outils imparfaits de transfert de l'information. Nous avons alors caractérisé ces défauts au moyen d'une fonction de transfert (fig. III.10) définie dans l'espace des fréquences spatiales qui est en fait l'équivalent du plan de diffraction. Rappelons en effet les relations fondamentales existant entre périodicité (d, exprimé en nm) dans le plan de l'échantillon, fréquence spatiale ($\nu=\frac{1}{d}$ exprimé en nm et angle de diffraction $2\theta=\frac{\lambda}{d}=\lambda\nu$, grandeur sans dimention exprimée en radian). Une théorie célèbre, dite théorie d'Abbe de la formation de l'image développée à la fin du siècle dernier pour interpréter les images du microscope photonique, décrit le processus de formation de l'image par une lentille objectif, tel qu'il est illustré dans la figure V.9, en trois étapes. Supposons que l'échantillon agisse sur l'onde plane incidente comme un modulateur complexe, modifiant localement la phase et son amplitude.

    (i) Dans une première étape, la lentille objectif analyse, en fonction des fréquences spatiales concernées, ces modifications de la fonction d'onde imposées par l'échantillon. On parle alors d'analyse (ou de transformation de Fourier) et le résultat s'inscrit dans le plan focal de la lentille. Mais soyons prudents : si on introduit un écran à ce niveau (ou éventuellement dans un plan équivalent sur l'écran d'observation du microscope), on n'enregistre que des intensités. C'est le diagramme de diffraction et on perd toute information sur la phase de l'onde issue de la face de sortie de l'échantillon.

    (ii) Dans le plan focal de l'objectif, les défauts inhérents à la lentille, représentés en termes de fonction de transfert, modulent la phase et l'amplitude de la transformée de Fourier de la fonction d'onde électronique. Or on a vu que ce transfert est loin d'être uniforme sur toute une bande de fréquences spatiales. Son premier effet est de limiter tout transfert d'information au-delà d'une fréquence limite, ou ce qui revient au même, en deça d'une distance caractéristique: c'est la limite de résolution de l'information, et il n'est pas possible de résoudre des images de structure atomique en deça de cette valeur (voir la figure III.10).

    Sur cette même figure présentant le comportement de la fonction de transfert du microscope, l'échelle des fréquences spatiales est aussi calibrée en distances dans l'espace réel, et pour fournir un ordre de grandeur les distances interréticulaires entre plans appartenant à certaines orientations privilégiées pour un cristal semiconducteur de InP sont aussi indiquées. 

    Ainsi il n'y a pas d'espoir de résoudre des plans distants de d3 = 0,17 nm avec ce microscope dont la limite de résolution de l'information est de 0.2 nm. Par contre, il est possible de visualiser les distances réticulaires d2 et d1, à 0.25 et 0.4 nm respectivement, avec un bon contraste. Mais la fonction de transfert, qui dépend de la défocalisation, peut moduler en positif ou en négatif ce contraste. Il en résulte que selon les distances considérées et les conditions d'utilisation du microscope, les images de colonnes atomiques peuvent apparaître en blanc ou en noir!! Et dans cette description simpliste, nous avons négligé les effets dynamiques complexes au niveau de l'interaction électron-spécimen qui font que le contraste dépend aussi de l'épaisseur locale et que cette théorie simplifiée ne s'applique que pour les échantillons très minces (en général d'épaisseur inférieure à 10 nm).

    (iii) La troisième et dernière étape est de reconstruire l'onde arrivant au niveau de l'image finale par une nouvelle transformation de Fourier (on revient dans l'espace des dimensions réelles d) de l'onde modulée par la fonction de transfert de l'objectif, en n'oubliant pas que le détecteur utilisé ne permet d'appréhender que les intensités. Cependant, en jouant habilement avec la défocalisation de l'objectif, il est possible, ainsi que nous l'avons montré, de visualiser des déphasages sur l'onde transmise.

    En résumé, il est important de retenir que les images haute résolution de structures atomiques représentent bien une certaine projection de ces structures. Mais pour une interprétation plus quantitative, il est nécessaire d'effectuer des simulations sur ordinateur tenant compte de tous les paramètres qui peuvent intervenir  (épaisseur, composition et orientation de l'échantillon d'une part, alignement, focalisation, aberrations de la lentille d'autre part) et de comparer ces micrographies calculées à celles enregistrées expérimentalement. Cette méthode a été largement exploitée ces dernières années pour visualiser la structure d'édifices localement parfaits (comme dans les nombreux composés supraconducteurs à haute température critique récemment synthétisés, voir la figure V.10) ou des structures complexes comme au voisinage d'interfaces entre cristaux ou dans des nanoparticules. Dans tous les cas, la maîtrise expérimentale du microscope à ses limites de performance, doit être associée à un effort important de modélisation numérique. Et cette tendance ne fera que se développer en passant du stade actuel semi-quantitatif d'inteprétation des images (analyse des fréquences et des positions noir-blanc des colonnes) au stade ultérieur réellement quantitatif où il s'agira de relier la valeur mesurée de l'intensité locale (sur toute une gamme de gris) à la composition chimique de la colonne visualisée.

    Figure  V.10 Micrographie à très haute résolution de la structure d'un composé au mercure 1223 supraconducteur à haute température(environ 120K). Comparaison avec l'image simulée numériquement à partir d'un modèle de structure cristalline (document M. Hervieu,Caen).

     

    V.4. L'origine du contraste dans les images de microscopie à balayage en réflexion.

    Lorsque le faisceau d'électrons primaires (d'énergie variable entre 1 et 30 keV) pénètre dans un échantillon massif, il subit une succession de chocs inélastiques et élastiques qui contribuent à son ralentissement. On montre que l'ensemble des trajectoires suivies par ces électrons s'inscrit dans une "poire" telle que représentée dans la figure V.11, dont la largeur et la profondeur dépendent de l'énergie des électrons primaires et du numéro atomique moyen des atomes constitutifs de la cible.  Le ralentissement s'accompagne de réémissions diverses à partir de la surface irradiée : en particulier on y distingue plusieurs types d'électrons selon leur énergie cinétique (voir figure V.12).

    Figure V.11 Pénétration d'un faisceau d'électrons de haute énergie dans une cible massive et définition des volumes de génération des différents types de signaux d'émission électronique.

    Certains ont une énergie proche de l'nergie des électrons primaires (E0): ce sont donc des électrons du faisceau incident qui ont subi des chocs avec déviation angulaire supérieure à ?/2 et qui ressortent de la surface en ayant subi au maximum quelques collisions inélastiques accompagnant ce choc élastique. On les appelle électrons rétrodiffusés (R). On comprend alors pourquoi un tel signal contient une information significative sur la composition du matériau dans la mesure où la probabilité d'observer de telles interactions croît considérablement avec le numéro atomique (Z) des élements rencontrés. De plus l'origine de ce signal recouvre assez bien le volume de pénétration des électrons primaires.

    Une autre famille d'électrons quittant la surface de l'échantillon possède une faible énergie cinétique de l'ordre de quelques eV à une centaine eV. Ce sont des électrons, appartenant essentiellement à la population d'électrons du solide, qui ont été mis en mouvement à la fin des différents processus en cascade impliqués dans le ralentissement du faisceau primaire : on les identifie sous le nom d'électrons secondaires (S). Comme leur énergie cinétique est faible, ils ne peuvent provenir que d'une couche de faible épaisseur sous la surface, sinon ils n'auraient guère l'énergie suffisante pour l'atteindre et en sortir. Par conséquent, l'information transportée par ces électrons est relativement limitée en termes de composition, mais reflète bien la topographie de surface, car leur taux de production dépend sensiblement de l'inclinaison de la face de sortie par rapport à la direction du faisceau primaire.

    Figure V.12 La distribution énergétique des électrons réémis par une cible massive sous l'impact d'électrons primaires de haute énergie.

    Comme déjà montré dans la figure III.15, la nature et la géométrie des détecteurs d'électrons implantés face au spécimen dans la chambre d'observation du microscope à balayage, ont été étudiées pour recueillir ces deux types de signaux et tirer partie de l'information spécifique à chacun. Les électrons rétrodiffusés sont mesurés par un détecteur semiconducteur annulaire situé sous la face inférieure de la pièce polaire de l'objectif. Dans les microscopes récents, ce détecteur est fendu en deux parties : quand on somme les différents signaux, on obtient l'image dite de composition. Au contraire quand on réalise, au moyen de l'électronique associée, des différences entre ces composantes, on a accès à une information topographique car la distribution spatiale des électrons rétrodiffusés dépend en fait légèrement de l'orientation de la surface de l'échantillon. Cet effet topographique est évidemment accru dans les images dites d'électrons secondaires réalisés avec le signal provenant en général d'un photomultiplicateur situé derrière une grille polarisée sous une faible tension positive afin d'attirer tous les électrons de faible énergie cinétique quittant la surface de l'échantillon. La figure V.13 présente un exemple de clichés de microscopie électronique à balayage utilisant ces deux types d'électrons.

    Figure V.13 - Les détecteurs pour électrons secondaires et rétrodiffusés émis à partir d'une cible massive et utilisés en microscopie électronique à balayage en réflexion.

    Etant donnée la complexité des processus mis en oeuvre, il est évident que l'interprétation quantitative de telles images est loin d'être équivalente à celle atteinte dans le domaine de la microscopie électronique en transmission à haute résolution. Dans certains cas, de géométrie et de composition simple, on peut cependant dépasser l'interprétation qualitative en comparant la distribution des intensités mesurées à des résultats de simulation dites de Monte-Carlo. On y reproduit les trajectoires réalisées par un grand nombre d'électrons primaires au moyen de lois de probabilité contrôlées par les ordres de grandeur et distribution des différents paramètres (sections efficaces différentielles en angle et en énergie, sections efficaces totales, libres parcours moyens) intervenant dans ces processus.

    Figure V.14 - Micrographies (MEB) obtenues en modes électrons rétrodiffusés et secondaires à partir d'un échantillon de pyrite d'un interbanc argileux du grès armoricain (clichés J. Estéoule et J. Le Lannic, Rennes)

    On peut aussi à travers ces calculs mieux appréhender la résolution spatiale accessible dans ces différents modes, celle-ci étant davantage contrôlée par la localisation des différents évènements élastiques ou inélastiques produits lors de l'interaction électron-matière, que par la qualité et la finesse de la sonde d'électrons primaires.

    Signalons enfin que d'autres paramètres peuvent modifier les contrastes observés (cristallinité, texture, champs électromagnétiques près de la surface) et fournir d'autres informations relatives à la structure cristalline, à la présence de domaines électriques ou magnétiques ou à l'existence de potentiels de surface, par exemple. Pour être complets, mentionnons enfin les modes plus spécialement impliqués dans l'observation des circuits intégrés semiconducteurs par la mesure des courants induits sous le faisceau.

    Chapitre VI : La Microscopie Electronique Analytique

    VI.1 Généralités

    Jusqu'à maintenant, nous n'avons guère considéré l'aspect analyse chimique qui peut être associé aux microscopes électroniques. Cependant, tout au long des chapitres précédents, nous avons introduit tous les éléments nécessaires pour comprendre dans quelle mesure la conception même des microscopes électroniques, dans le mode balayage en particulier, et la nature des interactions électrons-matière pouvaient fournir facilement cette information analytique. C'est ce que nous allons résumer dans ce premier paragraphe en illustrant notre propos de quelques brefs rappels historiques destinés à mieux faire comprendre l'évolution des idées, des méthodes et des techniques au cours des dernières cinquante années dans un domaine de l'instrumentation scientifique où la contribution des chercheurs français fut essentielle.

    La clé de l'analyse élémentaire sous faisceau d'électrons, réside dans le schéma simplifié des processus de diffusion inélastique présenté au chapitre précédent (fig. V.2). Les électrons incidents de haute énergie peuvent transférer une partie de leur énergie primaire en portant l'échantillon, et les atomes qui le constituent, dans un état excité, les possibilités offertes étant régies par la structure électronique de ces atomes. Ainsi, on sait que pour exciter les électrons de l'orbitale la plus proche du noyau (1s) vers le premier niveau d'énergie inoccupé qui leur soit accessible, il faut leur communiquer une énergie de l'ordre de 280 eV si c'est un atome de carbone, de 400 eV s'il s'agit d'un atome d'azote et de 530 eV pour un atome d'oxygène. On conçoit ainsi qu'en mesurant les pertes d'énergie subies par les électrons à la traversée de l'échantillon, on puisse discriminer aisément ceux qui ont interagi avec des éléments dont les numéros atomiques diffèrent d'une unité. C'est ce qui en fait une voie privilégiée pour l'analyse chimique, connue sous le nom de spectroscopie des pertes d'énergie (ou EELS, abréviation des termes anglais Electron Energy Loss Spectroscopy). Dès les années 1940-1945, cette voie pour réaliser une analyse élémentaire locale, était proposée aux USA par Hillier et Baker qui, les premiers, identifiaient dans des spectres de pertes d'énergie les raies caractéristiques des éléments légers. Mais il fallut attendre 25 ans environ pour que son intérêt dans le contexte d'un microscope électronique, soit définitivement reconnu. A l'origine de cette renaissance, on trouve les travaux de l'équipe de Castaing à Orsay dans le domaine du filtrage d'énergie qui en produisant des images sélectionnées avec des pertes d'énergie bien définies, introduisaient l'équivalent de la dimension couleur (ou spectrale) en microscopie électronique. En 1970, la démonstration était clairement effectuée, aussi bien à Orsay sur un microscope à transmission équipé d'un filtre de vitesses, qu'à Cambridge ou à Chicago, où des spectromètres magnétiques étaient introduits au bas de la colonne d'un microscope à transmission (conventionnel ou à balayage), que la spectroscopie des pertes d'énergie allait constituer une voie privilégiée dans le développement des techniques analytiques jusqu'à l'échelle nanométrique.
     
    Revenons une nouvelle fois au schéma des niveaux d'énergie électroniques dans un atome (fig. V.2). Une fois un trou créé par un électron primaire de forte énergie sur une orbitale électronique de coeur, son temps de vie est limité car l'atome n'aime pas rester dans cet état excité. Tout naturellement, il a tendance à revenir dans son état fondamental par transition d'un électron occupant initialement l'un des niveaux d'énergie supérieure vers l'état inoccupé d'énergie inférieure. Afin que le bilan énergétique global soit conservé, une autre particule (photon ou électron) est émise simultanément au processus de désexcitation, en emportant l'énergie gagnée au cours de la transition électronique. On parle alors d'émissions secondaires induites et elles sont de deux types:
     
                (i) photoniques dans le domaine X principalement pour les transitions qui nous concernent ici. Il s'agit alors du processus fondamental à l'origine de l'analyse par émission X secondaire (composante X sur la figure V.11);
     
                (ii) électroniques Auger, qui sont détectables sur le fond continu décroissant de la distribution d'électrons secondaires, avec une énergie caractéristique comprise entre quelques dizaines et quelques centaines d'eV. On parle alors d'analyse par émission électronique secondaire Auger (composante A sur la figure V.11 etvoir aussi la figure V.12).
     
    Les deux signaux correspondent à des différences d'énergie bien définies entre deux ou plusieurs niveaux électroniques sur un atome et contiennent par conséquent une signature atomique caractéristique.
     
    En fait c'est la spectroscopie d'émission X qui a très vite connu un vif succès à la suite des travaux de Castaing qui dans sa thèse de doctorat, présentée en 1951, mettait au point la première microsonde X. Dans cet instrument, il analysait avec un spectromètre à réseau, la longueur d'onde des photons X émis sous l'impact d'un faisceau d'électrons primaires. Rapidement il établissait les bases physiques permettant de réaliser des analyses quantitatives de la composition chimique locale. Sous l'impact d'une sonde primaire d'électrons de quelques dizaines de keV, les volumes d'interaction sont de l'ordre du micron (pour un échantillon massif) et par conséquent une dimension caractéristique du volume générateur des photons X recueillis et analysés est aussi de l'ordre du micron. Il est aussi assez semblable au volume concerné par la pénétration des électrons primaires illustré dans la figure V.11. Ces travaux ouvraient dans les années cinquante la voie à la microanalyse élémentaire, qui allait connaître de nombreux succès dans les domaines les plus divers, dépassant les champs plus traditionnels de la métallurgie, de la pétrographie ou de la médecine, pour traquer les indices les plus ténus dans une enquête policière ou aider à l'identification de l'origine d'oeuvres d'art.
     
    Pendant plus de vingt ans, les communautés scientifiques utilisant les microscopes électroniques d'une part, et celles qui partageaient leur savoir-faire sur microanalyseurs X d'autre part, se sont singulièrement ignorées. Si bien qu'il a fallu attendre le milieu des années 70 pour que le microscope électronique à transmission intègre pratiquement, dans sa conception même, les différentes composantes analytiques (spectroscopie d'émission X et spectroscopie des pertes d'énergie) pour devenir en l'espace de deux décennies le superbe outil d'analyse chimique à l'échelle nanométrique que nous maîtrisons aujourd'hui.
     
    Avant de clore cette brève introduction à la microscopie électronique analytique, quelques mots sont utiles pour replacer dans ce contexte la spectroscopie Auger dont les développements et les applications se sont déroulés dans un domaine assez différent, à savoir la physico-chimie des surfaces. En effet, le signal Auger, par sa nature même (il s'agit d'électrons secondaires d'énergie cinétique dans le domaine de la centaine d'eV), provient d'une épaisseur très faible (quelques couches atomiques au maximum) sous la surface de l'échantillon. Par conséquent cette information n'est réellement significative que si cette surface est propre et dépourvue de toute couche de contamination. Il en résulte que la spectroscopie Auger ne prend tout son intérêt que dans un environnement ultra-vide (quelques 10-14 de la pression atmosphérique) ce qui n'est que très exceptionnellement réalisé dans une colonne de microscope électronique.

    VI.2 Le microscope électronique analytique moderne: instrumentation et techniques

    La figure VI.1 présente les contraintes géométriques rencontrées lors de l'implantation des spectromètres nécessaires pour l'acquisition des signaux analytiques, à partir d'un échantillon préparé sous forme de lame mince. N'oublions pas que celui-ci doit être situé dans l'entrefer de la lentille objectif  afin de préserver les possibilités tout à fait indispensables d'imagerie haute résolution et de diffraction en aire sélectionnée ou sous faisceau convergent, qui font tout l'intérêt d'associer en un instrument unique les techniques de la microscopie telles qu'elles ont été décrites au travers des chapitres précédents et celles de l'analyse ponctuelle. 

    Figure VI.1 Implantation des détecteurs analytiques par rapport à l'échantillon préparé sous forme de lame mince et introduit dans l'entrefer de la lentille objectif
     
    A priori il n'existe pas de difficulté particulière pour l'implantation d'un spectromètre de pertes d'énergie. En effet celui-ci agit sur le faisceau d'électrons transmis à travers l'échantillon et intercepté angulairement par le diaphragme de contraste. Il peut donc être situé à plusieurs niveaux à l'aval de l'échantillon, dans la direction des électrons transmis. En général, la composante essentielle du spectromètre des pertes d'énergie est un secteur magnétique qui permet de différencier les électrons de vitesses différentes, sous l'action d'un champ magnétique perpendiculaire à leur trajectoire .
     
    A partir de cet élément de base, deux grandes familles de spectromètres de pertes d'énergie se sont peu à peu développées et imposées sur le marché de l'instrumentation. Nous pouvons ainsi distinguer:
     
                (i) les analyseurs (spectromètres magnétiques en général) qui à partir d'un point objet réalisent un spectre complet qui, dans les systèmes les plus récents, est recueilli simultanément sur un réseau de détecteurs semiconducteurs, d'où la terminologie PEELS (avec P pour détection Parallèle) qui est utilisée pour décrire les instruments les plus récents mis au point par la société américaine Gatan (fig. VI.2). Cette conception se révèle particulièrement efficace pour l'analyse ponctuelle car on peut enregistrer un spectre complet de pertes d'énergie recouvrant une vaste gamme, de quelques eV à milliers d'eV par exemple, en un temps de l'ordre de la seconde. Dans son mode de couplage le plus simple, le point objet du spectromètre coincide avec le point irradié par la sonde d'électrons primaires sur l'échantillon. C'est cette solution qui est utilisée sur le microscope de type STEM équipé d'une source à effet de champ, en fonctionnement au laboratoire de Physique des Solides à Orsay: on peut y enregistrer le spectre de pertes d'énergie provenant d'une zone de diamètre subnanométrique avec une résolution énergétique de l'ordre de 0.5 eV (ce qui correspond à 5 ppm par rapport à l'énergie initiale de 100 keV des électrons analysés).
     
                (ii) les filtres, qui en utilisant une optique électronique plus sophistiquée que le simple secteur magnétique, associent les deux fonctions "analyse" et "imagerie" pour réaliser des images correspondant à une fenêtre bien définie dans le spectre de pertes d'énergie, fenêtre sélectionnée par une fente située dans le plan de dispersion spectrale. L'ancêtre de cette technique est le filtre de Castaing et Henry, construit en 1963, qui est constitué d'un double secteur magnétique encadrant un miroir électrostatique. Les versions modernes dérivées de ce système sont aujourd'hui commercialisées par la société Zeiss qui propose un microscope à filtrage d'énergie où un tel filtre (en fait composé de quatre secteurs magnétiques pour le dernier modèle) est, par construction inséré dans la colonne du microscope entre les lentilles intermédiaires (voir la fig. VI.3).
     
    Figure VI.3 Schéma de principe de la colonne du STEM Vacuum Generators HB 5O1 équipé d'une source à effet de champ (taille de la sonde de l'ordre de 0,5 nm), d'un spectromètre PEELS et d'un détecteur de fond noir annulaire pour visualiser en parallèle la zone analysée.
     
    Schéma de principe d'un microscope à filtrage d'énergie (document Zeiss)
     
    C'est pourquoi une alternative est apparue récemment sur le marché, à savoir le Gatan Imaging Filter, qui offre la possibilité d'ajouter cette fonction sur tout microscope électronique à transmission de 100 kV à 1 MV, sous forme d'une optique relativement complexe constituée d'un secteur magnétique pour la spectrométrie et d'un ensemble de lentilles sextupolaires et octopolaires pour la fonction imagerie, à installer à l'extrémité du microscope à la place du détecteur.
     
    Revenons de façon plus formelle sur ces nouvelles dimensions analytiques offertes par les techniques spectoscopiques. Nous venons d'introduire deux types d'informations originales, à savoir le spectre constitué de 1024 canaux spectraux mais correspondant à 1 point d'analyse, et l'image filtrée constituée de NxN pixels (N pouvant être pratiquement égal à 256,  512 ou 1024) mais pour un seul canal spectral. Pour franchir un pas supplémentaire et avoir accès à une relation sans ambiguité entre l'information spectrale et la localisation de son origine sur l'échantillon, nous avons introduit voici quelques années le concept de spectre-image (voir fig. VI.4).
     
    Figure VI.4 Définition du spectre image et les deux approches possibles pour son enregistrement. L'axe des énergies est orthogonal aux axes des positions de la mesure spectrale sur l'échantillon. 
     
    Il associe en un volume tridimensionnel de données l'ensemble des informations spectrales (distribuées sur les n canaux spectraux) acquises sur un ensemble de NxN points images. Les échelles sur les axes sont différentes: dans deux directions, il s'agit de dimensions spatiales sur l'échantillon, dans la troisième d'une échelle énergétique. On conçoit aisément que si on est surtout intéressé par la qualité de l'information spectroscopique pour un nombre réduit de points images, la meilleure solution réside dans l'approche analyseur PEELS monté sur un microscope STEM auquel cas on empile côte à côte les spectres acquis au fur et à mesure que la sonde est déplacée par incréments calibrés sur la surface de l'échantillon. Au contraire, si la motivation de l'étude requiert un grand nombre de points images mais une information spectrale concentrée en quelques fenêtres seulement (le cas exemplaire étant l'acquisition d'images filtrées élastiques dans lesquelles on désire se débarrasser de toute contribution inélastique), la meilleure solution réside dans l'approche filtrage d'énergie en empilant l'une sur l'autre les diverses images filtrées enregistrées successivement en laissant passer à travers la fente de sélection les différentes composantes du spectre. Nous montrerons en fin de chapitre un exemple caractéristique réalisé avec chacune de ces deux options. Il est nécessaire de souligner à ce stade de notre présentation, que ces progrès les plus récents qui offrent des perspectives tout à fait fascinantes et qui modifient singulièrement le champ d'applications de la microscopie électronique, n'ont été possibles que grâce au développement spectaculaire des moyens informatiques, nécessaires pour l'acquisition, la gestion et le traitement quasiment en temps réel de quantités énormes de données, et tout celà à un prix en décroissance régulière vis à vis des performances accessibles.
     
    Considérons maintenant le cas de l'analyse par émission X secondaire. Il s'agit de mesurer la longueur d'onde des photons émis sous l'impact du faisceau d'électrons primaires. Deux solutions sont proposées à cette fin. La première dérive directement des travaux de Castaing dans les années 50, elle utilise la diffraction par différents types de cristaux courbes ou plans, on la désigne sous le nom de spectrométrie par dispersion de longueur d'onde (WDS pour Wavelength Dispersive Spectroscopy) (voir la figure VI.5). La seconde, introduite ver la fin des années 60 par Russ aux USA, utilise les mécanismes de transfert d'énergie du photon absorbé dans une diode semiconductrice en un certain nombre de paires électrons-trous dont on mesure le courant résultant. On la désigne sous le nom de spectrométrie par dispersion d'énergie (EDS pour Energy Dispersive Spectroscopy - voir aussi la figure VI.5). Les deux méthodes offrent une gamme d'avantages et d'inconvénients complémentaires, si bien que dans les microscopes à balayage du type MEB, destinés à travailler sur des échantillons massifs, il y a souvent intérêt à implanter les deux types de spectroscopies comme schématisé sur la figure VI.5. Les principaux avantages de la technique WDS sont sa résolution énergétique (de l'ordre de quelques eV) et sa sensibilité (de l'ordre de 50 à 100 ppm) attribuable à un fond continu quasiment inexistant entre les lignes caractéristiques. Au contraire la technique EDS s'impose pour son efficacité de détection en termes de nombre de photons X mesurés pour une dose donnée d'électrons incidents (c'est en fait une méthode de détection parallèle contrairement à la méthode WDS où il faut modifier l'inclinaison d'un cristal pour faire défiler toutes les longueurs d'onde du spectre analysé devant la fente d'entrée du détecteur)  et pour sa simplicité de fonctionnement en permettant une analyse semi-quantitative de la zone analysée en quelques secondes seulement.
     
    Figure VI.5 Schéma de principe des deux modes de détection (WDS et EDS) pour l'analyse des photons X réémis par l'échantillon sous l'impact d'une sonde d'électrons primaires
     
    Dans les microscopies analytiques concernant les échantillons minces observés en transmission, il est certain que le critère rendement de détection est prépondérant si bien que la seule solution pratiquement utilisée est la spectroscopie à dispersion d'énergie. Il s'agit alors de placer le détecteur semiconducteur, un cristal de silicium dopé au lithium en général, le plus près possible de l'échantillon à analyser. En se reportant à la figure VI.1, on conçoit aisément les contraintes imposées par le fait que la lame mince est située au coeur de l'entrefer de la lentille objectif avec un accès par conséquent limité pour le détecteur. Pour augmenter l'efficacité de ce dernier, le paramètre à augmenter est l'angle solide sous lequel il peut intercepter les photons X émis (a priori de façon isotrope à partir du point d'impact des électrons primaires). A ce jour les meilleures valeurs obtenues sont de l'ordre de 0.25 steradian à comparer aux 4? de la distribution angulaire des photons à analyser. Il s'agit d'une première difficulté instrumentale liée à l'analyse X. Une seconde provient du fait que non seulement les photons caractéristiques du volume élémentaire à analyser, mais aussi tous ceux émis ou réémis par fluorescence à partir de toutes les surfaces en regard du détecteur, peuvent y pénétrer et participer à la mesure contribuant ainsi à la génération de signaux artefactuels.
     
    Revenons enfin à la description d'une de ces diodes Si-Li utilisée pour la spectroscopie d'émission X, telle que présentée dans la figure VI.6.
     
    Figure VI.6
     
    La surface du détecteur, refroidi à l'azote liquide pour minimiser le bruit électronique, doit être protégée afin d'éviter toute condensation intempestive de gaz qui entraînerait une dégradation rapide de ses qualités. Par contre, afin de pouvoir étendre le domaine des rayonnements mesurables aux faibles énergies pour la détection des éléments légers (B et Be si possible), cette couche de protection doit être aussi mince que possible afin de réduire au maximum l'absorption de ces photons peu énergétiques. Il en a résulté la conception et mise en service de diodes dites "à fenêtre ultra-mince" qui permettent désormais la détection et la mesure de l'énergie des photons sur une gamme correspondant à tous les éléments de Z=5 (B) à Z=92 (U). 

    VI. 3 Les signaux analytiques: description, interprétation et mesure

    De la même façon que nous avons consacré un chapitre complet au thème "Comprendre les images", il serait nécessaire de proposer de façon équivalente un chapitre "Comprendre les spectres". Pour des raisons bien compréhensibles de place en arrivant près de la conclusion de ce volume, cette démarche ne peut que rester relativement superficielle, d'autant plus que les effets physiques dont il est nécessaire de maîtriser les interprétations physiques deviennent de plus en plus raffinés et subtils.

    Considérons d'abord le cas de la spectroscopie des pertes d'énergie. Un spectre typique est présenté sur la figure VI.7. Il couvre plusieurs ordres de grandeur en intensités entre le pic élastique et les structures visibles autour de 1000 eV. On y distingue plusieurs contributions en fonction du domaine énergétique concerné. Entre quelques eV et quelques dizaines d'eV, c'est le domaine des pertes dites "proches". Il est dominé par un pic intense et plus ou moins large selon le matériau concerné, correspondant à l'excitation collective de l'ensemble des électrons de valence du matériau: on parle de pic de plasmon. Sa position en énergie dépend de la densité moyenne de ce gaz d'électrons, exprimée en nombre d'électrons par unité de volume et peut varier entre 3 ou 4 eV pour les métaux alcalins peu denses (Rb ou Cs) à une trentaine d'eV pour les matériaux tétravalents très compacts comme le carbone diamant. Le prototype du plasmon métallique s'interprétant correctement dans le cadre d'une description en termes de gaz d'électrons libres, est celui observé pour l'aluminium à 15 eV et est très étroit (largeur du pic inférieure à 1 eV). Dans le cadre des solides plus complexes, dans les isolants en particulier, le plasmon n'est plus aussi bien marqué, il est masqué en partie par une distribution de transitions interbandes entre niveaux électroniques occupés de la bande de valence et niveaux inoccupés de la bande de conduction. Bien qu'ils constituent par leur intensité le signal dominant dans un spectre de pertes d'énergie, le plasmon et autres structures fines observés dans cette partie basse énergie, ne sont pas les plus exploités dans la mesure où leur interprétation n'est pas immédiate et où ils ne peuvent correspondre de façon simple à une composition chimique déterminée. 
     
    Figure VI.7 Un spectre EELS enregistré à partir d'une lame mince de composition nominale LaBaCo2O5+?. Le spectre complet de 0 à 1000 eV couvre 4 ordres de grandeur en intensité. Il est donc nécessaire de regarder en détail séparément les composantes de basse perte d'énergie, entre 5 et 60 eV, et les composantes de haute perte d'énergie, respectivement le seuil K de l'oxygène à 530 eV et les lignes caractéristiques des éléments métalliques entre 750 et 850 eV (document C. Colliex et F. Studer, Orsay et Caen).
     
    C'est pourquoi au cours des vingt dernières années, la partie "haute énergie" du spectre a été beaucoup plus exploitée. On y observe, superposée à un fond continu décroissant de façon régulière, une succession de discontinuités se présentant sous forme de sauts d'intensité nets et situés à des énergies caractéristiques, comme déjà mentionné dans le cas de l'excitation des électrons 1s des atomes légers (285 eV pour C, 400 eV pour N, 530 eV pour O). Il s'agit bien de seuils car ils correspondent à la possibilité au-delà d'une énergie critique, d'exciter les électrons d'un niveau de coeur atomique vers tous les états vacants qui lui sont offerts au-dessus du niveau de Fermi. L'apparition de ces seuils dans un spectre de pertes d'énergie est donc la signature manifeste de la présence des atomes correspondants dans le volume de matériau irradié par la sonde d'électrons primaires. La liste de tous les seuils existant entre 50 et 2000 eV, avec leur position et leur forme dans le cas de l'élément simple ou des composés les plus courants, a été compilée et est maintenant bien connue. Il est ainsi possible d'identifier quasiment tous les éléments depuis le lithium avec son seuil K (notation spectroscopique habituelle pour désigner l'excitation des électrons 1s) à 55 eV jusqu'à l'uranium par l'intermédiaire de son seuil O45 (excitation des électrons 5d) à 105 eV!! Dans l'exemple de la fig. VI.7, les seuils ainsi visibles sont les seuils K de l'oxygène à 530 eV et une superposition de seuils L23 (électrons 2p) du cobalt, M45 (électrons 3d) du baryum et du lanthane, tous situés entre 750 et 850 eV.
     
    A partir du poids des seuils identifiables dans un spectre, il est possible de remonter à la détermination de la concentration relative des différents éléments concernés. Ce processus requiert deux étapes. La première est de distinguer la contribution du seuil caractéristique (Si) par rapport au fond continu non caractéristique. Traditionnellement cette opération s'effectue par extrapolation d'un fond continu, modélisé à partir de son comportement aux énergies inférieures au seuil, vers les plus fortes énergies en dessous du signal et soustraction de ce fond du spectre brut. La seconde étape consiste à pondérer l'intensité de ce signal caractéristique par une section efficace (si) relative à son excitation. En termes simplifiés, une section efficace est reliée à la probabilité de créer un événement bien déterminé sous l'impact d'un électron primaire dans les conditions expérimentales de la mesure. Finalement la concentration Ci de l'élément i par rapport à l'ensemble des éléments j pour lesquels on a identifié un seuil, s'écrit:
    $$C=\frac{I_i/\sigma_i}{\sum_j I_j/\sigma_j}$$ (VI.1)
    Mais au-delà de son intérêt comme outil d'analyse élémentaire, la spectroscopie des pertes d'énergie sur les seuils profonds est une source très riche d'information sur la distribution des états électroniques accessibles. Ceux-ci dépendent très sensiblement d'un ensemble de paramètres locaux (charge présente sur l'ion excité, état de valence, symétrie du site cristallin, distance des couches de plus proches voisins), qui se manifestent à travers des modifications des structures fines observables sur les différents seuils enregistrés. Ces effets sont intrinséquement similaires à ceux présents sur les seuils d'absorption X enregistrés avec les sources de rayonnement synchrotron et qui sont désormais bien connus sous le nom de structures XANES (X-ray Absorption Near Edge Structures) ou EXAFS (Extended X-ray Absorption Fine Structures). Ils utilisent les mêmes outils théoriques développés en physique atomique, moléculaire et de la matière condensée pour leur interprétation mais ils présentent le grand avantage de pouvoir être enregistrés à partir de zones nanométriques de l'échantillon, que l'on peut viualiser simultanément. C'est ce qui en fait la richesse potentielle extrême que semblent montrer les premières études de structures fines résolues spatialement sur des interfaces ou des nanostructures publiées au cours des derniers mois.
     
    En regard de cette diversité d'informations sous-jacentes aux différents domaines spectraux couverts par un spectre de pertes d'énergie, les spectres d'émission X peuvent paraître bien ternes. Ainsi que le montre l'exemple présenté dans la figure VI.8, un tel spectre est constitué d'une famille de lignes fines superposées à un fond continu de relativement faible intensité. Les raies proviennent de l'émission des photons X caractéristiques accompagnant des transitions électroniques entre deux orbitales de coeur atomique. Le fond est dû au rayonnement de lumière accompagnant tout ralentissement d'une charge électrique dans un champ coulombien. Si l'émission des premières peut être considérée comme isotrope, celle du fond (appelé aussi rayonnement de bremstrahlung) est plutôt dirigée vers l'avant par rapport à la trajectoire des électrons de haute énergie qui le génèrent. De telle sorte qu'en plaçant le détecteur X vis à vis de la surface arrière de la lame mince analysée on améliore sensiblement le rapport entre l'information utile pour l'analyse élémentaire et le fond continu non caractéristique.
    Figure VI.8 Spectre EDX enregistré à partir d'un échantillon d'olivine de San Carlos présentant les lignes caractéristiques des éléments Mg, Si, O et Fe (contenus dans l'échantillon. La raie Cu est une raie parasite due à la grille de cuivre très proche qui soutient les micrograins de minéral analysés. Par contre les raies de faible intensité (Ni, Mn et Ca) doivent être associées à des éléments en concentrations mineures dans le minéral (document D. Bouchet et J. Ingrin, Orsay)
     
    Cette simplicité du spectre X en fait aussi l'atout principal. En effet, la forme quasi universelle des lignes observées est le résultat d'une résolution énergétique insuffisante (de l'ordre de 130 eV pour une raie à 10 keV, et 90 eV pour une raie à 500 eV) imposée par l'électronique d'amplification et de discrimination des pulses électriques générés par l'arrivée des photons dans le détecteur Si-Li. Il en résulte que les démarches requises pour transformer la détection de pics caractéristiques dans le spectre X à l'analyse quantitative élémentaire sont relativement simples par rapport à celles mises en oeuvre en spectroscopie EELS. La discrimination du signal par rapport au fond est aisée et le passage à la détermination des concentrations relatives utilise une formule assez semblable à la précédente:
    $$ C_A/C_B=S_A/S_B \times k_{AB}$$ (VI.2)
    Le rapport des signaux est modulé par un coefficient dit k-facteur, dont le rôle est de tenir compte de tous les facteurs qui peuvent gouverner la probabilité de mesurer un photon A en provenance d'un atome A et un photon B en provenance d'un atome B pour un électron incident, dans les conditions de fonctionnement du microscope et du détecteur. Ce coefficient de pondération peut être calculé à partir de notre connaissance des différents effets physiques mis en jeu au cours de la chaîne complexe de processus qui, partant de l'ionisation d'une orbitale de coeur, conduit à la détection du photon X dans le détecteur, en passant par le rendement de fluorescence, le poids des raies, l'absorption dans les différentes zones du détecteur et de son écran protecteur ultra-mince. L'autre solution est de mesurer expérimentalement ce facteur k à partir d'échantillons témoins de composition connue.
     
    En conclusion, on peut retenir que l'analyse par spectroscopie X sur lame mince dans le cadre d'un microscope électronique à transmission, constitue une voie efficace et simple pour une analyse élémentaire, avec des concentrations détectables de l'ordre de quelques 10-4 à 10-3, et une résolution spatiale de l'ordre de quelques nm. Elle n'est pas cependant dénuée d'artefacts, liés principalement au fait que les photons qui pénètrent et sont mesurés par le détecteur, ne proviennent pas tous de la zone irradiée par le faisceau primaire. 

    VI. 4 De la cartographie élémentaire à une spectroscopie électronique résolue spatialement

    A plusieurs reprises dans ce chapitre, nous avons déjà eu l'occasion de souligner que cette composante analytique ajoutait une nouvelle dimension à l'imagerie du monde nanométrique. Le nombre d'images qu'il est ainsi possible d'enregistrer croît au rythme des fenêtres spectrales utilisées. L'aspect "images en couleur" a déjà été évoqué non sans raison. Mais le saut accompli ne peut réellement être mesuré qu'au terme d'une nouvelle réflexion sur la signification des images.

    Dans une première étape, l'information nouvelle réside dans la détermination de la composition chimique point par point de l'échantillon. Elle peut être obtenue soit par analyse de l'émission X aussi bien pour les échantillons massifs dans la configuration MEB que pour les lames minces dans la configuration MET, soit par spectroscopie des pertes d'énergie pour les lames minces. Dans ce cas on réalise des mesures quantitatives de concentrations élémentaires, qu'il s'agit de présenter sous forme d'images lorsque l'échantillon est exploré point par point. C'est ce que je désignerai sous l'appellation "cartographie chimique". Elle permet d'appréhender d'un seul coup d'oeil la distribution d'un élément donné ou les corrélations entre plusieurs éléments.
     
    Considérons d'abord le cas d'une cartographie X. La sonde séjourne en chaque point de l'échantillon, un certain temps, de une à plusieurs secondes,  au cours duquel tout le spectre X est accumulé. Un certain nombre de fenêtres sont définies par logiciel, correspondant à la position des lignes d'émission des éléments à mesurer. Les signaux reçus sont ensuite classés de façon à réaliser des cartes de distribution du nombre de coups pour chacun d'eux. Pour présenter les résultats on attribue en général une couleur différente à chaque élément. L'intensité de l'éclairement dans chacune de ces couleurs donne une idée approximative de la valeur absolue du signal mesuré. A ce stade de la présentation, l'information ne peut qu'être semi-quantitative; on peut améliorer la qualité de la mesure si on se satisfait d'un profil entre deux points de l'échantillon, auquel cas il est possible de superposer les comportements des concentrations entre les différents éléments. Ces aspects sont illustrés sur la figure VI.9 relative à l'analyse d'un minéral en microscopie à balayage équipée d'un détecteur EDX. 
     
    Figure VI.9 Cartographie X élémentaire à partir d'un échantillon de minerai de Cuivre et de Cobalt du gisement de Chabba en Afrique. On peut y comparer les répartitions respectives des éléments Co, Cu et S par rapport à une image de topographie obtenue par électrons secondaires. En outre les corrélations entre les divers éléments permettent de franchir une étape supplémentaire et d'avoir accès à la distribution des composés (document P. Tremblay, Orsay)
     
    Dans une étape plus élaborée on peut aussi effectuer une analyse statistique multivariée en associant l'information relative aux différents éléments, par exemple en visualisant seulement les zones de l'échantillon où une certaine combinaison de concentrations élémentaires correspondant à une formule chimique est présente. On imagine aisément les fortes potentialités d'une telle technique. Il faut cependant en dessiner quelques limites importantes, responsables du retard souvent rencontré entre l'idée simple au départ et son utilisation pratique. L'émission X est une technique au rendement très faible en termes de photons mesurés par électron incident, comme souligné précédemment, à cause de la valeur réduite des sections efficaces d'ionisation et des rendements de fluorescence d'une part, à cause de la mauvaise efficacité de détection des détecteurs d'autre part. Le temps d'acquisition d'une carte requiert donc des temps de comptage très longs pour un niveau satisfaisant du rapport signal sur bruit. Des protocoles de comptage automatique sur de longues périodes (la nuit par exemple) ont été mis au point, accompagnés du recalage de la position de l'échantillon à intervalles réguliers. Dans de telles conditions on se contente plutôt d'une résolution micrométrique pour des analyses d'échantillons massifs, et de quelques dizaines de nanomètres pour les meilleures analyses de films minces.
     
    Des résultats plus spectaculaires en termes de résolution ultime dans la voie de l'exploration du monde à l'échelle nanométrique sont accessibles à partir des techniques d'imagerie spectrale en spectroscopie des pertes d'énergie. Par comparaison avec la spectroscopie EDX, la spectroscopie EELS est plus efficace pour délivrer des signaux caractéristiques; pour un même courant incident, l'acquisition d'un spectre EELS est beaucoup plus rapide, de l'ordre de 1 s pour obtenir un signal sur bruit satisfaisant sur la gamme 0-1000 eV. Par contre elle souffre d'une limite, à savoir son fond continu intense entre les seuils caractéristiques, qui limite la visibilité des seuils de faible intensité. La sensibilité de détection d'un élément donné dans une matrice donnée dépend d'un grand nombre de facteurs et en particulier de la forme et de la position des seuils de l'impureté et de la matrice dans laquelle on cherche à l'identifier et à le mesurer. Avec les nouvelles techniques de traitement du signal en mode différence, on a pu montrer que les concentrations atomiques détectables varient de quelques 10-5 à quelques 10-2 at%. En associant ces performances à la très grande localisation du signal mesuré sous l'impact d'une sonde primaire subnanométrique, il a été montré récemment qu'on pouvait identifier un nombre d'atomes proche de l'unité lorsque ceux-ci sont distribués de façon aléatoire sur la surface d'un support très mince de carbone amorphe. Pour illustrer les possibilités actuelles de l'imagerie spectrale EELS, deux exemples issus de la science des matériaux sont présentés dans les figures VI.10 et VI.11.
     
    Dans le premier cas (offert par la physique des matériaux semiconducteurs), la technique utilisée est l'imagerie filtrée. Plusieurs images ont été enregistrées pour des pertes d'énergie situées de part et d'autre des principaux seuils concernés. Après traitement digital de la séquence d'images, on a pu mesurer pour chaque point de l'image l'intensité du signal pour chacun de ces éléments. Leur distribution est alors montrée avec le support d'une technique multicolore semblable à celle utilisée pour la cartographie X. La principale différence réside dans les échelles spatiales.
     
    Figure VI.10 Cartographie par images filtrées EELS de la distribution du titane (rouge), de l'azote (vert) et de l'oxygène (bleu) sur un transistor MOSFET intégré dans un microprocesseur RISC. Les différentes images filtrées entre 350 et 500 eV nécessaires pour extraire ces trois cartes de distributions élémentaires ont été réalisées avec un filtre GIF Gatan installé sur un microscope Philips TEM 200 (cliché O. Krivanek, Gatan USA)
     
    Le second et dernier exemple utilise la technique du spectre image dans le mode STEM. Pour chaque position d'une sonde ponctuelle, un spectre complet est acquis. Le déplacement pas à pas de la sonde à travers l'objet à étudier permet d'acquérir une séquence de spectres. Après traitement numérique, on peut établir un profil de concentration entre les points de départ et d'arrivée de l'analyse. L'exemple présenté concerne un des nouveaux matériaux très étudiés à ce jour, à savoir un nanotube de carbone de quelques nanomètres de diamètre, recouvert d'un film quasi monomoléculaire d'oxyde de vanadium. La microscopie électronique analytique constitue actuellement la seule technique pour voir, mesurer et analyser la structure et la composition d'une telle nanostructure avec la résolution requise, inférieure au nanomètre.  
     
    Figure VI.11 Spectre-ligne EELS à travers un nanotube de carbone recouvert d'un film d'oxyde de vanadium. Un spectre est acquis tous les 0.5 nm alors que la sonde se déplace à travers un de ces nanotubes. En analysant a posteriori l'évolution des signaux respectifs du carbone et du vanadium, on démontre que ce dernier est présent sous forme d'un film nanométrique recouvrant la surface extérieure du nanotube (cliché O. Stephan, Orsay)

    Chapitre VII : Conclusions et perspectives

    Dans le langage technocratique d'aujourd'hui, le microscope électronique est considéré comme un "équipement mi-lourd". Bien entendu ce n'est pas son poids qui est en cause bien qu'il tourne autour de quelques tonnes en général. Non, sous cette désignation, c'est son coût qui est concerné. L'acquisition et l'installation d'un microscope électronique requièrent un budget pouvant varier entre 500 kF et 5 à 10 MF. Les prix les plus bas permettent l'achat d'un microscope à balayage dans sa version de base alors que la limite supérieure correspond à un microscope à transmission avec tous les développements et accessoires récents pour l'analyse, la digitalisation et le traitement des données, un canon à effet de champ et quelques porte-objets spéciaux pour effectuer in-situ sur l'échantillon des traitements thermiques, des déformations au cours de l'observation... 

    A ce niveau, on comprend aisément pourquoi le parc actuel de microscopes en activité est de quelques dizaines de milliers pour le premier type et de quelques milliers pour les seconds, les modèles de haut de gamme ne représentant que quelques centaines à travers le monde. Et pourtant autour de cet instrument, il s'est constitué une communauté de chercheurs provenant de domaines très divers, c'est ce qui en fait son caractère si unique, et suffisamment soudée pour se réunir très régulièrement à travers des congrès mondiaux tous les quatre ans, régionaux (au niveau européen) tous les deux ans, nationaux tous les ans, et ceci depuis près de cinquante années. Pour ne prendre qu'un exemple, la dernière rencontre de la Fédération Internationale des Sociétés de Microscopie Electronique s'est déroulée à Paris en 1994. Elle a réuni pendant une semaine complète au Palais des Congrès plus de 3000 participants. Tous rassemblés pour présenter et apprendre les derniers progrès de la technique ainsi que les résultats les plus spectaculaires acquis avec ces appareils dans les domaines les plus variés. Je pense que bien peu de lecteurs ont eu le courage de lire les 5000 pages de résumés de comunications qui ont été rassemblés et publiés à l'occasion. Mais tourner les pages de ces ouvrages abondamment illustrés de micrographies souvent spectaculaires, est riche d'informations.
     
    En conclusion à ce présent ouvrage, je me suis donc livré à ce petit jeu, avec deux idées a priori: évaluer le champ actuel d'utilisation de la microscopie électronique et identifier quelques tendances futures, dont une éventuelle réédition de ce volume, dans dix ou vingt ans, permettrait de juger le destin.
     
    Près de cent ans après la découverte de l'électron par J.J. Thomson en 1897, il faut bien reconnaître que, domestiquée dans l'enceinte du microscope électronique, cette particule a contribué au progrès de nos connaissances dans presque tous les secteurs de l'activité humaine. Il serait facile de constituer un catalogue à la Prévert en faisant la liste de tous les types d'échantillons soumis à l'observation en microscopie électronique. Au hasard je repère les nouveaux diamants synthétiques, un alliage magnétique de composition Sm 11,6 Co 58,6 Fe 23 Cu 4,6 Zr 2,1 , les sacs à ordures biodégradables, la localisation de la nicotine dans les feuilles de tabac ou l'étude du parasite de la malaria dans les glandes salivaires du moustique.
     
    Au-delà de l'anecdote, il faut surtout retenir comment le microscope électronique est devenu au cours des dernières années l'outil incontournable pour comprendre la structure et la chimie des matériaux à l'échelle ultime, élément indispensable à notre compréhension des divers comportements de la matière. Parmi les domaines privilégiés, l'industrie des semiconducteurs et des systèmes de stockage de l'information où la course à la réduction des échelles requiert les outils adaptés à leur caractérisation. En métallurgie, ce sont les propriétés plastiques et mécaniques qui constituent le coeur des observations. Les dislocations dans les métaux et alliages ont été d'abord vues en microscopie électronique et on connaît leur rôle déterminant dans l'origine des défaillances mécaniques. Dans toutes les industries à composantes technologiques de pointe le microscope électronique s'est implanté sous toutes ses formes. Le microscope à balayage est maintenant introduit dans les chaînes de production des composants semiconducteurs.
     
    Dans le domaine des sciences de la vie, on trouve le microscope électronique à l'origine de l'identification du virus HIV du sida, ainsi que des proteines du prion dont l'actualité nous a appris l'importance dans la maladie de la vache folle. En routine le microscope électronique est utilisé dans les laboratoires d'analyses pathologiques pour l'identification des cellules tumorales. Mais il s'est aussi imposé dans de nombreuses activités périphériques comme l'étude des interactions entre produits dermatologiques et le derme ou dans l'observation des interfaces entre implants inorganiques et matrices organiques.
     
    Si le champ d'applications du microscope électronique ne saurait que s'élargir étant donnés les progrès réalisés aussi bien en ce qui concerne les performances ultimes de l'instrumentation que l'introduction des techniques de préparation d'échantillons adaptées à l'observation dans des conditions variées, que peut-on attendre du microscope de demain? D'autant plus que la concurrence des microscopies de proximité utilisant des pointes ne va faire que s'accroître.
     
    Dans ce jeu des pronostics, voici donc en désordre mes propres réflexions pour clore cet ouvrage. L'avenir est-il aux très grands et très coûteux ou aux très petits qui peuvent bénéficier de tous les développements récents de la microfabrication? Je parierai davantage pour la deuxième voie dans un contexte de restrictions budgétaires assez général à travers le monde de la recherche. Il n'est pas exclu en effet de voir apparaître sur le marché de l'instrumentation des microscopes dont la dimension totale sera de l'ordre de un à deux décimètres. La source d'électrons sera une nanopointe qui émettra des flux d'électrons très brillants sous une tension de quelques dizaines ou centaines de volts. On sait déjà que ce type de source fonctionne et on a réalisé très récemment des images, par projection, de filaments très minces de carbone, avec une résolution subnanométrique. A quand la reconstruction de filaments isolés d'ADN en utilisant des techniques holographiques et un faisceau d'électrons de l'ordre de quelques dizaines d'eV, suffisamment peu énergétiques pour ne pas détruire l'échantillon par transfert d'énergie? Dans le même domaine, la fabrication de microlentilles est tout à fait réalisable, que ce soit des lentilles magnétiques utilisant des aimants permanents à fort champ (1 tesla) ou des lentilles électrostatiques. Ainsi pour des électrons primaires d'énergie inférieure à 1 keV, on a construit des lentilles électrostatiques avec des électrodes percées de trous de 100 microns séparées par des distances aussi de l'ordre de 100 microns. Très récemment une colonne de 2,5 mm de long a ainsi été testée et a démontré une résolution meilleure que 40 nm sous 1 kV. Ces progrès permettent donc d'entrevoir le microscope à balayage de bureau plus compact que le microscope photonique avec une résolution vingt ou trente fois supérieure et un coût réduit car les microtechnologies seront très bientôt plus économiques que les techniques traditionnelles de façonnage de lentilles de verre.
     
    Après avoir laissé errer l'imagination dans ces voies encore très originales, que peut-on dire de l'évolution logiquement prévisible du microscope à transmission haut de gamme d'aujourd'hui? Dans le domaine de la résolution spatiale accessible, le progrès ne peut que passer par la solution au problème de la réduction de l'aberration sphérique des lentilles objectifs. La solution la plus prometteuse est l'introduction de systèmes à symétrie non de révolution, tels des doublets de sextupoles, qui est très ardemment étudiée actuellement par plusieurs équipes.
     
    De nombreuses voies originales d'utilisation de faisceaux d'électrons de haute et moyenne énergie sont arrivées récemment à maturité. Elles ont été peu ou abondamment évoquées dans les chapitres précédents. Elles constituent à mon avis les voies les plus riches pour les années à venir. Ce sont la cristallographie électronique sur réseaux de molécules biologiques à très basse température, qui permettra la reconstruction 3D de macromolécules avec une précision qu'on croyait réservée jusqu'à présent aux techniques de cristallographie X,   la spectroscopie électronique à très haute résolution spatiale et énergétique pour l'étude des liaisons et propriétés électroniques en relation avec la structure et la chimie locales, l'holographie électronique qui doit étendre la microscopie en y ajoutant ses possibilités de visualisation de champs électriques et magnétiques. Quel beau succès que la mise en évidence directe des lignes de vortex réussie voici deux ans par une équipe japonaise!
     
    Un dernier mot pour dire que la microscopie électronique ne se réduira plus seulement à son rôle d'observation, tel que l'origine éthymologique de son nom l'indique.  Ce sera davantage un environnement de travail, de mesure, d'analyse dans lequel on pourra exercer sur l'échantillon des contraintes et sollicitations diverses. En fait le microscope deviendra un micro (si ce n'est un nano) laboratoire. Et ceci est une autre histoire dont il faudra bien reparler très rapidement dans un contexte où l'utilisation des pointes constitue une alternative en rapide expansion.   

    Appendice

    Cet ouvrage a été complétement récrit en 1996 pour se substituer à une première version du même titre sous la plume de Pierre Selme de 1963. C'était à l'époque un ouvrage de référence et je me souviens que ce fut ma première lecture sur la microscopie électronique au moment d'intégrer le groupe de recherches du Professeur Castaing à l'Université d'Orsay en 1965 pour y commencer mon travail de thèse. mais en trente années bien des choses ont changé et à part quelques lignes et une ou deux figures sur la conception des lentilles magnétiques pour l'optique électronique, il ne subsiste rien de commun entre le présent texte et la première version. il est même dommage que ce titre ne soit plus guère disponible au catalogue, car la comparaison est particulièrement édifiante. Que de progrès réalisés depuis cette époque!

    Pour la présente version j'ai été particulièrement aidé par mon collègue Paul Ballongue du Laboratoire de Physique des Solides qui a réalisé l'ensemble des figures originales. Qu'il en soit chaleureusement remercié. Je dois aussi remercier tous les collègues qui m'ont communiqué les documents (micrographies, clichés de diffraction, spectres) illustrant cet ouvrage et lui conférant ainsi un caractère visuel très attractif. Les firmes d'instrumentation scientifique fabriquant ou participant au développement de microscopes électroniques publient également des documentations scientifiques fort bien réalisées et illustrées sur leurs produits. Ces sources d'information m'ont aussi été très précieuses.

    Aux lecteurs qui désireraient consulter, à la fin ce cette lecture, des ouvrages plus complets, je recommanderai les titres suivants:

    i) le bouquin du CNRS récent publié par P. Hawkes

    ii) Transmission Electron Microscopy et Scanning Electron Microscopy par L. Reimer, Vol. 36 et 45 de Springer Series in Optical Sciences

    iii) Handbook of Microscopy, edité par S. Amelinckx et coll., sous presse chez VCH (Allemagne)