L’image comme élément de preuve en astrophysique

Catherine Allamel-Raffin

IRIST, Université de Strasbourg

https://doi.org/10.25965/as.2769

Index

Articles du même auteur parus dans les Actes Sémiotiques

Mots-clés : démonstration, image scientifique, preuve

Auteurs cités : Roland Barthes, Anne BEYAERT-GESLIN, Tadeusz Kotarbinski, Bruno LATOUR, Ludwig WITTGENSTEIN

Plan

Texte intégral

Ma réflexion partira d’un étonnement signalé naguère à notre attention par Bruno Latour : celui qu’éprouvent les ufologues lorsque leurs détracteurs ne prennent pas au sérieux la photographie de soucoupe volante qu’ils leur présentent. Pourtant, s’indignent-ils, les revues scientifiques à comité de lecture regorgent d’images. Comme le souligne Bruno Latour :

Note de bas de page 1 :

 B. Latour, « Le travail de l’image ou l’intelligence savante redistribuée », La clef de Berlin, La Découverte, 1993, p. 164.

« Pour imiter leur autorité, les parascientifiques prennent les savants au pied de la lettre et produisent à leur tour une image de soucoupe, unPolaroid de Sainte Vierge, un enregistrement d’esprit frappeur. Or, curieusement, les scientifiques n’ajoutent pas foi à ces témoignages isolés. Indignation des parascientifiques qui tapent du poing sur leurs preuves et accusent les autres d’obscurantisme officiel ! »1

Note de bas de page 2 :

 Un article symétrique a été rédigé sur le même thème en prenant pour base la physique des matériaux : C. Allamel-Raffin, « Les places respectives du texte et de l’image dans la constitution de la preuve en physique des matériaux », Revue d’Anthropologie des Connaissances, v°4, n°3, 2010, pp. 476-504.

Je partirai donc de cette question qui constitue un point de malentendu avec les exclus de la science : « Une image peut-elle constituer une preuve ? » et j’essaierai d’y répondre dans la suite de mon propos, qui est composé de trois parties. La première partie vise à fournir une réponse à la question : qu’appelle-t-on une « preuve » ?2 C’est là un travail de définition initial sur lequel je m’appuierai pour déterminer dans un deuxième temps, quel est le statut probatoire des images réalisées en astrophysique. Pour ce faire, je prendrai pour base empirique de mon analyse un article publié par trois astrophysiciens en 2001. Dans un troisième temps, enfin, je tirerai quelques conclusions de mon analyse de cet article quant à la valeur probatoire que l’on peut conférer à l’image.

I. Une définition du mot « preuve »

Nous sommes régulièrement confrontés à l’exigence de fournir des preuves dans des domaines très variés de l’expérience humaine : vie quotidienne, métaphysique, justice, sciences. Quel concept de preuve peut-on dégager de l’ensemble des usages du terme que nous pouvons repérer ? Les traits communs à tous les types de preuves concevables me paraissent être les suivants :

Note de bas de page 3 :

 T. Kotarbinski, The Scientific Approach to the Theory of Knowledge, Pergamon Press, 1966.

Note de bas de page 4 :

3 Voir par exemple dans De la certitude (Gallimard, 2006) § 148 : « Pourquoi est-ce que je ne m’assure pas que j’ai deux pieds quand je veux me lever de ma chaise ? Il n’y a pas de pourquoi. Je ne le fais pas, c’est tout. C’est ainsi que j’agis. »

Note de bas de page 5 :

 De la certitude § 209 : « Que la Terre existe, cela fait plutôt partie de l’image totale qui forme le point de départ de mes croyances. » § 210 : « Ma conversation téléphonique avec New York renforce-t-elle ma conviction que la Terre existe ? Beaucoup de choses nous paraissent solidement fixées et retirées de la circulation. Elles sont, pour ainsi dire, poussées sur une voie de garage. » § 211 : « Mais ce sont elles qui donnent à notre manière de voir et à nos recherches leur forme. Il se peut qu’elles fussent un jour contestées. Mais il se peut aussi que depuis des temps immémoriaux, elles font partie de l’échafaudage de nos pensées. (Tout être humain a des parents.) »

  • Premièrement, il s’agit d’établir une mise en relation entre ce qui prouve et ce qui est à prouver, c’est-à-dire entre une raison et une conséquence pour emprunter la terminologie de Tadeusz Kotarbinski3. Cette mise en relation suppose à un moment ou à un autre le recours aux ressources du langage articulé : il s’agit alors de formuler une ou plusieurs propositions langagières. La conséquence se présente souvent d’emblée sous la forme de propositions langagières. La raison, quant à elle, peut prendre primitivement la forme d’objets matériels, d’images, etc., et est traduisible simultanément ou dans un second temps sous une forme propositionnelle.

  • Deuxièmement, pour que l’on puisse parler de preuve, la relation entre ce qui prouve et ce qui doit être prouvé ne doit pas apparaître comme arbitraire. Autrement dit, la relation entre la raison et la conséquence doit être perçue comme motivée. La mise en relation doit donc être sous-tendue par une exigence de rationalité. Celle-ci se traduit en particulier par le respect de règles logiques dont la validité « est placée au-dessus de la discussion », jusqu’à nouvel ordre, et prend notamment la forme de modes de raisonnement qui varient selon les domaines : la déduction, l’induction,  l’abduction…

  • Troisièmement, pour réaliser la mise en relation entre raison et conséquence, il faut encore disposer d’un cadre de croyances fondamentales préalable. Celles-ci peuvent rester la plupart du temps implicites, mais elles sont indispensables pour que la preuve puisse être acceptée à l’échelle de l’individu aussi bien qu’à celle de la collectivité. En guise d’exemple de telles croyances, citons seulement « la régularité des phénomènes »,  « l’univers écrit en langage mathématique », « le caractère condamnable de la vengeance privée ». A un niveau plus fondamental encore, ce cadre comporte les propositions-charnières sur lesquelles Ludwig Wittgenstein a concentré son attention dans le dernier texte qu’il a rédigé, De la certitude – à savoir les croyances qui ne sauraient être soumises à l’épreuve du doute, par exemple les propositions telles que : « J’ai deux pieds »4 ; « La Terre existait il y a cent ans. »5

  • Quatrièmement, un dispositif opératoire constitué selon les cas, d’éléments axiomatiques, matériels, techniques, rhétoriques, etc. Dans les sciences de la nature, c’est-à-dire essentiellement en physique, en chimie et en biologie, le dispositif opératoire est constitué par les théories, les modèles, les instruments, les pratiques expérimentales, les êtres humains dotés de savoir-faire, parfois tacites, etc.

  • Cinquièmement, le processus probatoire suppose l’existence de critères de délimitation. Ce qui est recevable comme preuve suppose que l’on se soit préalablement accordé sur la ou les propositions qu’il s’agit de prouver ; sur la pertinence de la raison par rapport à la conséquence ; sur la pertinence et la fiabilité du dispositif opératoire. L’exigence de délimitation permet notamment de ne pas se retrouver pris dans une régression à l’infini. Après avoir prouvé que X, il faudrait encore prouver la preuve de X, puis la preuve de la preuve, etc. Il faut donc accepter de s’en tenir à une raison, et renoncer à vouloir en remonter toute la chaîne.

  • Sixièmement, le processus de mise en relation entre raison et conséquence n’a de sens qu’à l’intérieur d’une communauté humaine. Ceux qui ont pour charge de prouver visent l’assentiment d’un ou de plusieurs interlocuteurs. Ce qui est visé, c’est l’établissement d’un accord ou d’un consensus. Ceux qui établissent l’accord ou le consensus, ce sont par exemple les membres du jury et le juge dans le cas d’un procès d’assises. Dans le cas d’un article scientifique, ce sont non seulement les auteurs, mais également les relecteurs de la revue à comité de lecture.

  • Septièmement, le processus probatoire a pour fonction d’établir qu’une ou plusieurs propositions sont vraies. Quelle que soit la définition qu’on en donne, la vérité constitue une condition qui doit nécessairement être satisfaite pour que l’on puisse parler de preuve. Lorsqu’elle ne l’est pas, il faut chercher les dysfonctionnements du côté des six autres traits.

Les sept traits doivent être simultanément présents pour que l’on puisse parler de preuve. Il est intéressant de constater que l’on peut rendre compte des débats entre historiens, philosophes et sociologues depuis quelques décennies, en observant comment ceux-ci ont choisi de placer certains de ces sept traits au milieu de la scène, en rejetant du même coup d’autres traits dans l’ombre. Il est ainsi possible d’établir un spectre des positions épistémologiques des chercheurs à partir de leurs conceptions de la preuve.

Note de bas de page 6 :

 Mathématiques et logique constituent dans ce cas un modèle insurpassable de science. La validité et la légitimité de toute entreprise scientifique sont mesurées à l’aune de ce que les démarches probatoires des mathématiciens et des logiciens autorisent quant à elles à affirmer en matière de résultats.

Pour en donner une rapide idée, je vais présenter deux positions situées aux extrêmes du spectre en grossissant le trait. Ainsi, le philosophe rationaliste absolutiste pur et dur placera sur le devant de la scène l’exigence de rationalité (évidemment !) et les procédures de formalisation permettant de garantir que la relation entre la raison et la conséquence est fondée et que la conséquence est vraie. Une certaine emphase sera probablement mise sur les critères de délimitation : par exemple, on s’interrogera sur le point de savoir s’il est légitime d’accorder sa pleine confiance aux résultats d’une expérimentation. Le dispositif opératoire (savoir-faire des êtres humains, instruments, matériaux et démarches expérimentales, etc.) ne constitue pas un réel problème et se voit rejeté à l’arrière-plan, ainsi que la communauté humaine et le cadre de croyances fondamentales. La conception de la preuve qui est celle du rationaliste absolutiste pur et dur est très exigeante. Elle conduit à négliger la complexité humaine inhérente à l’élaboration de la preuve et à sélectionner de manière probablement trop réductrice ce qui peut valoir comme preuve. A la limite, tout ce qui se situe hors du champ des sciences formelles6 doit être banni, car entaché de l’incertitude propre au domaine de l’expérience.

Pour le relativiste, qui adopte une position opposée à celle du rationaliste absolutiste, la scénographie est comme inversée : sous la lumière crue des projecteurs, au premier plan, on trouve les conditions d’adhésion de la communauté humaine à la preuve et les dimensions humaine et instrumentale du dispositif opératoire. Les critères de délimitation sont rapportés aux intérêts humains en jeu. Pas très loin se trouve le cadre de croyances fondamentales. L’exigence de rationalité et la vérité sont rejetées quant à elles dans l’ombre. La prétention à la vérité, notamment, étant vaine pour le relativiste en raison du poids décisif des facteurs humains, c’est l’entreprise visant à constituer une preuve authentique qui se révèle vaine du même coup.

Bien d’autres positions peuvent être adoptées, et en particulier celle dont je me sens la plus proche, celle correspondant à un faillibilisme, prêt à reconnaître l’importance des facteurs humains, tout en considérant que les résultats obtenus par les chercheurs dans les sciences expérimentales sont néanmoins plausibles, au-delà de tout doute raisonnable et constituent des vérités au moins provisoires.

II. Le statut probatoire des images réalisées en astrophysique

Sur la base de la définition que je viens de proposer, les images produites et diffusées en astrophysique peuvent-elles constituer des preuves ? Retrouve-t-on, dans les utilisations qui y sont faites des images, les sept traits de la preuve que je viens d’évoquer ?

Quelques remarques préliminaires :

Dans la suite de mon propos, « image » sera entendu au sens de « représentation visuelle bidimensionnelle réalisée sur un support matériel (écran ou papier) ». Est donc assimilable à une « image » tout ce qui n’est pas strictement textuel. L’ensemble pertinent ainsi constitué inclut donc graphes et courbes.

Les fonctions du texte dans ce type d’article sont, quant à elles, au nombre de trois : une fonction d’ancrage au sens de R. Barthes : le texte contient la description très précise de ce qu’il convient de voir sur une image donnée ; une fonction de relais : le texte va apporter des précisions (notamment quantitatives) qui sont inaccessibles à la seule vue de l’image, même par des spécialistes du domaine de recherche concerné ; une fonction de mise en perspective : le sens d’une image donnée va être complété par les résultats obtenus dans la même publication ou dans d’autres publications.

Note de bas de page 7 :

 Pour mener à bien mon analyse, j’ai adopté une démarche d’anthropologue de laboratoire. J’ai en particulier effectué plusieurs séjours dans le laboratoire de radioastronomie du Centre d’astrophysique de Harvard (CfA), à l’occasion desquels, j’ai pu réaliser un entretien semi-directif avec l’auteur principal de l’article étudié.

L’article que je vais analyser7 en détail dans les pages qui suivent est intitulé « The Milky way in molecular clouds: a new complete CO survey » (T. M. Dame, D. Hartmann, P. Thaddeus) et a paru dans The Astrophysical Journal (547: 792-813, 2001). Il est l’un des plus cités depuis sa parution en 2001.

L’article comporte deux cartes indiquant les zones de la Voie Lactée dans lesquelles on peut détecter la présence de monoxyde de carbone. Quel est l’intérêt pour les astrophysiciens de disposer de telles cartes ? Le monoxyde de carbone est très présent dans les nuages moléculaires qui revêtent eux-mêmes la forme de nuages de poussière. Or ces derniers constituent un sujet d’étude très prisé par les astrophysiciens : ils sont le lieu de naissance des étoiles et de surcroît, ils permettent d’étudier très finement la structure des bras des galaxies spirales telles que la Voie Lactée. L’enjeu de cette publication est donc double, au-delà de la présentation des deux cartes. Il s’agit de montrer que l’étude qui a permis d’aboutir aux deux cartes : 1) n’a pris en compte que des effets réels (et a permis en revanche d’éliminer bruit et artefacts) ; 2) a donné lieu à l’enregistrement de l’intégralité des données pertinentes, sans en omettre.

Conformément aux exigences du format IMRAD, la publication s’ouvre par une partie introductive qui met en relief l’intérêt de se livrer à une détection systématique du monoxyde de carbone dans la Voie Lactée. Dans de telles galaxies spirales, l’hydrogène moléculaire (H2) se révèle extrêmement abondant dans les nuages moléculaires. H2 se caractérise en particulier par les difficultés que l’on rencontre lorsqu’on souhaite le détecter et par sa contribution importante à des phénomènes physiques tels que la formation des étoiles. Dans les nuages moléculaires, on note également la présence de monoxyde de carbone (CO) qui est, quant à lui, plus facilement détectable, au moyen des radiotélescopes. Les études relatives à CO – parce qu’elles permettent par une voie indirecte de repérer les concentrations de H2 – revêtent donc une importance considérable pour les astrophysiciens qui cherchent à comprendre le processus de formation des étoiles et à dégager la structure de notre galaxie.

L’introduction de l’article se poursuit par une partie très narrative qui retrace à grands traits les premières étapes de cette étude qui s’est déroulée sur une période de vingt ans. Les premières campagnes d’observations (entre 1979 et 1986) ont permis aux scientifiques de comprendre que les nuages moléculaires de la Voie Lactée étaient très vastes et qu’il faudrait beaucoup de temps pour couvrir l’ensemble de la galaxie. C’est pourquoi ils ont volontairement sacrifié la qualité des données au profit de la quantité. Cela leur a permis de publier une première carte en 1987. Après cette première phase d’investigation, les chercheurs ont amélioré la résolution de leurs observations. L’étude présentée résulte donc de la combinaison de ces deux campagnes d’observation avec des observations nouvelles.

Au final, la partie introductive de l’article, assez longue, ne comporte pas d’images. Elle est suivie comme il se doit, dans le format de rédaction IMRAD, par une partie consacrée aux observations et à l’analyse des données. Cette partie débute par une description des caractéristiques des deux télescopes utilisés pour l’étude. Etant donné que cette dernière s’est étalée sur une vingtaine d’années, des modifications matérielles ont été apportées durant ce laps de temps aux deux télescopes, qui sont rapportées dans cette partie de la publication. La qualité de leurs données constituant en l’occurrence une question cruciale, les scientifiques détaillent leur mode de calibration. Afin de s’assurer une bonne calibration, ils ont retenu deux modes opératoires différents. Ces choix dans la phase de calibration ont été établis en se référant à d’autres études antérieures menées en radioastronomie. La section de l’article se poursuit par la présentation des différents détecteurs utilisés et leurs caractéristiques, puis par la description des filtres utilisés. Vient ensuite la description précise de la prise de données en fonction de la localisation céleste. Les scientifiques détaillent les opérations qu’ils ont effectuées. La partie de la publication s’achève avec la présentation de la Figure 1. Celle-ci résulte de l’intégration sur une même image des zones d’études correspondant aux 37 études nécessaires pour réaliser l’étude complète de la présence du monoxyde de carbone de la galaxie. Le texte joue ici une fonction de relais puisqu’il apporte un certain nombre d’informations supplémentaires relatives à la Fig.1, dont la fonction est essentiellement informative (Il contient le détail, par exemple, de la procédure suivie pour traiter de manière uniforme le bruit produit à l’occasion de la phase d’observation).

Fig. 1 La localisation géographique des 37 études menées afin de confectionner  la carte complète du monoxyde de carbone dans notre galaxie

Fig. 1 La localisation géographique des 37 études menées afin de confectionner  la carte complète du monoxyde de carbone dans notre galaxie

Chaque zone numérotée de la carte ci-dessus correspond en fait à une campagne d’observations.

Note de bas de page 8 :

 Les données pour ce type d’étude se présentent sous forme de fichier informatique et ne comprennent que des chiffres.

Note de bas de page 9 :

 La technique du lissage en astrophysique consiste  à utiliser un traitement d’image utilisant la loi statistique de Gauss. Pour un pixel donné, l’ordinateur applique une loi normale de Gauss en prenant en compte les pixels adjacents. Les scientifiques obtiennent une image qui prend en compte de manière statistique les évènements enregistrés sur l’image. Cette technique permet de mettre en valeur les détails des objets célestes étudiés, notamment  les détails des sources célestes étendues et peu lumineuses.

La partie relative aux observations se poursuit par une section consacrée à la synthèse des données. La principale difficulté rencontrée par les scientifiques est liée à la différence de qualité des différentes études. Normalement, quand les scientifiques rassemblent des données issues d’observations différentes, ils sont obligés de prendre pour sensibilité de base la sensibilité la plus mauvaise figurant dans l’une des études qu’il s’agit de rassembler. Or, dans le cas de cette publication, cela aurait été très dommageable, car certaines données relatives à des objets émettant très faiblement auraient été noyées dans le bruit. Les astrophysiciens ont donc opté pour la solution qui consiste à traiter séparément toutes les études. Ils ont retenu trois méthodes en vue de réduire le bruit au minimum et notamment une méthode peu courante en radioastronomie appelée « moment analysis ». Celle-ci consiste  à prendre le cube de données8 et à lisser9 ces dernières assez fortement. Ce qui est ainsi obtenu, c’est une dégradation de la résolution des observations. Mais une telle démarche permet d’obtenir plus de sensibilité pour les objets très étendus émettant faiblement. A partir de ce cube de données très lissé, les chercheurs repèrent les zones célestes dans lesquelles il n’y a pas du tout de rayonnement et reprennent leur cube de données originel en indiquant dans ce cube que pour cette zone, il n’y a aucune émission. Ils utilisent donc le cube de données lissé pour repérer où sont situées les zones dans lesquelles il pourrait y avoir émission de rayonnements. Ce qu’ils obtiennent au final, c’est un « moment  cube » qui a conservé la résolution de départ, mais dans lequel le bruit a été supprimé.

Le traitement du bruit et la discrimination d’un effet réel se détachant du bruit ont constitué une vraie difficulté dans l’entreprise menée par les chercheurs. Voici ce qu’en dit l’un d’entre eux :

« Le fait d’avoir différentes sensibilités a été un problème pour nous. Normalement, dans ce type de carte, on rassemble plusieurs campagnes d’observations. Votre limite est constituée par la sensibilité de la moins bonne des études considérées, c’est-à-dire que vous êtes contraint de vous aligner sur la résolution de la plus mauvaise. Et je ne voulais pas procéder ainsi. C’était un énorme travail. Je voulais montrer tous les éléments dont je pensais qu’ils correspondent à un rayonnement réel. Donc j’ai supprimé le bruit en essayant de conserver tous les éléments réels. Je pense que certaines de ces campagnes d’observation ont produit certaines données pas tout à fait fiables, mais cette carte ne donne à voir vraiment que des éléments réels. La technique que j’ai utilisée est appelée ‘ moment analysis’. »

Le résultat obtenu consiste en deux cartes, qui en raison de leur taille importante, sont pliées à l’intérieur de la publication : les figures 2 et 3.

Fig. 2 et 3

Fig. 2 et 3

Il est précisé dans la légende, qui a ici une fonction de relais, que contrairement aux cartes réalisées ordinairement en radioastronomie, la sensibilité n’est pas uniforme afin de conserver une bonne qualité d’information. Les scientifiques précisent que beaucoup des éléments qui paraissent émettre faiblement sur ces cartes ont été vérifiés en examinant soigneusement leurs spectres.

Dans l’économie argumentative de l’article, ces cartes constituent le résultat de l’étude. Leur statut est donc distinct de celui des autres figures. La visée de la suite de l’article va consister pour l’essentiel àjustifier la qualité de ces cartes. Toutes les images que l’on trouve dans les pages qui suivent correspondent en définitive à un unique objectif : prouver la fiabilité et l’exhaustivité des données contenues dans les deux cartes. Nous nous retrouvons là face à une « inter-imaginéité » : les autres images vont s’articuler les unes aux autres et se compléter. Elles vont entrer dans un phénomène de résonance, afin d’accroître la crédibilité des données contenues dans les deux grandes cartes.

Pourquoi, après avoir détaillé de manière précise, l’instrumentation, les modes de calibration et de traitement des données (et notamment la manière de réduire le bruit), les astrophysiciens ne s’arrêtent-ils pas là ? N’ont-ils pas apporté la preuve de la qualité de leur travail ? Pourquoi cela ne suffirait-il pas à convaincre leurs pairs ? Si nous reprenons notre définition de la preuve, nous avons ici une mise en relation entre une raison (ce qui prouve) – à savoir, sous une forme langagière et plus ou moins formalisée, le détail du protocole des études et des traitements des données, et une conséquence (ce qui est à prouver) – dans notre cas, l’affirmation de la fiabilité des cartes- résultats.

Les astrophysiciens ayant mené l’étude connaissent très bien le fonctionnement de leur propre communauté en matière de preuve. Par conséquent, ils savent que leurs pairs, et au premier chef les relecteurs de leur article, pourraient estimer que cela est insuffisant pour prouver la qualité de leurs cartes : le dispositif opératoire pose problème. Le temps nécessaire pour l’étude (une vingtaine d’années) et la manière très particulière dont le bruit a été traité risquent d’avoir introduit des biais, à quoi il faut ajouter encore le fait que plusieurs individus distincts qui ont conduit les campagnes d’observation. Il y a bien trop d’éléments dans ce dispositif opératoire qui sont susceptibles d’entraîner des biais liés à la subjectivité des chercheurs.

Note de bas de page 10 :

 FCRAO signifie Five College Radio Astronomy Observatory.  

La troisième partie de l’article est consacrée à l’étude de certaines régions particulièrement intéressantes de ces cartes. Il s’agit à chaque fois d’une description de la région retenue. Le texte joue alors une fonction de relais par rapport à la carte en apportant des précisions qui ne sont pas forcément directement accessibles en observant simplement celle-ci. Les scientifiques prennent également soin de renvoyer le lecteur aux études effectuées par d’autres scientifiques sur les mêmes zones. Je ne passerai pas en revue l’ensemble de ces zones par souci de concision. La première zone étudiée est la « Taurus Dark Clouds », la seconde zone étudiée est le second quadrant de la carte générale. Il se trouve que cette zone a également donné lieu à une étude systématique effectuée par d’autres scientifiques en utilisant le télescope du FCRAO10. La Figure 4 (a) présente donc la carte de la présence de monoxyde de carbone réalisée grâce à ce dernier. La Fig. 4 (b) représente la même zone céleste mais cette fois-ci extraite de la grande carte [Fig. 2] par un processus de focalisation. La focalisation consiste à diriger progressivement le regard du lecteur vers l’objet : le lecteur est invité à visualiser une zone large d’un objet pour progressivement concentrer son attention sur une partie plus limitée de celui-ci.

Etant donné que la carte réalisée avec le FCRAO offre une meilleure résolution, les scientifiques, ont grâce à des traitements informatiques, fait en sorte que les deux cartes, celle du FCRAO et la leur, aient la même résolution afin d’être en mesure de les comparer. C’est la Fig. 4 (c).

Voici ce que déclare un des auteurs de l’article à propos de cette figure 4 :

« Nous avons réalisé cette figure 4 afin de persuader nos collègues. Cela a constitué ma toute première question : avions-nous analysé correctement les données ? La figure 4 est une comparaison. C’est juste une partie de la grande carte, nous avons zoomé. La fig 4(a) a été réalisée au moyen d’un télescope bien meilleur que le nôtre. Il a une résolution dix fois meilleure. C’est le télescope du FCRAO. Les collègues avaient mené une étude sur cette zone. Vous pouvez voir à quel point surprenant ces deux cartes sont similaires – même en ce qui concerne certains éléments très petits – c’est extraordinaire. Le résultat a été bien meilleur que je ne le pensais !  Quand vous voyez la carte, vous y croyez !»

Note de bas de page 11 :

 Edward R. Tufte, 2007, The Visual Displays of Quantitative Information, Cheshire, Connecticut, Graphic Press ; 1997, Visual Explanations. Images and Quantities, Evidence and Narrative, Cheshire, Connecticut, Graphic Press ; 1990, Envisionning Information, Cheshire, Connecticut, Graphic Press.

La Fig. 4 permet une comparaison entre des images non semblables (a) et (b) et des images semblables (b) et (c). Ce qui est essentiel ici, c’est le recours simultané aux trois images : elles sont juxtaposées afin d’être vues ensemble. Edward Tufte, dans ses ouvrages11 a bien montré que pour établir des similarités et des différences, les scientifiques recouraient souvent à une analyse comparative et que les représentations visuelles constituaient un instrument puissant en vue d’une telle fin. Dans notre cas, ce qui est recherché, c’est que le lecteur soit convaincu du fait que l’image (b) est grandement similaire à l’image (c). Recourir aux images pour établir cette comparaison permet de :

  • fournir une représentation visuelle d’un nombre très élevé de données. Ce mode de présentation des données est dès lors indispensable car elles seraient trop nombreuses pour pouvoir être comparées une à une ;

  • faire ressortir efficacement les similarités et les différences.

La comparaison entre la carte (b) produite par le CfA et la carte (c) produite par le FCRAO est très parlante et autorise à affirmer que la ressemblance est grande, même en ce qui concerne les éléments les plus ténus des deux cartes. On a ici affaire à une vérification de la qualité des deux études menées grâce à deux télescopes différents.

Fig. 4 Images en ondes radio.

Fig. 4 Images en ondes radio.

4 (a) correspond à l’image réalisée avec le télescope du FCRAO ; 4 (b) correspond à la même zone céleste, l’image ayant été réalisée par les chercheurs de la publication analysée ; 4(c) correspond à l’image du haut, modifiée afin d’obtenir la même résolution que celle du milieu, en vue d’une comparaison entre 4 (b) et 4 (c).

Peut-on parler de preuve à propos de la figure 4 ou à propos d’une des images contenue dans cette figure ? L’ensemble de la figure 4 ne peut être considérée comme une preuve. Pourquoi ? La figure présente pourtant une grande similarité entre deux images représentant une même zone céleste et produites avec deux radiotélescope différents, et donc par deux équipes de chercheurs différentes. Sur la base de la définition de la preuve formulée plus haut, on peut constater qu’on a bien ici une mise en relation entre une raison (ce qui prouve) – ici la similarité entre deux images produites par deux télescopes différents, et une conséquence (ce qui est à prouver) – dans le cas présent, la fiabilité des cartes-résultats. La raison ici est constituée par la Figure 4 et le contenu propositionnel qu’on lui associe, à savoir qu’il existe une grande similarité des données recueillies par deux télescopes différents concernant une même zone céleste.

Puisqu’on dispose d’une relation entre raison et conséquence obtenue à l’aide d’un raisonnement rigoureux avec un arrière-plan théorique qui entre en cohérence avec les résultats obtenus, pourquoi ne pas parler de preuve dans le cas de la Figure 4 ?

Parce que des problèmes se posent à nouveau du côté du dispositif opératoire :

  1. Le problème posé par la flexibilité interprétative des images (une image peut donner lieu à différentes interprétations), flexibilité elle-même liée aux multiples effets indésirables susceptibles d’advenir lors de l’observation et du traitement des images. Les choix subjectifs entrant en ligne de compte lors des opérations de traitement  peuvent aboutir à la production de résultats significativement différents De ce fait, d’autres interprétations des images sont toujours virtuellement possibles et donc le contenu propositionnel pourrait être différent.

  2. La zone étudiée ne constitue qu’une infime partie de la Voie lactée et le fait d’obtenir pour cette zone des données similaires avec deux télescopes différents ne garantit en rien que cela pourrait valoir pour l’intégralité de la Voie lactée. La conscience de cette absence de garantie est rendue plus aiguë chez les astrophysiciens, par la reconnaissance de ce que les cartes-résultats n’ont pas, comme je l’ai énoncé plus haut, une résolution uniforme, contrairement à la pratique qui prévaut couramment en astrophysique. Donc la communauté des pairs (et en particulier les relecteurs qui ont à évaluer l’article pour Astrophysical Journal) peut reprocher aux images de la Figure 4 de ne pas être assez représentatives du phénomène étudié. Ainsi, les critères de délimitation qui ont cours en astrophysique font que l’on peut parler ici d’un élément de preuve, mais certainement pas d’une preuve.

Les chercheurs poursuivent donc leur étude en essayant de prouver que leurs cartes de la présence de monoxyde de carbone (rappelons qu’on trouve le monoxyde de carbone dans les nuages moléculaires) sont en accord avec les données optiques relatives à la présence de tels nuages dans la Voie Lactée. En effet, ces nuages de poussière ne laissent pas passer la lumière visible. Ils sont par conséquent repérables sous la forme d’une zone sombre sur une image réalisée avec un télescope optique. La Fig. 5 propose une image optique de notre galaxie : c’est la Fig. 5 (a). La Fig. 5 (b) est quant à elle un morceau de la Fig. 2 représenté au moyen d’une gamme de nuances de gris, c’est-à-dire une partie de la carte radio de la présence de monoxyde de carbone dans la Voie Lactée. L’image optique résulte de la mise en commun de seize images, comme il est précisé dans la légende ayant une fonction de relais. Là encore, les scientifiques ont dû réfléchir à la manière la plus efficace de mettre en évidence les similarités, et ils ont rencontré de ce fait quelques problèmes. Leurs choix se sont portés sur la mise en image étant donné que le nombre de données à représenter est très important. Edward Tufte, encore, a bien montré que les choix effectués pour représenter des données sont souvent cruciaux dans les conclusions des publications scientifiques. Ici, après bien des essais non concluants, et pour bien mettre en évidence les similarités entre les deux cartes, l’équipe a décidé de :

  • représenter la carte radio dans des gammes de nuances de gris (bien qu’il s’agisse de fausses couleurs, habituellement les gammes de couleurs utilisées en radioastronomie correspondent aux couleurs de l’arc-en-ciel) afin de rendre encore plus convaincantes les similarités entre les deux cartes (les données optiques étant habituellement représentées en gris) ;

  • se servir d’une grille et non pas de contours selon l’usage habituel en astrophysique (grâce au recours à des contours, on peut en effet superposer les données produites dans deux champs du domaine électromagnétique différents : rayons X et optique, rayons X et radio, etc.).

Fig. 5

Fig. 5

Pourquoi l’ensemble de la Figure 5 ne peut-il, à son tour, être considéré comme une preuve ? Nous avons bien ici une mise en relation entre une raison (ce qui prouve) – ici, la similarité entre deux images produites par deux télescopes différents et une conséquence (ce qui est à prouver) – dans ce cas précis, le fait que les cartes de départ sont fiables. Ici encore, les problèmes apparaissent du côté du dispositif opératoire : il existe des incertitudes quant à l’enregistrement des données et quant à leurs traitements. Des choix subjectifs sont effectués à tous les niveaux de l’enquête. En aucun cas, nous n’avons affaire à une preuve, et il convient encore une fois de parler plutôt d’un élément de preuve en ce qui concerne la figure 5. Les scientifiques considèrent néanmoins qu’en ce qui concerne la question de la fiabilité des données, ils ont avancé suffisamment d’éléments de preuve dans le cadre de la publication pour ne pas avoir à en fournir davantage : leurs données comparées à celles d’autres études produites avec d’autres télescopes et par d’autres équipes semblent suffisamment fiables. La convergence des résultats tend à accréditer que leur traitement des données n’a pas introduit de distorsion de l’information.

Note de bas de page 12 :

 IRAS signifie Infrared Astronomical Satellite. Ce satellite a fonctionné pendant dix mois en 1983, sa mission ayant pour objectif de réaliser une cartographie complète du ciel dans les bandes infrarouges à 12, 25, 60 et 100 µm.

Note de bas de page 13 :

 L’amélioration consiste par exemple, à rajouter des couleurs pour rendre plus parlantes les images.

Reste un point crucial non élucidé à ce point de l’article : les cartes-résultats comportent-elles l’intégralité des données essentielles potentielles? De quelle utilité serait une carte non complète ? La quatrième partie de la publication est consacrée à ce point : les scientifiques ont pour ambition de n’ignorer qu’une infime partie du monoxyde de carbone de notre galaxie. Pour ce faire, ils souhaitent une corroboration qui soit obtenue indépendamment de leurs propres observations. Ils ont donc recours à une autre étude complète de la Voie Lactée, effectuée à l’aide du télescope infrarouge IRAS12 par une autre équipe de recherche. Le télescope en question a permis de détecter la présence de gaz atomique H1 [Fig. 6 (a)] et la présence des nuages de poussière [Fig. 6 (b)]. Les nuages de poussière sont constitués de gaz atomiques et de gaz moléculaires. En soustrayant les données de la première carte (correspondant au gaz atomique, [Fig. 6 (a)] à celles de la deuxième carte (correspondant à la poussière, [Fig. 6 (b)]), les scientifiques estiment qu’ils vont produire une troisième carte qui constituera une carte prédictive de la présence des gaz moléculaires [Fig. 6 (c)]. Or le monoxyde de carbone est le gaz moléculaire le plus représenté dans notre galaxie. Par conséquent, la carte ainsi obtenue doit constituer une carte prédictive de cette présence de monoxyde de carbone. Les chercheurs appuient leur raisonnement sur des publications rédigées par d’autres équipes de scientifiques. Pour bien mettre en valeur la forme des nuages de monoxyde de carbone, ils les ont représentés en blanc selon un procédé d’amélioration13. Même si de manière superficielle, on peut voir que l’image 6(c) est de forme identique à leurs cartes résultats, ils vont souligner ce fait dans le figure 7.

Le texte et la légende de la Fig. 6 ont une fonction d’ancrage – en explicitant ce que représente la Fig. 6 – et de relais  –  en apportant les informations supplémentaires nécessaires pour comprendre comment ces images ont été réalisées.

Fig. 6 Images réalisées avec un télescope en infrarouge

Fig. 6 Images réalisées avec un télescope en infrarouge

Fig. 6 (a) Carte de  la présence de gaz atomique dans notre galaxie
Fig. 6(b) Carte de la présence des nuages de poussière dans notre galaxie
Fig. 6(c) Carte prédictive de la présence de monoxyde de carbone [obtenue par soustraction de 6(b) par 6(a)]

Pour bien souligner à nouveau la grande similarité des données, les astrophysiciens poursuivent leur entreprise dans la figure 7, qui consiste en la comparaison des données observées à celles de la carte prédictive 6(c). La Fig. 7 (a) correspond aux données observationnelles (similaire à la carte-résultat Fig. 2), mais mise à la même résolution que la carte prédictive que l’on peut voir à la Fig. 7 (b) et sous une autre forme à la Fig. 6(c).

La Fig. 7 (c) est tirée des deux cartes précédentes, 7(a) et 7(b), et représente des profils selon la longitude des rayonnements émis par le monoxyde de carbone. Elle permet de comparer beaucoup plus finement l’adéquation des données observationnelles aux données prédites. La légende de ces images et le texte précisent que les images comprennent quelques imperfections : le cercle en pointillé dans le Fig.7 (b) correspond à une zone de la carte où les données sont de moindre qualité. Ceci est dû à la mauvaise qualité des données produites par l’étude en infrarouge qui a permis de produire cette carte. Dans la Fig. 7 (c), le pic nommé « LMC » correspond à une zone qui est en fait non représentée dans la Fig. 7 (b). Cela aurait gâché la qualité de cette dernière. Texte et légende jouent là encore une double fonction d’ancrage et de relais par rapport aux images.

Fig. 7 Comparaison entre les prédictions et les données observationnelles relatives au monoxyde de carbone.

Fig. 7 Comparaison entre les prédictions et les données observationnelles relatives au monoxyde de carbone.

Fig. 7 (a) Carte de la présence du monoxyde de carbone correspondant aux observations effectuées par les chercheurs.
Fig. 7 (b) Carte prédictive de la présence de monoxyde de carbone dans notre galaxie [Cette carte est identique à la fig. 6 (c)].
Fig. 7 (c) Courbes extraites de deux images précédentes permettant de visualiser précisément les écarts entre les données de la carte réelle et les données de la carte prédictive.

Pourquoi l’ensemble des Figures 6 et 7 ne peuvent-elles, à leur tour, être considérées comme des preuves ?

Il y a bien mise en relation d’une raison (ce qui prouve) – ici la similarité entre deux images produites par deux télescopes différents,  et d’une conséquence (ce qui est à prouver) – en l’occurrence, le fait que les cartes  de départ contiennent un ensemble relativement exhaustif de données. Ici encore, les problèmes se manifestent du côté du dispositif opératoire : il existe des incertitudes quant à l’enregistrement des données et quant à leurs traitements. Des choix subjectifs sont effectués à tous les niveaux de l’enquête. En aucun cas, à nouveau, on n’est autorisé à parler de preuve. L’expression qui convient est encore une fois celle d’élément de preuve.

Les figures 8 à 12, sur lesquelles je ne m’attarderai pas, sont des comparaisons quantitatives consistant à renforcer la valeur probatoire de la Fig. 7. Les chercheurs veulent montrer ici que leurs données observationnelles concordent de manière satisfaisante avec les données prédites (obtenues grâce à un autre instrument, à nouveau le télescope infrarouge IRAS).

Conclusion

A la lumière des éléments d’analyse qui précèdent, le dépit de l’ufologue apparaît sous un jour nouveau. Ce qu’il semble chercher, c’est LA preuve, la trace qui révélerait l’existence d’une entité sans coup férir. Les astrophysiciens, pour leur part, et pour des raisons que j’ai exposées sommairement dans mon étude de la publication sur la Voie Lactée, ne sauraient entretenir un tel rapport de confiance avec une image isolée. Ce n’est qu’en confrontant plusieurs images réalisées avec des instruments différents par des équipes différentes, et en les traitant afin de pouvoir dans un second temps saisir similarités et différences, que l’on peut parvenir à des conclusions crédibles « au-delà de tout doute raisonnable ». Une image en astrophysique ne fonctionne pas comme preuve, mais essentiellement comme élément de preuve. Et pour les chercheurs, auteurs de l’article, la réalisation des deux cartes correspond bien aux finalités qu’Anne Beyaert-Geslin assigne à de telles productions humaines :

Note de bas de page 14 :

 Anne Beyaert-Geslin, « Cartographie et argumentation », Visible, n°9, à paraître, 2011.

« En même temps qu’elles fournissent les arguments rationnels pour mettre en œuvre les pratiques [dans notre cas, ces pratiques consisteraient à permettre d’autres études menées dans le domaine de l’astrophysique], les cartes persuadent d’une vérité du monde et lui donnent consistance. Le faire informatif se double d’un faire persuasif »14.