Skip to content

Psychoweb

Ecran diminué  Ecran large  Augmenter la taille de la police  Diminuer la taille de la police  Taille par défaut 
Chemin :    Accueil arrow News arrow Derniers Articles arrow Neuropsychologie arrow La détection des émotions humaines chez le Saumon Atlantique... mort.
La détection des émotions humaines chez le Saumon Atlantique... mort. Convertir en PDF Version imprimable Suggérer par mail

Section : articles, Catégorie : neuropsychologie

Proposé par Stephane Desbrosses, le 05-04-2012



Le saumon cognitifNon, ce n’est pas une plaisanterie, ni un poisson d'avril. C’est un problème, un gros problème qu’une équipe de l’Université de Santa Barbara, Californie, menée par le chercheur Craig Bennett, a souhaité mettre en évidence, en testant les réponses neurales d’un specimen adulte, de taille honorable, de Saumon Atlantique (Salmo Salar), face à des photographies d’humains dans des situations d’exclusion sociale ou au contraire, des situations d’intégration sociale. Petite précision avant de commencer : le saumon, au moment de la mesure, était… décédé.

Dead Fish

Les auteurs de l’étude souhaitaient montrer l’existence d’une activité "significativement" détectable dans le système nerveux du poisson, en réponse à des stimulations visuelles et éventuellement émotionnelles, montrant des situations sociales spécifiques d’hommes, à valence émotionnelle.

Ils ont donc commencé par chercher, et ont trouvé, un Saumon Atlantique, plus connu en France pour le goût de sa chair que pour ses talents cognitifs. Comme l’expliquent, avec un certain humour, les auteurs :
« Un Saumon Atlantique adulte participa à l’étude IRMf. Le saumon mesurait 46 cm et pesait environ 1,725 kg, et n’était pas vivant lors des séances de scan.  Nous ignorions s’il s’agissait d’un mâle ou d’une femelle, mais étant donné le caractère post-mortem de la mesure, nous assumions qu’il ne s’agissait pas là d’une variable critique. » […] « Afin d’éviter tout mouvement intempestif lors de la mesure, la tête du saumon était coincée dans une mousse de rembourrage, technique qui s’est au final, révélée inutile, étant donné l’exceptionnelle immobilité du sujet. » […] « Un procédé technique à base de miroirs permettrait au saumon de percevoir les stimulations expérimentales, diffusées sur écran LCD. »
La tâche du saumon consistait à réaliser un exercice de mentalisation : les expérimentateurs montraient au saumon des photographies d’hommes en condition d’exclusion sociale ou à contrario, d’intégration. Ils demandaient alors au saumon de déterminer quelles impressions, quelle émotion, l’individu représenté sur la photographie, pouvait ressentir.

L’étude ne précise pas l’évidence : à aucun moment, le saumon n’a donné de réponse cohérente. Néanmoins, la comparaison des situations de visionnage et de repos montra des différences statistiquement significatives dans l’activité cérébrale et spinale du saumon mort. 3 voxels au moins (unité de volume représenté, lors de visualisations à l’IRM) suggéraient une activation lors de la présentation des images…
 
L'activité cérébro-spinale du poisson mort telle qu'observée à l'IRMf
L'activité cérébro-spinale du poisson mort telle qu'observée à l'IRMf

Un fantôme dans le scanner

Bien entendu, il est inenvisageable d’accepter que le saumon ait eu une réponse cognitive (ce que les auteurs de l'étude se refusent) sous l’effet de la présentation des images*. Tel n’était pas exactement le but des auteurs, qui souhaitaient avant tout, en démontrant la possibilité d’apparition de résultats positifs dans cette expérimentation audacieuse, prouver qu’une méthodologie désormais largement critiquée en neuroimagerie, pouvait induire des faux positifs permettant de conclure à un effet, contre toute logique.

Débattue depuis la première présentation, en 1992, d’une méthode de correction statistique proposée par Keith Worsley et al, la question de la validité empirique des études utilisant l’IRMf avait refait surface avec vigueur au début des années 2000 (avec, notamment, une nouvelle méthodologie de correction inspirée par Nichols et ses collègues, 2002), et plus récemment, avec un article provocateur d’Edward Vul, jetant le doute sur près de la moitié des corrélations observées en Neurosciences sociales, issues de 52 articles publiés dans de prestigieuses revues à comité d’experts (voir un résumé ici : Corrélations fantômes en Neurosciences Sociales).

Vul et ses collaborateurs insistaient sur l’erreur de non-indépendance dans la sélection des voxels qui feront l’objet d’une observation approfondie : plusieurs études choisissaient en effet de se focaliser sur des voxels calculés comme potentiellement actifs lors d’une tâche, pour les comparer à eux-mêmes lors de l’état de repos, puis lorsque la tâche était à nouveau accomplie. Cette méthodologie impropre augmentait considérablement les corrélations observées (entre l’activité enregistrée à l’IRM et la tâche cognitive/affective), au-delà même parfois du seuil théorique calculable à partir des corrélations test-retest pour chacun de ces instruments de mesure.

L’article avait incendié la blogosphère scientifique anglophone mais était passé relativement inaperçu en France, de même que l’article de Bennett et collègues. Mais la recherche présentée ici se concentre davantage sur les problèmes méthodologiques liés aux comparaisons multiples : imaginez que vous fassiez des séries de 5 piles-ou-faces à la suite. S’il vous faudra attendre un peu pour obtenir 5 piles de suite, ou 5 faces de suite, le hasard vous permettra néanmoins d’observer ce passionnant et néanmoins improbable phénomène. Or, vous comprenez intuitivement que plus vous faites d’essais, plus vous avez de chances de l’observer. C’est pourtant exactement ce qu’il se passe lorsque l’on compare des voxels par dizaine de milliers : ce sont tout autant d’essais !

Et c’est là qu’est l’erreur : on garde dans ce cas là, le même seuil statistique pour décider de l’existence d’un éventuel effet (généralement, une valeur de p<0,001). Cette valeur, non corrigée, permet à des groupes de voxels d’être significativement pointés comme actifs, alors qu’il ne s’agirait que de bruit ! Il faudrait donc abaisser le seuil pour permettre à une véritable corrélation d'émerger.

Des méthodes correctives existent, mais selon Bennett, de 25 à 40% des études publiées en 2008, dans de célèbres revues telles que NeuroImages (67 études sur 260), Journal of Cognitive NeuroSciences (42/68), Cerebral Cortex (54/80), etc… n’utilisent pas ces méthodes correctives. Cela ne signifie pas qu’elles démontrent des effets qui n’en sont pas, mais remet en cause le degré de certitude avec lequel on peut se fier aux résultats de ces études.

* (quoique pour en être absolument certain, on devrait sans doute réitérer l’expérimentation en prenant le même saumon, à -273°C. Pour être bien sûr qu’il n’y a aucune activité réflexe ou modification chimique dues à la présentation des images, en quelque sorte.)

A noter : l'étude est la première publication du Journal of Serendipitous and Unexpected Results, dont plusieurs des articles sont désormais indexés sur PubMed. Nous avouons qu'en un premier temps, nous étions étonnés par cette recherche au point de nous demander s'il ne s'agissait pas d'un Fake. Il semble bien que non!

Bennett, C., Baird A., Miller, M., Wolford G. (2010). "Neural correlates of inter-species perspective taking in the post-mortem Atlantic Salmon : an argument for proper Multiples Comparisons Corrections". Journal of Serendipitous and Unexpected Results 1 - 1 : p1-5.

   

Mots-clés : neurosciences, neuro-imagerie, neurologie, neuropsychologie, recherche, biais, comparaisons multiples, statistiques



Ajouter votre commentaire

Attention, ce site n'est pas un site de psychothérapie en ligne! Avant de commenter, veuillez consulter ces conseils.
Seul les utilisateurs enregistrés peuvent commenter un article.
Aucun commentaire posté
 
Suivant >

Identification

Articles populaires cette semaine

Derniers commentaires

Pas de commentaires...