Psycho-fiction : mensonge de robot et télépathie cellulaire

Section : news, Catégorie : actualite-recherche

Proposé par Stephane Desbrosses, le 11-09-2011



Des robots qui dansentEn psychologie, la réalité rejoint parfois la fiction avec les avancées de la recherche. Cette année a vu se briser certaines limites, a vu naître des systèmes dont on n'aurait imaginé l'existence, il y'a une dizaine d'années, qu'à la seule condition d'avoir l'esprit bien ouvert à la science-fiction. Des robots qui mentent, des IA qui chantent, des programmes qui reconnaissent le sarcasme ou de petites productions insolites comme cet étonnant téléphone qui appelle le correspondant dont vous pensez seulement le numéro. Retour sur deux de ces inventions...

Casque téléphonique

Retour en arrière ou réelle avancée ? Une partie de la recherche actuelle, depuis l'exemple de l'interface système nerveux/ordinateur de Kevin Warwick[1], se concentre sur l'établissement d'un pont entre le cerveau et l'ordinateur reconnu généralement sous les noms d'interfaces Homme/cerveau-Machine/ordinateur (Brain Machine/Computer Interface), de sorte que l'on puisse envoyer des commandes à un récepteur électronique par la seule pensée (précisément, l'activité cérébrale qui en résulte). Ce domaine en pleine effervescence vient de voir naître, sous l'impulsion de Tzyy-Ping Jung* et ses collègues[2], une structure à même de décoder les numéros de téléphone pensés par une personne, et d'initier un appel vers ce destinataire.

* Co-directeur des Institute for Neural Computation et Institute of Engineering in Medecine, Professeur au Brain Research Center et à l'université de Taiwan.

Concrètement, le sujet est muni d'un casque couvert d'électrodes à même d'enregistrer l'activité cérébrale et de transférer cet enregistrement, via technologie bluetooth, à la machine (un programme mimant celui d'un téléphone portable), laquelle, après une phase d'apprentissage/étalonnage personnalisée au sujet, est capable d'interpréter les différences de fréquences correspondant à chaque chiffre pensé. La phase d'entraînement consiste à enregistrer l'activité cérébrale en terme de fréquences émises lorsque le sujet casqué voit défiler des chiffres l'un après l'autre sur un écran.

La précision de ce dispositif atteint l'ordre de 70 à 85% (pour un numéro à 10 chiffres). A la fois non négligeable et peu satisfaisant, puisque 15% des appels au moins sont donc systématiquement lancés à de parfaits inconnus. Le perfectionnement de cette technique est néanmoins aisément envisageable, avec un système d'enregistrement des numéros, la pondération de ceux-ci selon la fréquence des appels, par exemple, et une comparaison à la volée du signal enregistré avec un numéro pré-acquis par la machine.

Reste que le système est encore loin d'être profitable du point de vue commercial, et du point de vue pratique (il faut quand même supporter l'esthétisme et le poids d'un casque à électrode) mais constitue une étape intéressante sur la route de la communication par télépathie (ordi-assistée), déjà initiée dans des domaines aussi divers que les jeux vidéos avec l'Emotiv Development kit, les prothèses neuronales, la création musicale ou la communication homme-machine de base.

De fait, l'efficacité de 85% dans un domaine aussi récent n'est pas si mauvaise du point de vue de la recherche, habituée en la matière, à des expérimentations atteignant les 40 à 50% d'efficacité seulement, ou une efficacité accrue mais avec des équipements conséquents. L'équipe de l'université de Californie de San Diego, à l'origine de cette nouvelle technologie rappelle que le passage des expérimentation BCI en labo aux applications dans la vie réelle est encore difficile, et que l'intérêt du système proposé tient davantage au fait qu'avec un équipement réduit, assez peu cher et disponible pour tous, une application BCI est effective, et constitue donc une étape importante vers la distribution et l'utilisation quotidienne largement partagée. L'équipe envisage d'ailleurs déjà l'intégration de son application chez les personnes ne pouvant par elles-mêmes composer physiquement un numéro, que ce soit par handicap ou par exemple par profession.

Reste un problème : vous connaissez les numéros de vos amis par cœur, vous ?

[1] Desbrosses S. (2007). Vers une intelligence cyborg. in Le cerveau et la pensée, 2011, sous la direction de J.F. Dortier. Ed. sciences Humaines. ISBN : 9782361060107
[2] Wang Y-T., Wang Y., Jung T-P. (2011). A cell-phone-based Brain-Computer Interface for communication in daily life. Journal of neural engineering, vol 8. Doi : 10.1088/1741-2560/8/2/025018

Robot menteur et IA sarcastique

Ce sont là également des étapes extrêmement intéressantes : on reproche aux programmes leur froideur et leur rationalité - qui pour certains, seraient plutôt avantageuses - en les désignant par ailleurs comme de bonnes raisons pour lesquelles la machine ne saurait ressembler à un être humain (voir la machine peut-elle penser ?). Or, il s'avère que récemment, ces deux limites ont été brillamment franchies par deux programmes incontestablement plus humains que leurs congénères électroniques : capables de reconnaître le sarcasme, et capables de mentir.

Listée par le célèbre Time Magazine comme deux des 50 meilleures inventions de 2010, ces merveilles de technologie étaient largement attendues dans les milieux intéressés. Le premier robot délibérément conçu* comme menteur est ainsi le produit de l'industrie militaire américaine, qui tentait de construire une machine susceptible de décider par elle-même d'induire un ennemi potentiel en erreur. Imaginons le scénario suivant :
une base attaquée est sur le point de tomber, les dernières informations et objets d'une importance cruciale doivent être envoyés hors de la base, et sont confié au robot. Dans sa fuite, le robot abouti au fond d'un corridor à un croisement. Deux passages s'offrent à lui, il doit alors décider volontairement de prendre l'un des deux tout en falsifiant les traces de sorte que les ennemis qui le poursuivent, imaginent qu'il a pris l'autre chemin.
*Ce n'est pas à proprement parler le premier robot menteur : en 2007 déjà, de chercheurs suisses remarquaient qu'un logiciel capable d'apprendre par l'expérience, pouvait développer spontanément une aptitude à mentir selon l'interlocuteur et les circonstances

C'et sur la base de scénarii de ce type que l'armée des Etats-Unis souhaitait développer une IA capable non seulement de mentir selon les circonstances, mais également de reconnaître chez un autre robot de ce type, voire chez un humain (à terme), le mensonge. C'est la Georgia Tech's qui a hérité du contrat et présenté le robot, ironiquement appelé (en référence aux méchants robots Transformers) Decepticon.

Etonnamment, la première étape ne consistait pas à apprendre au robot à mentir, mais plutôt quand le faire, c'est-à-dire, à qui et en quelles circonstances. Alan Wagner et Ronald Arkin, tout deux issus du Georgia Institute of Technology (Atlanta), ont proposé pour cela un algorithme simple : dès qu'un robot se trouve en conflit avec une entité extérieure, et s'il évalue à une probabilité non nulle la possibilité d'influencer les actions de cette entité, alors il est autorisé à mentir. Les chercheurs ont alors expérimenté cette idée sur deux robots mobiles simples programmés pour jouer à un jeu de cache-cache.

Le premier des deux robots avait pour but de se cacher dans un des trois compartiments disponibles, chacun bloqué partiellement par un petit marqueur (un plot) de couleur. Aller vers l'un compartiment impliquait alors de faire basculer le plot qui correspondait à la direction choisie.

Comme prévu, les deux robots, capables d'apprendre par expérience, remarquèrent vite que le plot tombé indiquait le chemin à prendre pour trouver au plus vite et sans erreur, le robot caché.

Mais le robot-chercheur ignorait que son adversaire caché avait dans ses entrailles électroniques, en plus du programme commun à chacun d'eux, la possibilité de mentir. Lors du jeu, le robot-menteur, dès qu'il heurtait un plot, se tournait dans une autre direction pour se cacher, allant même parfois jusqu'à basculer un autre plot pour revenir ensuite dans la direction initiale. Après 20 essais, près de 75% des fausses traces s'étaient montrées efficaces.

Reste que le robot-chercheur ne s'attendait en rien à un mensonge, et il serait intéressant de voir comment le robot-menteur se comporterait face à un adversaire plus intelligent. Un autre point critique est celui de la connaissance de l'adversaire et de ses capacités, car pour mentir efficacement, encore faut-il comprendre comment l'adversaire va interpréter les traces, qu'elles soient bonnes ou mauvaises.

Quoiqu'il en soit, il y'a peut-être là matière à questionnement éthique : s'il est vrai que fournir l'aptitude au mensonge à un robot pourrait se révéler efficace, n'est-ce pas également leur donner la possibilité de se retourner contre ses créateurs par la même occasion ? ou au moins, la possibilité de suivre grâce à son expérience, sa propre voie même si celle-ci entre en désaccord avec ce que l'on voudrait les voir accomplir ?

Alan Wagner s'en défend en pointant les possibilités nouvelles qu'apportent cette capacité chez un robot : socialement, il existe de nombreuses situations dans lesquelles il peut paraître pertinent de mentir, pour le bénéfice d'autrui. Alan prend ainsi l'exemple d'un patient alzheimer à qui l'on doit faire prendre ses médicaments, mais qui, non conscient de son trouble (anosognosie), ne souhaite pas les prendre. Selon le chercheur, ce type de situation devrait nous amener à nous questionner sur l'utilisation de mensonges dits "pieux".

Partagés entre fascination pour le concept et son application, mais peut être effrayés par ses implications, nous devrions probablement nous tourner vers la philosophie et l'éthique pour tenter de forger un avis quant à cette étrange et nouvelle capacité développée chez nos amis (pour l'instant) robots…

Tiré de Minogue K. (2010). How to train your robot (to lie). Science Mag. Online.
Wagner A.R., Arkin R.C. (2010). Acting Deceptively : Providing Robots with the Capacity for Deception. International Journal of Social Robotics, Volume 3, Number 1, 5-26, DOI: 10.1007/s12369-010-0073-8
Retrouvez également notre blog "Cybernétique et Psyché ".
 
*Dans un prochain article, nous traiterons du logiciel capable de détecter le sarcasme et d'autres inventions époustouflantes à mi-chemin de la réalité et de la fiction.
   

Mots-clés : Robots, Intelligence Artificielle, Communication, Télépathie, Neurologie, Mensonge, Programmes, fiction-réalité, Ethique



Ajouter votre commentaire

Attention, ce site n'est pas un site de psychothérapie en ligne! Avant de commenter, veuillez consulter ces conseils.
Seul les utilisateurs enregistrés peuvent commenter un article.
Aucun commentaire posté