accueil > Revue > N°121 | 2018 > Robotique humanoïde et interaction sociale

Texte intégral

  • Augmenter la taille de la police
  • Réduire la taille de la police

L’objectif de cette étude n’est pas tant de déterminer si les robots humanoïdes seront un jour à même de « ressentir » des émotions et d’interagir émotionnellement avec les êtres humains que de déterminer dans quelle mesure ceux-ci peuvent s’attacher et s’engager affectivement auprès de robots. Notre démarche s’inscrit ainsi dans la perspective de P. Dumouchel et L. Damanio, pour qui

1 :
 Paul Dumouchel et Luisa Damanio, Vivre avec les robots. Essai sur l’empathie artificielle, Paris, Seuil, 2016, pp. 28-29.

la question qui se pose à la robotique sociale n’est pas de savoir si elle doit s’efforcer de fabriquer des robots qui ont de « vraies » émotions, correspondant à des états internes (suffisamment) semblables à ceux qui chez nous sont censés accompagner les émotions, ou si elle doit au contraire se contenter d’agents artificiels qui font semblant d’avoir des émotions et exploitent notre anthropomorphisme naïf. Elle est plutôt de savoir si les robots sont capables de s’insérer dans un processus dynamique d’interactions qui détermine sur la base de l’expression affective nos intentions réciproques d’action. C’est-à-dire un processus dynamique d’interactions qui détermine comment ils sont disposés à l’égard de leurs partenaires humains et comment ceux-ci le sont à l’égard des robots avec lesquels ils interagissent.1

2 :
 Emmanuel Grimaud, « Androïde cherche humain pour contact électrique », Gradhiva, 15, 2012 (http://gradhiva.revues.org/2328).
3 :
 Gabriella Airenti, « Aux origines de l’anthropomorphisme », Gradhiva, 15, 2012 (http://gradhiva.revues.org/2314).

D’où la nécessité de s’interroger sur ce qui est au fondement de la relation sociale et de l’interaction entre êtres vivants (humains et animaux) afin de vérifier comment cela peut concrètement opérer en robotique sociale. Dès lors, soulever les questions de l’interaction et de l’attachement devient fondamental. Comme le constate Emmanuel Grimaud, le « problème de l’attribution d’un statut, d’une identité, voire d’une âme, à un humanoïde ne peut être abordé sérieusement qu’en observant de près, en temps réel, la manière sont les attachements se font et se défont parfois aussi vite »2. Cet attachement trouverait son point d’ancrage dans la notion d’anthropomorphisme, qui consiste, pour Gabriella Airenti en « une extension aux non-humains de modalités interactionnelles propres au dialogue entre humains »3. L’anthropomorphisme constituerait un premier pas vers la reconnaissance de l’alter-ego avant que cette reconnaissance ne se transforme en un attachement, voire en un rapport passionnel.

4 :
 Jean-Marie Floch oppose, comme on sait, sur l’axe des contraires du carré sémiotique les « valeurs “utilitaires” (valorisation (...)

Cependant, un robot, humanoïde ou non, possède avant tout le statut d’un objet technologique qui se laisse utiliser et attribue au sujet humain le rôle d’usager. Pour reprendre la terminologie de Jean-Marie Floch, avant qu’il ne prenne une valeur émotionnelle ou « existentielle », il assume un rôle purement « pratique », celui d’un objet fonctionnel (ou non, car il existe des robots qui ne servent à rien)4. La question qui se pose alors est celle de l’articulation possible des valeurs essentiellement pratiques avec des valeurs expérientielles et existentielles (l’objet devenant une extension de soi-même, un accomplissement identitaire). Chaque pôle de la deixis négative du carré sémiotique établi par Floch recouvre ainsi un mode possible de la relation homme-machine et s’accompagne parallèlement d’un changement statutaire de chacun des actants engagés dans une boucle interactionnelle spécifique. D’objet, le robot peut alors devenir un quasi-sujet, investi d’une valeur sensible, voire émotionnelle, tandis que le sujet passe, quant à lui, du simple rôle d’usager à celui de co-agent sinon de « compagnon ».

5 :
 Cf. Stéphanie Cardoso, « Amicalité des robots de compagnie. Une poïétique par le design », in D. Tsala Effa et S. Walsh-Matthews (...)

Si cette conciliation des valeurs pratiques et expérientielles requiert la détermination du statut et du rôle actantiel du robot, elle s’inscrit fondamentalement dans une démarche de design d’objet. Nous proposons ainsi de déterminer les principes esthétiques et interactionnels sous-jacents en vertu desquels un sujet peut s’approprier un tel objet et nouer une relation d’« amicalité » avec lui5. Pour cela, nous reviendrons sur la définition du robot et traiterons des problèmes liés à l’intégration de cet objet technologique au sein de la sphère sociale. Puis nous nous interrogerons sur ce qui caractérise la présence de « l’autre » en général et mettrons en évidence les principes de la relation sociale avant de déterminer les modes d’interaction possibles avec le robot social. Cela étant défini, nous achèverons notre réflexion sur les conditions de l’appropriation du robot en tant qu’objet technologique intégré dans la sphère sociale de son usager.

1. Le robot social, un statut à définir

6 :
 Laurence Devillers, « Les dimensions affectives et sociales dans les interactions humain-robot », in D. Tsala Effa et S. (...)

Le robot social est un objet technologique conçu en vue de remplir principalement deux objectifs : « soutenir et aider physiquement des personnes en situation de handicap moteur afin de proposer une interaction sociale à l’utilisateur, en général dans le cadre d’une tâche bien délimitée (c’est-à-dire, rééducation et coaching) »6. Le rôle thématique qui leur est assigné n’est pas celui de remplaçant mais celui de partenaire social chargé d’accompagner les utilisateurs et d’assurer la médiation entre les différents acteurs de la société. Deux problèmes majeurs émergent de ce projet de robotique sociale : un problème éthique lié à la question de l’empathie artificielle, lequel participe à une seconde difficulté, celle de l’acceptabilité du robot. Examinons l’un et l’autre.

La problématique de la communication sociale et affective du robot, ou « empathie artificielle », a fait émerger un nouveau domaine de recherche en robotique, celui des « sciences affectives ». Deux approches sont proposées : i) la robotique externe, qui met en œuvre, comme son nom l’indique, une dimension sociale externe et publique des émotions ; ii) la robotique interne, qui attribue au robot des émotions conçues comme des phénomènes physiologiques ou psychologiques internes et privés. Dans la mesure où les véritables émotions sont considérées comme internes, les manifestations affectives des robots ne peuvent être que fausses car elles ne renvoient à aucune affection somatique interne. Ce constat nourrit les spéculations de la vague techno-pessimiste qui considère la révolution numérique comme une atteinte à l’espèce humaine (perte d’emploi, déliquescence des liens sociaux entre individus, domination de la machine sur l’homme, etc.). Au-delà de l’aspect morphologique du robot et du degré de ressemblance physique avec le sujet humain se pose la question de son statut et du rôle social qu’il doit occuper dans la société. Car la méfiance à son encontre semble fortement liée à la terminologie employée pour en parler : « substitut », « agent artificiel », « artefact », « robot-compagnon », etc.

7 :
 P. Dumouchel et L. Damanio, op. cit., p. 7.

Le premier problème que soulève cette terminologie s’inscrit dans une longue tradition de pensée qui se trouve réactivée à chaque mutation technologique : le développement de la robotique est en l’occurrence vu comme une mise en danger du travail humain. Initialement entendu « comme un appareil qui a sa propre source d’énergie, qui travaille pour nous, et qui est autonome dans une certaine mesure »7, le robot s’est très vite diversifié en fonction des tâches qui lui ont été confiées. Parmi ces robots, ce sont ceux qu’on qualifie de « substituts » qui s’avèrent les plus problématiques. Alors que le substitut désigne un adjuvant doté des qualités et aptitudes de la personne qu’il remplace sans pour autant prendre sa place ni la destituer de sa fonction, l’imaginaire populaire y voit au contraire un opposant qui a pour fonction de la remplacer définitivement. Cet imaginaire est d’autant plus renforcé que le robot-substitut n’est pas une prothèse de son usager mais une entité à part entière censée manifester une présence active dans la sphère sociale où il intervient.

8 :
 Gilbert Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1958, p. 256.

Le second problème est d’ordre relationnel : « agent artificiel » fabriqué de toutes pièces selon un principe d’imitation de la nature, à laquelle il ne pourra jamais être conforme, le robot est un simulacre. Et bien que Gilbert Simondon considère l’artificiel comme « du naturel suscité, non du faux ou de l’humain pris pour du naturel », un problème d’ordre véridictoire se pose à son contact8. En effet, si le robot est un acteur social, il doit donner l’impression, voire le sentiment, d’être en relation avec un autre, et cela moyennant une interaction affective. Or, le robot n’a pas d’âme, ni de motions intimes ; il ne peut ressentir les événements sensibles car il est dépourvu de « chair percevante ». C’est un objet technologique, qui plus est de programmation. De ce fait, toute interaction, tout expression affective est perçue par le sujet comme mensongère. Qui plus est, comme le rappellent Dumouchel et Damanio, un robot capable d’adopter un comportement humain se trouve être le reflet de notre propre condition humaine dans ce qu’elle a de pire, à savoir nos vices et nos défauts. Ainsi, un robot capable de se comporter comme un être humain et dont le comportement est programmé ne peut lui-même être qu’un objet de méfiance.

Compte tenu de ces deux problèmes se pose la question des conditions d’acceptabilité du robot social et des caractéristiques propres à susciter l’engagement des usagers dans une véritable relation sociale avec cet actant technologique. Un premier élément de réponse se trouve dans le concept d’anthropomorphisme.

2. De l’anthropomorphisme

9 :
 Cf. Gabriella Airenti, art. cit.

Dans un article consacré aux origines de l’anthropomorphisme, Gabriella Airenti montre que l’anthropomorphisme n’est pas lié à une modalité spécifique de la pensée mais relève de modalités d’interaction précocement apprises : ce qui est à l’origine de l’anthropomorphisme, autrement dit du rapprochement d’un sujet à l’égard d’un objet ou d’un autre être vivant, c’est l’interaction, et plus particulièrement ce sont des interactions spécifiquement adéquates à la situation9. Défini dans le même article comme l’« extension aux non-humains de modalités interactionnelles propres au dialogue entre humains », l’anthropomorphisme consiste à rendre intelligibles les comportements des machines ou des animaux en ramenant ces comportements à notre propre condition et à nos propres caractéristiques comportementales. Dès lors, l’anthropomorphisme n’est pas de nature empathique. À propos des interactions entre homme et animal, Véronique Servais, anthropologue à l’Institut des Sciences Humaines et Sociales de l’université de Liège, observe le phénomène suivant :

10 :
 Les résultats de l’étude sont disponibles à l’adresse suivante : (...)

Dans l’interaction avec les animaux, l’anthropomorphisme, c’est de l’ethnocentrisme. L’empathie en revanche implique un changement de perspective : percevoir les choses du point de vue d’autrui. L’empathie suppose une réorganisation de la perception et la découverte d’un nouveau point de vue. Pour ce qui concerne les animaux, l’empathie repose sur une bonne connaissance de leur histoire naturelle, de leur système perceptif, de leur répertoire comportemental et de leur système de communication. Il faut tout cela pour commencer à voir l’animal évoluer dans son monde, forcément différent du nôtre. L’anthropomorphisme c’est ramener le différent à du connu.10

C’est bien de cela qu’il s’agit à l’égard d’un robot social. Il semble en effet impossible de ressentir de l’empathie à son égard dans la mesure où, objet technologique, il ne possède pas une histoire naturelle, ne perçoit pas son environnement au même titre qu’un être vivant et ne peut « ressentir » des émotions sans que cela soit le résultat d’un algorithme de programmation. Dès lors, l’interprétation des mouvements du robot en termes de comportement ne peut se faire que sur la base d’une projection de configurations schématiques réalisée à partir des principes comportementaux humains.

11 :
 G. Airenti, art. cit., p. 36.

Cette projection se fonde notamment sur la propriété intentionnelle dont nous sommes dotés de manière innée et en vertu de laquelle nous attribuons une caractéristique mentale — une intentionnalité — à certains types d’objets. Il n’est pas rare en effet d’observer des sujets invectiver leur ordinateur ou le GPS de leur voiture dès qu’ils dysfonctionnent, les supplier de démarrer ou leur demander « pourquoi ils vous font cela », ce qui revient évidemment à leur prêter des intentions. Cette pensée téléologique, vecteur d’anthropomorphisme, accorde aux objets un comportement rationnel, ou émotionnel, adopté dans un but particulier. Et cela, quelle que soit leur apparence physique. À l’occasion d’une étude sur les réactions des visiteurs d’un zoo face aux primates, Véronique Servais a observé que les sujets attribuaient davantage de qualités mentales aux cercopithèques qu’aux orangs outangs alors qu’ils sont pourtant moins ressemblants à l’homme. De ce fait, nous considérons avec Gabriella Airenti que « l’imitation de l’apparence humaine est un faux problème. La reproduction quasi parfaite [ou ne serait-ce qu’élémentaire, ajouterions-nous,] des caractéristiques humaines n’invite pas nécessairement les êtres humains à l’interaction »11.

12 :
 Michael Tomasello, Origins of Human Communication, Cambridge, MIT Press, 2008, pp. 75 (traduction de Véronique Servais proposée lors (...)
13 :
 G. Airenti, ibid.

Par ailleurs, ce qu’on appelle la théorie « de l’esprit » — précisons qu’elle consiste à interpréter les pensées et les intentions de l’autre à travers l’observation de son comportement — « joue un rôle très important dans l’organisation de l’interaction et dans la création d’un monde partagé. Dans l’incapacité de lire les intentions d’autrui (…), il nous est extrêmement difficile de créer avec lui le monde partagé sur lequel reposent la communication et la synchronisation de l’interaction »12. Le degré d’intentions perçues s’avère donc déterminant. L’anthropomorphisme doit par conséquent être abordé en termes relationnels. Comme le souligne G. Airenti, « un robot est un artefact comme n’importe quel autre, et en tant que tel il n’a pas besoin de constituer un bon modèle d’être humain. Ce qui compte, c’est que le robot est censé interagir avec des êtres humains »13. De ce fait, la véritable question que la robotique sociale doit se poser n’est pas tant « qu’est-ce qu’un être humain ? » que « qu’est-ce qui le fait interagir ? »

Mais l’interaction seule n’est pas suffisante, la situation d’interaction et ses modalités s’avèrent également prépondérantes. À cet égard, les travaux de Véronique Servais sur les primates ou ceux de Gabriella Airenti relatant les expériences menées auprès de jeunes enfants montrent que ce n’est pas le contenu de l’échange qui importe mais sa forme de l’expression. Elle se caractérise par un schéma d’alternance et un principe mimétique. L’imitation réciproque, qu’on pourrait assimiler à un principe d’ajustement, permet de construire un niveau de pertinence à partir duquel la saisie du sens peut s’effectuer. Et cette pertinence se construit précisément par une imitation qui ne doit pas être parfaite mais doit au contraire ménager des différences avec le comportement qu’elle est censée reproduire. Ce plan d’immanence ainsi construit, c’est celui de la relation. Et c’est parce que la relation constitue un plan d’immanence de l’anthropomorphisme que ces comportements ont un sens.

14 :
 G. Airenti, art. cit., pp. 49-50.

L’anthropomorphisme signifie mettre un objet ou un animal dans la position d’interlocuteur au sein d’un dialogue. Le fait que ces procédés cognitifs soient déjà présents chez les nouveaux-nés montre qu’il s’agit de structures cognitives fondamentales, qui n’ont besoin que de très peu de contenu pour se manifester. Ces procédés sont à la base de toutes les interactions, y compris celles des adultes.14

Sur la base de ces considérations, nous proposons d’articuler le processus de l’anthropomorphisme autour de trois variables interconnectées, qui constituent autant de leviers à considérer dans la mise en œuvre d’une stratégie de design d’objet lors de la conception d’un robot social. i) Attribution de qualités mentales (croyances, intentions) en vertu d’une pensée téléologique. La reconnaissance d’une intentionnalité dans l’objet influe sur l’identification de ses qualités mentales. ii) Développement des interactions pouvant parfois prendre la forme d’une sollicitation verbale de l’objet. Le sujet lui adresse la parole et instaure une forme de dialogue. iii) Sentiment d’un partage mutuel d’un même monde. Le sujet s’engage ainsi dans un système de communication complexe.

Le passage du premier au second point est garanti par le degré des intentions perçues. Plus ces intentions sont fortes, plus les interactions se développent. Réciproquement, plus le comportement adopté par l’objet est transparent et conforme à l’intentionnalité qui lui est sous-jacente, plus le sujet aura tendance à attribuer à cet objet des qualités mentales. Quant à l’articulation des seconde et troisième variables, elle repose sur l’instauration d’un sentiment d’engagement du sujet dans un véritable processus de communication. Plus ce sentiment est intense, plus le sujet aura la conscience d’un partage mutuel d’un même monde. Réciproquement, plus cette conscience est intense, plus elle engage le sujet dans le renouvellement d’interactions plus nombreuses et complexes.

À cela, il faut ajouter deux remarques : la première, c’est que la perception d’une conscience résulte d’un investissement affectif lié à l’échange et aux interactions avec l’objet. Ainsi, pensée téléologique et dimension du dialogue sont deux processus cognitifs qui inscrivent avant toute chose l’anthropomorphisme dans une démarche herméneutique à l’issue de laquelle l’impression référentielle déclenche un second seuil vers l’acceptabilité du robot et son intégration dans la sphère sociale : celui de l’engagement émotionnel. Nous reviendrons sur cette seconde articulation de la signification. La seconde remarque, c’est que l’anthropomorphisme est un mode relationnel dont le fonctionnement optimal repose sur l’attribution d’un rôle bien spécifique à chacun des actants en interaction l’un avec l’autre. Par conséquent, c’est ce qui est au fondement de cette relation qui doit être identifié en vue de déterminer des pistes de recherche en développement robotique.

3. La relation sociale : enjeux et perspectives

15 :
 Gustave-Nicolas Fischer, « Le concept de relation en psychologie sociale », Recherche en soins infirmiers, 56, 1999.

Développer des robots sociaux implique qu’on se pose la question de la socialité et de la forme qu’elle peut prendre dans le cas de la communication homme / machine. Entendue comme un réseau de relations dynamiques, la socialité permet de structurer les phénomènes sociaux en un processus. La relation fonctionne comme un flux dont la modélisation se joue dans les interactions, elles-mêmes déterminées par des positions et des rôles actantiels spécifiques, et selon un principe de coordination qui détermine la distance sociale la plus adéquate aux situations de communication. La modélisation du processus relationnel doit être envisagée selon une approche structurale afin de déterminer les configurations schématiques adéquates à l’intégration du robot social. Selon le psychosociologue Gustave-Nicolas Fischer, la relation peut revêtir trois formes principales : interpersonnelle, institutionnelle et sociale15. Nous proposons d’articuler ces trois types de relations comme des seuils relationnels et comme autant de niveaux de pertinence sémiotique sur lesquels le design d’interaction doit travailler afin d’intégrer le robot dans la sphère sociale.

16 :
 Aarron Walter, Design émotionnel, Paris, Eyrolles, 2011, p. 19.

1. Le premier seuil de socialité, celui des relations interpersonnelles, est celui où s’établissent et évoluent les relations de nature affective. Elles se fondent sur la fréquence et l’itération du contact entre les sujets, sur la dimension esthétique des inter-actants et l’existence d’un « sens commun », autrement dit d’un monde et/ou d’une téléologie partagés. C’est ici que se situent les premiers enjeux du design d’objet d’une part, et du design d’interaction de l’autre. En effet, la dimension esthétique étant primordiale, elle doit engager un effet de surprise admirative. Dans son ouvrage consacré au design émotionnel, Aarron Walter met en évidence le pouvoir des visages de bébés et notre sensibilité inconsciente à l’égard du beau (comme d’ailleurs du laid, pourrions-nous ajouter). Il souligne ainsi le rôle déterminant de l’esthétique et du caractère « mignon » (ce qu’il appelle « effet Waouh ») dans l’engagement émotionnel de tout utilisateur16. La dimension interactive est ce qui permet de convertir cette simple interpellation en un engagement du sujet : surprise et enchantement fonctionnent comme des amplificateurs de réponses émotionnelles de la part de l’usager. Un robot qui interpelle son utilisateur selon des modalités diversifiées donne l’impression de solliciter un contact et permet en ce sens de créer un lien. Ce lien peut se renforcer grâce au rôle fonctionnel du robot lorsqu’en qualité d’adjuvant il aide le sujet dans l’accomplissement d’une tâche visée par les deux acteurs (computationnellement pour l’un, intentionnellement pour l’autre).

17 :
 Nous avons soumis un questionnaire électronique à un groupe d’une vingtaine de personnes, étudiants ou professionnels dans le (...)

C’est en fonction de ce socle relationnel que peut s’amorcer une relation affective. Nous distinguerons sur ce plan trois composantes essentielles : l’attachement, l’affection et l’intimité. Si l’attachement relève surtout (dans le contexte de l’échange avec un objet technologique) de l’interpellation provoquée par l’effet de surprise admirative, les deux autres composantes ne peuvent s’instaurer que sur la base d’une certaine ouverture de soi dont devront faire preuve les deux interlocuteurs. Or, toute la difficulté tient au fait qu’un robot n’étant pas doté d’un « for intérieur », cette ouverture ne peut être qu’unilatérale, voire ne pas opérer du tout. C’est ce que soulignent les résultats d’une enquête que nous avons menée17. À la question « Pensez-vous être capable d’avoir de l’affection ou de l’empathie pour un robot ? Pourquoi ? », il n’est pas rare d’observer la négative dans la mesure où la réciproque n’est pas assurée : « Non, parce que ce n’est qu’un robot et qu’il n’a pas d’âme », « Pour moi un objet est un objet, s’il n’a ni de conscience, ni d’émotions, alors je n’ai pas à avoir de l’affection envers lui. De même pour un robot », « Si le robot ne me montre pas de signe d’affection en retour, je ne sais pas comment je me sentirai (sic) mais je serai (sic) probablement frustrée et gênée et plus capable de faire d’effort pour (essayer de) m’attacher ».

Cela signifie-t-il qu’aucune affection ou empathie n’est envisageable ? Ce n’est pas évident. Car si le robot n’est jamais considéré comme une espèce d’alter ego, il est très souvent reconnu comme un objet technologique qui, à ce titre, peut susciter un certain attachement : « Avoir de l’affection ou de l’empathie pour un robot actuellement est compliqué, le sentiment qu’on peut ressentir pour un robot peut être un lien d’attachement matériel ; il est plus aisé de considérer le robot comme un objet que comme une personne à l’heure actuelle, donc le lien sera plus identique au lien qu’on accorde à un objet qu’on aime et qu’on ne souhaite pas perdre ou casser », « Si l’intelligence artificielle du robot est bien développée, je pense qu’on peut avoir de l’empathie pour lui. Mais je sais que les caractéristiques physiques du robot sont aussi très importantes. Je suis actuellement dans une entreprise avec des ingénieurs qui travaillent sur un robot d’accueil. Ce robot a une petite voix sympa et une petite tête rigolote, donc on l’“aime” bien. Cela ne va pas bien loin au niveau de l’empathie, mais j’ai vu des vidéos de robots quadrupèdes qui imitent les comportements des animaux. Et les scientifiques leur donnent des coups de pied pour essayer de les faire tomber, et comme leur comportement est très proche de celui d’un animal, on a envie de prendre la défense du robot ».

18 :
 Tom Ziemke et Robert Lowe, « On the role of emotion in embodied cognitive architectures. From organisms to robots », Cognitive (...)

Dès lors, les trois composantes de la relation affective peuvent être envisagées comme autant de phases d’une sorte de séquence canonique de l’affectivité : i) l’« attachement » s’appuie sur des composantes esthétiques qui déclenchent un effet de surprise admirative découlant de l’aspect « mignon » du robot ; ii) l’« affection » se forge au gré des interactions avec l’objet, qui permettent à l’utilisateur de solliciter et de « s’ouvrir » davantage à lui ; iii) l’« intimité » se construit sur un échange réciproque des intériorités (ressentis, passions et affects) des sujets. Toutefois, dans le cas de l’interaction homme / robot, il ne s’agit pas d’une relation intersubjective mais bien d’une interaction homme / objet technologique qui, bien que doté d’une intelligence artificielle, ne peut accéder au statut de sujet. Cela malgré le fait que la robotique interne s’oriente vers une incarnation « organismique » qui vise à « recréer les mécanismes hypothétiques qui sont censés être constitutifs des processus émotionnels… tout en laissant place à l’émergence et à la flexibilité dans le comportement du robot »18. L’affectivité reste donc artificielle, parce que non fondée sur de véritables motions intimes du robot. En effet, même si ces travaux ont montré les relations étroites entre émotion et cognition, la perception des usagers reste fondamentalement liée au ressenti selon lequel un robot est un objet de programmation fabriqué par l’homme, un simulacre dépourvu d’instinct et d’émotivité réels, avec lequel ne peut donc pas s’engager une vraie relation interpersonnelle.

2. Au-delà de la question du rapport « interpersonnel », c’est la relation institutionnelle qui doit être pensée car elle va permettre de circonscrire les relations en jeu, en leur donnant un cadre. Une fois les relations interpersonnelles instaurées et un certain seuil d’acceptabilité du robot atteint, c’est sa place et sa fonction sociale qu’il faut déterminer. Ce deuxième niveau se fonde sur un régime de co-construction : les relations s’articulent au sein d’un système hiérarchique où les actants se répartissent les tâches et les fonctions nécessaires à l’accomplissement de l’action visée. Tel est le cas du robot assistant capable d’aider son utilisateur dans la réalisation de tâches qu’il n’est pas (ou plus) en mesure de réaliser. La relation se fonde en pareil cas sur une visée performative commune : effectuer une action pour laquelle le robot a été programmé. Il en va ainsi pour Nao qui vient en aide aux enfants autistes en leur permettant de s’ouvrir et de mieux communiquer. Nao engage de la sorte une relation soignant/soigné en situation thérapeutique.

L’intégration du robot dans un cadre passe par une reconstruction, voire une transformation des caractéristiques individuelles lors de leur absorption dans un rôle. Et cela, sous l’effet de la normalisation du rôle selon le contexte dans lequel il s’inscrit. À cette phase du processus de design d’objet, la question fondamentale à se poser est celle du rôle à assigner au robot social afin de déterminer, dans un second temps, les normes qui lui sont relatives. Ce n’est qu’à partir de ce balisage relationnel que les comportements sociaux du robot pourront être configurés.

Si la place du robot au sein de certaines institutions (éducation, médecine, travail, etc.) est aujourd’hui définie, l’un des problèmes de la robotique sociale tient au fait que, dans la majorité des cas, l’intégration du robot dans la situation sémiotique a été pensée avant ses relations « interpersonnelles » avec son partenaire humain. De ce fait, le processus de design adopté a principalement été celui du design d’objet, visant son intégration dans une scène pratique, et a relégué au second plan l’approche « intersubjective » du design d’interaction, omettant le rôle fondamental de la composante émotionnelle dans l’acceptation et l’appropriation des objets. Ainsi, le processus de développement du robot social ne s’est pas conformé au syntagme de la socialité.

19 :
 Voir notamment E. Landowski, Présences de l’autre, Paris, P.U.F., 1997 (chap. 1, « Quêtes d’identité, crises d’altérité », (...)

3. Quant aux relations sociales, dernier niveau de pertinence, elles se fondent sur des notions d’appartenance et de catégorie. La relation sociale, qui se trouve fondamentalement structurée par la distance sociale entre les individus, s’articule à travers les principes d’identité et de statut. Elle se caractérise par l’expérience de la différence (autrement dit de la position occupée par les acteurs au sein de la relation) et par l’expérience de la différenciation (la singularisation et l’affirmation de soi comme étant différent des autres). Elle engage ainsi des processus de différenciation à la faveur desquels se construisent les groupes et les catégories. Ces processus et stratégies d’identification-différenciation ont été abondamment analysés et théorisés en sémiotique, tant sur le plan individuel que sur le plan collectif19. Ce que nous pouvons ici en retenir est avant tout le fait que les relations sociales se fondent sur des savoirs sociaux construits à partir des perceptions et des évaluations que les groupes sociaux portent réciproquement les uns sur les autres.

Si la place du robot dans la société est globalement reconnue par le panel que nous avons interrogé, elle reste essentiellement réduite à son statut de machine. Entendu comme un co-acteur capable de réaliser des actions que l’homme ne peut pas ou ne peut plus accomplir, il doit cependant « rester à sa place » et ne pas voir sa fonction thématique assimilée à celle de l’homme. Le robot doit donc être capable de faire ce qu’un être humain peut faire, voire mieux, mais il doit demeurer différent de lui. En sémiotique comme en sociologie, c’est depuis longtemps un truisme que de dire que nos comportements à l’égard des autres se fondent sur les perceptions que nous en avons. Or les robots ne peuvent pas percevoir les autres au sens où le font les êtres humains — ni sur le plan sensoriel, évidemment, puisqu’ils ne « perçoivent » pas par les sens mais par des « senseurs » ou capteurs, ni en termes cognitifs, puisqu’ils sont dépourvus de cette faculté de juger grâce à laquelle nous modulons nos comportements et adaptons nos discours de manière (plus ou moins) appropriée.

Par suite, la relation qui, dans les rapports inter-personnels à proprement parler, se fonde sur une coordination permanente avec l’autre, en fonction de ses pensées, émotions et comportements, ne peut, en l’occurrence, être optimale. Et cela précisément parce que le robot ne peut pas avoir de pensées propres, étant seulement programmé pour réagir et adapter son comportement en fonction des situations et des attitudes anticipées de son utilisateur. De plus, il ne peut ressentir des émotions au sens strict du terme puisqu’il n’a ni histoire personnelle ni motions intimes susceptibles d’animer une « chair percevante » (cela bien que la robotique interne tente d’implémenter et de hiérarchiser les options comportementales du robot sous la forme d’un « instinct » simulé). La seule option ouverte à la robotique reste celle des comportements, lesquels dépendent du rôle du sujet et de ses objectifs. Cela implique une programmation des interactions du robot selon le rôle thématique qui lui a été confié, le contexte de l’interaction et les possibles aléas de l’échange. Ainsi, la plateforme robotique intègre des séquences canoniques et des modes prédicatifs prédéfinis.

20 :
 Au sens du régime interactionnel défini in E. Landowski, Les interactions risquées, Limoges, Pulim, 2005 (chap. 2, « De la (...)

Dès lors, compte tenu des principes fonctionnels de ces niveaux de pertinence, les régimes d’interaction adéquats à la relation homme / robot relèvent essentiellement de la programmation20. D’un côté, l’usager confine le robot dans le rôle thématique pour lequel il a été conçu (soignant, assistant, agent d’accueil…), et de l’autre, le robot agit sur le monde matériel (ouvrir une porte, décrocher le téléphone, aller chercher une revue) en termes d’interobjectivité et d’extériorité. Et c’est précisément la programmation du robot dans l’accomplissement de ces tâches spécifiques qui lui confère son rôle thématique.

21 :
 Op. cit., p. 18.
22 :
 Ibid., p. 40.

Il en résulte que la manipulation, autre régime interactionnel a priori envisageable, est exclu. L’usager, en effet, ne peut pas engager une interaction de ce type avec un robot étant donné que ce régime interactionnel, qui vise à « faire-faire », implique la possibilité, pour le « manipulateur », comme le précise Eric Landowski, de s’immiscer à quelque degré dans la « vie intérieure de l’autre » et d’influer sur ses motifs de façon suffisamment persuasive pour qu’il finisse par agir dans un sens déterminé. Or, nous savons que le robot est totalement dépourvu d’intériorité. Ses interactions sont fondées sur des principes de régularité de nature physique (plus spécifiquement, électronique) et déterminées par la projection de conditionnements socio-culturels propres aux interactions humaines sur la machine elle-même, sous la forme de programmes software. « Seul en effet ce qui est déjà programmé est programmable : c’est ce qui fait (en principe) la différence entre les états de la matière et les états d’âme »21. Ces conditionnements socio-culturels engagent des syntagmes de pratiques routinières qui opèrent comme des structures schématiques canoniques de comportements dans des situations d’interaction prédéterminées. Et dans la mesure où « pour arriver à ses fins, il suffit à un acteur de s’appuyer sur certaines déterminations préexistantes, stables et connaissables, du comportement d’un autre », c’est sur ces structures canoniques que la phase de conception du design interactif en robotique sociale doit s’appuyer22.

L’interaction homme / robot ne peut donc pas relever de la manipulation. Et cela pour deux raisons : tout d’abord parce que le robot est un non sujet. S’il est doté de compétences et d’aptitudes lui offrant la faculté de faire ce à quoi le destine son rôle thématique, il n’a pas la compétence modale du vouloir (motivations et raisons) propre au sujet. D’autre part, pour que la manipulation puisse effectivement être mise en œuvre, il faut que l’un au moins des acteurs reconnaisse à l’autre son statut de sujet et ses compétences. Or, il ne peut en être ainsi : le robot est bel et bien reconnu comme une machine, un objet performatif et non comme un sujet. En outre, il interagit sous la forme d’une réponse calculée à une sollicitation programmée ; de son point de vue, l’usager, tout comme ses requêtes, se ramènent à des paramètres de son algorithme et ses réponses ne passent en aucune façon par la reconnaissance d’un sujet à part entière en face de lui. Bien plus, le robot accomplit algorithmiquement ses tâches sans que ne se pose pour lui la question du sens de sa pratique. L’algorithme est immotivé (car le robot n’est pas doté d’une compétence modale) et s’inscrit dans le cadre d’une stricte programmation, régie par un principe de régularité qui renvoie à une forme ou à une autre de causalité (ce principe étant calqué sur la forme de vie de la personne pour laquelle le robot a été conçu ou le rôle thématique qui lui a été assigné). Il en résulte donc que les régularités produisent des identités totalement imperméables les unes aux autres et des sphères d’actions hermétiquement compartimentées.

23 :
 Cf. A.J. Greimas et J. Courtés, Sémiotique. Dictionnaire raisonné de la théoie du langage, Paris, Hachette, 1979 (entrée (...)
24 :
 Les interactions risquées, op. cit., p. 43.

Quant à la question de savoir si une interaction de type ajustement est possible, bien qu’elle appelle en définitive une réponse de principe elle aussi négative, elle est plus délicate et peut à notre sens être nuancée. Dans l’« ajustement », tel que conceptualisé par Landowski, la manière dont un acteur en influence un autre se fait dans le cadre de ce que l’auteur appelle la « logique de l’union » (distincte de celle, canonique en sémiotique narrative, de la « jonction »23). « Nous avons désormais affaire, écrit-il, à une interaction entre égaux, où les parties co-ordonnent leurs dynamiques respectives sur le mode d’un faire ensemble. Et ce qui leur permet de s’ajuster de la sorte l’un à l’autre, c’est une capacité nouvelle […] : celle de se sentir réciproquement »24. Cette interaction est fondée sur le faire sentir, non plus sous la forme cognitive de la persuasion (entre intelligences), comme dans la manipulation, mais sur le mode esthésique de la contagion (entre sensibilités). Bien que nous ayons souligné le fait qu’un robot est dépourvu de motions intimes, il nous paraît nécessaire à ce stade de nuancer le contenu de cette « compétence esthésique » invoquée par l’auteur des Interactions risquées.

25 :
 Présentation du robot PARO sur le site : www.phoque-paro.fr.
26 :
 Les interactions risquées, op. cit., p. 44.
27 :
 De fait, la sensibilité « perceptive » est quant à elle définie par l’auteur comme ce qui « permet non seulement d’éprouver (...)
28 :
 Ibid., p. 45.

Pour cela, prenons l’exemple du robot socio-pédagogique PARO, développé dans le but de proposer une thérapie relationnelle aux malades Alzheimer. « Une douzaine de capteurs (toucher, positionnement, lumière) et trois microphones (détection de la provenance du son par triangulation) renvoient des informations sur l’interaction avec le malade à un logiciel d’intelligence artificielle qui adapte en conséquence les mouvements et l’intonation du PARO afin de fournir à chaque malade la meilleure stimulation cognitive possible. PARO peut donc communiquer au patient des émotions telles que la joie, la surprise ou le mécontentement »25. En termes sémiotiques, cela revient à dire que ce type de robot, utilisé en thérapie relationnelle individuelle, est doté de la forme spécifique de « sensibilité » que Landowski appelle « réactive »26. Définie par opposition à la sensibilité « perceptive », qu’en revanche les robots n’ont pas27, elle renvoie à la capacité de réaction ponctuelle de l’objet aux impulsions que l’utilisateur lui donne : « réactions aux motions les plus discrètes et subtiles de l’utilisateur, [la sensibilité réactive peut donner] l’impression que la machine “sent” son partenaire »28. Ainsi, lorsque qu’une programmation est hautement sophistiquée et bien adaptée à un projet d’agir ensemble spécifique, elle s’avère proche du régime de l’ajustement, ou du moins tend à en donner en surface une simulation crédible.

L’optimisation de la relation homme / machine devrait par conséquent se fonder sur un développement des structures interactionnelles relevant de la programmation et de l’ajustement, ce dernier étant davantage de nature pragmatique (il s’agit pour la machine d’assurer la continuité du flux de la pratique engagée par l’homme) qu’esthésique (les senseurs de PARO lui permettant de répondre à une sollicitation d’ordre tactile de l’utilisateur).

4. Le robot social : de l’objet technologique au véritable compagnon

Si le rôle de l’anthropomorphisme est primordial dans la relation entre l’homme et le robot, il convient à présent de comprendre dans quelle mesure il permet au sujet d’adhérer au robot : est-ce au niveau pragmatique ou au niveau communicationnel ? Car la nature du robot lui-même s’avère assez complexe.

29 :
 Denis Vidal, « Vers un nouveau pacte anthropomorphique ! », Gradhiva, 15, 2015 (http://gradhiva.revues.org/2319).

Dans un article consacré aux enjeux de la robotique, l’anthropologue Denis Vidal évoque une réunion qui eut lieu dans l’appartement témoin de Homelab, plateforme de recherche de l’Institut de la vision29. Alors que le responsable du projet proposait de montrer à l’assemblée comment le robot Roméo fonctionne, NAO interrompait à intervalles réguliers le cours de la réunion. Ce qui a engendré de la part de l’une des membres de l’institut diverses réactions, telles que : « Ça veut dire quoi ? », « Il est sourd ? », « Il n’a plus envie ? ». Cet échange est très significatif car si le chef de projet propose une réflexion sur le robot en tant qu’objet fonctionnel, les réactions de son interlocutrice soulignent le rôle fondamental de l’anthropomorphisme qui incitait cette personne à appréhender le robot comme un quasi-sujet. Ainsi la plateforme robotique revêt-elle une double nature, celle d’objet et de quasi-sujet, ce qui implique une double approche dans son processus de développement. En qualité d’objet, le robot intègre un processus d’appropriation et en tant que quasi-sujet, il engage un processus d’intégration sociale.

30 :
 Bernard Blandin, La construction du social par les objets, Paris, P.U.F., 2002, p. 64.
31 :
 Cf. A.J. Greimas et J. Courtés, Sémiotique. Dictionnaire…, op.cit. (entrée « Programme narratif », points 5 et sq.).

L’appropriation se réalise véritablement lors du changement de statut de l’objet qui passe de celui de « chose » à celui d’un « instrument » dont les structures et configurations s’adaptent aux mouvements corporels de l’utilisateur. Elle trouve son point d’ancrage dans les interfaces qui manifestent ce que le sociologue Bernard Blandin appelle des « schèmes d’utilisation », autrement dit des « structures corporelles guidant la conduite dans les actions instrumentées au moment d’agir »30. Ces schèmes d’utilisation sont des structures sensori-motrices qui correspondent à une adaptation corporelle et intentionnelle du sujet percevant, manipulateur de l’objet, aux structures morphologiques de ce dernier. Blandin en distingue deux catégories : i) les schèmes d’action instrumentée orientés vers l’accomplissement de l’activité principale pour laquelle l’instrument a été conçu (ce que la sémiotique greimassienne appelle le programme narratif de base) ; ii) les schèmes d’usage, relatifs aux tâches secondes (les procédures relevant du programme narratif d’usage)31.

32 :
 Pierre Rabardel, Les hommes et les technologies. Approche cognitive des instruments contemporains, Paris, Colin, 1995, p. 116.
33 :
 En effet, pour que s’établissent des relations dans un registre tel que celui de l’utilité, il est nécessaire que le sujet soit (...)

Les schèmes d’utilisation « permettent d’attribuer des significations aux objets en fonction de l’orientation de l’activité du sujet [autrement dit son horizon de visée] et des tâches. Ils permettent de leur assigner des statuts, d’une part en termes de buts et de sous-buts, d’états, changements d’états et transformations opérables sur les objets, d’autre part en termes de moyens, c’est-à-dire d’instruments pertinents pour des actions possibles »32. De nature procédurale, la signification ainsi construite se trouve doublement conditionnée : i) par l’horizon de visée du sujet, l’orientation de son vouloir-faire dans l’accomplissement du programme narratif de base33 ; ii) par la situation sémiotique, autrement dit les tensions du flux contextuel, qui configure la sémiose en une coordination stratégique. Aussi l’interface assure-t-elle une double médiation : i) pragmatique, elle offre les moyens d’une action et détermine la relation d’utilité à l’objet ; ii) épistémique, elle permet la connaissance de cet objet et instaure une relation à ce dernier dans le registre cognitif.

34 :
 Cf. Michela Deni, Les objets factitifs, in J. Fontanille et A. Zinna (éds.), Les objets au quotidien,Limoges, Pulim, 2005.

Or, l’utilisation de la plateforme robotique se distingue fondamentalement de celle des outils techniques. Cela tient au fait que le robot dispose d’une certaine autonomie et qu’il ne se manipule pas selon des principes d’affordance et de factitivité propres aux objets techniques34. Le statut de l’objet robotique s’avère lui-même problématique car il ne s’agit pas d’un instrument à proprement parler. Il intègre un dispositif interactif qui n’opère pas selon le principe de la manipulation mais qui relève davantage du principe conversationnel. À côté des schèmes d’utilisation proposés par Rabardel, il est donc nécessaire d’en penser de nouveaux, adaptés à la spécificité de l’objet robotique. Il s’agit de déterminer ces interfaces en fonction des structures configurationnelles sensori-motrices qui émergent et s’ordonnancent dans et par la pratique de l’objet. En d’autres termes, il importe de s’appuyer sur les régimes d’interactions programmés selon la pratique et la situation sémiotique intégrées par le robot.

35 :
 D. Norman, Design émotionnel. Pourquoi aimons-nous ou détestons-nous les objets qui nous entourent ?, Bruxelles, de Boeck, 2012, (...)

On constate ainsi que le robot se situe dans un entre-deux statutaire, celui du quasi-objet et du quasi-sujet, et que ces processus d’appropriation et d’intégration sont extrêmement imbriqués et engagent des effets de réciprocité. En effet, son appropriation ne repose pas uniquement sur un processus cognitif débrayé à partir d’une instance perceptive. Quant au sujet, il ne s’agit pas non plus d’un utilisateur à proprement parler dans la mesure où l’objet n’est pas véritablement pratiqué. De plus, il n’est pas seulement un être pragmatique et intellectuel mais un être qui se laisse guider par ses affects et ses émotions. Dans un ouvrage sur le « design émotionnel », Donald Norman souligne le rôle fondamental que jouent les affects dans la dynamique interprétative des objets. Il remarque notamment que si la cognition permet au sujet d’interpréter et de comprendre le monde qui l’entoure, ses émotions conditionnent ses prises de décision selon les situations : « Habituellement, écrit-il, nous réagissons émotionnellement à une situation avant de l’évaluer cognitivement, car la survie est plus importante que la compréhension »35. La thèse fondamentale qu’il défend est que notre expérience du monde se trouve forgée selon trois niveaux différents mais interconnectés, à savoir les niveaux qu’il dénomme respectivement viscéral, comportemental et réflexif (une variante lointaine, peut-être, de la tripartition peircienne ?). C’est dire que le processus d’appropriation de toute objet ne pourrait s’accomplir sans la dimension sensible et émotionnelle qui le conditionne fondamentalement.

Au regard de cette approche, le double processus de l’appropriation et de l’intégration sociale du robot pourrait être représenté à travers l’articulation des trois phases suivantes (chacune d’entre elles offrant des leviers stratégiques pour la phase de conception du design d’objet et d’interaction du robot social) :

i) Prédisposition à la relation S/O

Le niveau dit viscéral donne le primat à la dimension esthétique (pouvoir largement répandu du visage des bébés ; sensibilité inconsciente au beau). Simple et primitif, le niveau viscéral émet des jugements corporels et somatiques sur les objets du monde environnant à partir des informations sensorielles reçues et engage en conséquence des mouvements du corps. Il instaure les conditions d’un vouloir qui prédispose à la poursuite du processus de découverte de l’objet.

36 :
 Cf. Anne Beyaert-Geslin, Sémiotique du design, Paris, P.U.F., 2012.

À ce stade de son processus d’appropriation, le robot émerge dans le champ de présence sur le mode du survenir, à la manière d’un « objet-événement », pour reprendre une expression d’Anne Beyaert-Geslin36. Véritable attracteur visuel manifestant une certaine saillance qui déjoue les habitudes du sujet (d’abord simple observateur), il l’interroge par une incertitude quant à son statut et à sa fonction. Sa morphologie, ses couleurs et ses textures constituent ensuite autant de débrayages qui invitent à une scrutation locale des éléments de l’objet. L’intensification du voir se trouve alors modalisée par un vouloir-savoir qui culmine dans l’engagement du toucher.

Au niveau du processus d’intégration sociale, le robot et le sujet humain sont engagés dans une relation interpersonnelle, garantie par une téléologie et une visée communes.

ii) Expérimentation du quasi-objet. Interaction avec le quasi-sujet

Ce niveau comportemental se fonde sur des habitudes pratiques et des routines d’usage acquises au cours des différentes expériences du sujet. Il s’agit ici d’évaluer l’usage de l’objet en termes de fonctionnalité et d’efficacité. C’est à ce niveau que se noue la relation sujet / objet proprement dite.

37 :
 Cf. Michela Deni, op. cit.

L’objet devient un « objet-action » qui engage le sujet dans la projection d’un programme d’actions fondé sur la mise en relation de cet objet avec la connaissance qu’il a de la structure d’objets de même type et des schèmes sensori-moteurs qui lui sont associés. C’est ici que le sujet opère un découpage de la méréologie de l’objet en identifiant ses éléments de structure et en instaurant les relations prédicatives entre les parties de l’objet et les parties de l’action qu’elles accomplissent. Dès lors, la sémiose opère non plus à partir de l’interprétation des signes communiquant la fonctionnalité de l’objet mais au sein de l’usage lui-même, dans un rapport perceptif et performatif avec l’objet37.

Or, la fonctionnalité communicationnelle de l’objet s’avérant inopérante (la factitivité se trouvant ici réduite par un défaut d’interface et de sollicitation à l’action), c’est la composante interactionnelle des relations institutionnelles homme / robot qui prend le pas. Robot et usager humain, chacun doté de sa propre thématique, co-construisent l’acte performatif selon des régimes de programmation et d’adaptation pragmatique. C’est notamment au fil de la relation que l’attachement peut se mouvoir en affection.

iii) Appropriation. Intégration sociale

Ce niveau réflexif, qui est fortement conditionné par la culture, l’expérience, l’éducation et les orientations individuelles, fixe la signification de l’objet en même temps qu’il détermine l’image de l’usager qui le possède : une image qui est à la fois celle de lui-même (Soi) et celle qu’il transmet aux autres par le fait de posséder et d’utiliser l’objet en question. L’objet devient ainsi un « objet-présence ». Il se situe entre l’habituation et l’événement. Autoréflexif, il mobilise le toucher qui permet de se toucher soi-même sur le mode du toucher-touchant husserlien. Ce toucher, précise Anne Beyaert-Geslin, correspond à la caresse de Lévinas : c’est un toucher inorganisé qui ne vise ni la reconnaissance de l’objet mémorisé ni la découverte d’un objet nouveau mais qui a pour unique finalité l’accomplissement de la présence. À ce stade, l’objet devient un objet-compagnon dont le sujet apprécie la compagnie (dimension émotionnelle du design au sens où D. Norman et A. Walter l’entendent). Relevant d’une esthétique de la fréquentation, l’objet-présence transforme l’usager en esthète et acquiert une dimension sociale où le soi individuel alors construit par l’objet intègre le soi collectif. L’objet-présence construit un soi sensible et émotionnel à mesure qu’il construit l’image que ce même soi renvoie à la communauté à laquelle il appartient. L’intégration sociale du robot se trouve alors accomplie. Sa construction identitaire (ainsi que celle du sujet) repose sur une différenciation catégorielle qui fonde les relations d’identité et de statut.

Références bibliographiques haut de la page

Airenti, Gabriella, « Aux origines de l’anthropomorphisme », Gradhiva, 15, 2012 (http://gradhiva.revues.org/2314).

Beyaert-Geslin, Anne, Sémiotique du design, Paris, P.U.F., 2012.

Blandin, Bernard, La construction du social par les objets, Paris, P.U.F., 2002.

Cardoso, Stéphanie, « Amicalité des robots de compagnie. Une poïétique par le design », in D. Tsala Effa et S. Walsh-Matthews (éds.), Être avec les robots humanoïdes, Interfaces numériques, 4, 2013.

Deni, Michela, Les objets factitifs, in J. Fontanille et A. Zinna (éds.), Les objets au quotidien,Limoges, Pulim, 2005.

Devillers, Laurence, « Les dimensions affectives et sociales dans les interactions humain-robot », in D. Tsala Effa et S. Walsh-Matthews (éds.), Être avec les robots humanoïdes, Interfaces numériques, 4, 2013.

Dumouchel, Paul et Luisa Damanio, Vivre avec les robots. Essai sur l’empathie artificielle, Paris, Seuil, 2016.

Fischer, Gustave-Nicolas, « Le concept de relation en psychologie sociale », Recherche en soins infirmiers, 56, 1999.

Floch, Jean-Marie, Sémiotique, marketing et communication : sous les signes, les stratégies, Paris, P.U.F., 1990.

Greimas, A.J. et J. Courtés, Sémiotique. Dictionnaire raisonné de la théoie du langage, Paris, Hachette, 1979.

Grimaud, Emmanuel, « Androïde cherche humain pour contact électrique », Gradhiva, 15, 2012 (http://gradhiva.revues.org/2328).

Landowski, Eric, Présences de l’autre, Paris, P.U.F., 1997.
— « Jonction versus Union », in id., Passions sans nom, Paris, P.U.F., 2004.
Les interactions risquées, Limoges, Pulim, 2005.

Norman, Donald, « Design émotionnel. Pourquoi aimons-nous ou détestons-nous les objets qui nous entourent ? », Bruxelles, de Boeck, 2012

Rabardel, Pierre, Les hommes et les technologies. Approche cognitive des instruments contemporains. Paris, Colin, 1995.

Simondon, Gilbert, Du mode d’existence des objets techniques, Paris, Aubier, 1958.

Tomasello, Michael, Origins of Human Communication, Cambridge, MIT Press, 2008.

Tsala, Didier, « Formes de présence avec les robots humanoïdes ? A partir de quelques chorégraphies des robots Nao et Asimo », in D. Tsala Effa et S. Walsh-Matthews (éds.), Être avec les robots humanoïdes, Interfaces numériques, 4, 2013.

Vidal, Denis, « Vers un nouveau pacte anthropomorphique ! », Gradhiva, 15, 2015 (http://gradhiva.revues. org/2319).

Walter, Aarron, Design émotionnel, Paris, Eyrolles, 2011.

Ziemke, Tom et Robert Lowe, “On the role of emotion in embodied cognitive architectures. From organisms to robots”, Cognitive Computation, 1, 1, 2009.

Notes haut de la page

1  Paul Dumouchel et Luisa Damanio, Vivre avec les robots. Essai sur l’empathie artificielle, Paris, Seuil, 2016, pp. 28-29.

2  Emmanuel Grimaud, « Androïde cherche humain pour contact électrique », Gradhiva, 15, 2012 (http://gradhiva.revues.org/2328).

3  Gabriella Airenti, « Aux origines de l’anthropomorphisme », Gradhiva, 15, 2012 (http://gradhiva.revues.org/2314).

4  Jean-Marie Floch oppose, comme on sait, sur l’axe des contraires du carré sémiotique les « valeurs “utilitaires” (valorisation pratique) » aux « valeurs “existentielles” (valorisation utopique) », et sur l’axe des subcontraires la « valorisation critique » à la « valorisation ludique ». Sémiotique, marketing et communication : sous les signes, les stratégies, Paris, PUF,1990, p. 131.

5  Cf. Stéphanie Cardoso, « Amicalité des robots de compagnie. Une poïétique par le design », in D. Tsala Effa et S. Walsh-Matthews (éds.), Être avec les robots humanoïdes, Interfaces numériques, 4, 2013.

6  Laurence Devillers, « Les dimensions affectives et sociales dans les interactions humain-robot », in D. Tsala Effa et S. Walsh-Matthews (éds.), Être avec les robots humanoïdes, Interfaces numériques, 4, 2013, p. 107.

7  P. Dumouchel et L. Damanio, op. cit., p. 7.

8  Gilbert Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1958, p. 256.

9  Cf. Gabriella Airenti, art. cit.

10  Les résultats de l’étude sont disponibles à l’adresse suivante : http://reflexions.ulg.ac.be/cms/c_26370/fr/l-anthropomorphisme-un-pont-de-singe-entre-deux-mondes?portal=j_55&printView=true

11  G. Airenti, art. cit., p. 36.

12  Michael Tomasello, Origins of Human Communication, Cambridge, MIT Press, 2008, pp. 75 (traduction de Véronique Servais proposée lors d’une conférence à l’Association belge francophone des journalistes scientifiques : « Dialogue avec les singes. L’anthropomorphisme comme mode de relation dans les rencontres entre visiteurs et primates en zoo »).

13  G. Airenti, ibid.

14  G. Airenti, art. cit., pp. 49-50.

15  Gustave-Nicolas Fischer, « Le concept de relation en psychologie sociale », Recherche en soins infirmiers, 56, 1999.

16  Aarron Walter, Design émotionnel, Paris, Eyrolles, 2011, p. 19.

17  Nous avons soumis un questionnaire électronique à un groupe d’une vingtaine de personnes, étudiants ou professionnels dans le domaine du numérique. Les sept questions posées étaient les suivantes : 1. Selon vous, à quoi un robot peut-il servir ? ; 2. Comment imaginez-vous ce robot ? ; 3. Croyez-vous en la recherche sur la robotique ? En quoi pensez-vous qu’elle puisse être utile ? ; 4. Pensez-vous être capable d’avoir de l’affection ou de l’empathie pour un robot ? Pourquoi ? ; 5. Quels sont, selon vous, les facteurs d’intégration d’un robot au sein de votre foyer ? Qu’est-ce qui fait qu’un robot peut devenir un véritable ami ? ; 6. Quels sont les facteurs qui vous feraient rejeter le robot ? ; 7. La robotique sociale travaille actuellement sur la question de l’empathie artificielle. Que pensez-vous de ce robot capable de « ressentir » des émotions ? Pourquoi ?

18  Tom Ziemke et Robert Lowe, « On the role of emotion in embodied cognitive architectures. From organisms to robots », Cognitive Computation, 1, 1, 2009 (trad. fr. in P. Dumouchel et L. Damanio, op. cit., p. 108).

19  Voir notamment E. Landowski, Présences de l’autre, Paris, P.U.F., 1997 (chap. 1, « Quêtes d’identité, crises d’altérité », et 2, « Formes de l’altérité et styles de vie »).

20  Au sens du régime interactionnel défini in E. Landowski, Les interactions risquées, Limoges, Pulim, 2005 (chap. 2, « De la programmation à la stratégie »).

21  Op. cit., p. 18.

22  Ibid., p. 40.

23  Cf. A.J. Greimas et J. Courtés, Sémiotique. Dictionnaire raisonné de la théoie du langage, Paris, Hachette, 1979 (entrée « Jonction ») et E. Landowski, « Jonction versus Union », in id., Passions sans nom, Paris, P.U.F., 2004 (chap. 3).

24  Les interactions risquées, op. cit., p. 43.

25  Présentation du robot PARO sur le site : www.phoque-paro.fr.

26  Les interactions risquées, op. cit., p. 44.

27  De fait, la sensibilité « perceptive » est quant à elle définie par l’auteur comme ce qui « permet non seulement d’éprouver par les sens les variations perceptibles du monde extérieur (...) et de ressentir les modulations internes affectant les états du corps propre, mais aussi d’interpréter l’ensemble de ces solutions de continuité en termes de sensations différenciées faisant elles-mêmes sens ». Ibid.

28  Ibid., p. 45.

29  Denis Vidal, « Vers un nouveau pacte anthropomorphique ! », Gradhiva, 15, 2015 (http://gradhiva.revues.org/2319).

30  Bernard Blandin, La construction du social par les objets, Paris, P.U.F., 2002, p. 64.

31  Cf. A.J. Greimas et J. Courtés, Sémiotique. Dictionnaire…, op.cit. (entrée « Programme narratif », points 5 et sq.).

32  Pierre Rabardel, Les hommes et les technologies. Approche cognitive des instruments contemporains, Paris, Colin, 1995, p. 116.

33  En effet, pour que s’établissent des relations dans un registre tel que celui de l’utilité, il est nécessaire que le sujet soit animé par une intention d’agir sur ou avec l’objet : « il doit y avoir manifestation d’une certaine volonté ou de l’intention d’intégrer l’objet dans une action, dont il devient l’instrument. L’objet doit alors changer de statut, il ne doit plus être simplement un “objet”, c’est-à-dire “posé comme distinct [du sujet] dans une altérité absolue”. Il doit être incorporé dans le champ d’action du sujet, dont il devient le prolongement, une sorte de prothèse dans laquelle le sujet excorpore une part de son activité physique, psychique ou sociale » (B. Blandin, op. cit., pp. 243-244). Cette proposition mérite cependant une précision : l’intention de manipuler l’objet, le vouloir qui engage le sujet dans la scène pratique, repose sur les aspects perspectifs de l’objet lui-même, autrement dit dans les multiples esquisses qui sollicitent variablement le sujet et l’invitent à engager certains mouvements et gestes spécifiques.

34  Cf. Michela Deni, Les objets factitifs, in J. Fontanille et A. Zinna (éds.), Les objets au quotidien,Limoges, Pulim, 2005.

35  D. Norman, Design émotionnel. Pourquoi aimons-nous ou détestons-nous les objets qui nous entourent ?, Bruxelles, de Boeck, 2012, pp. 19-20.

36  Cf. Anne Beyaert-Geslin, Sémiotique du design, Paris, P.U.F., 2012.

37  Cf. Michela Deni, op. cit.

Pour citer ce document haut de la page

Audrey Moutat «Robotique humanoïde et interaction sociale», Actes Sémiotiques [En ligne]. 2018, n° 121. Disponible sur : <http://epublications.unilim.fr/revues/as/6132> (consulté le 16/07/2018)