Image 20160921 21720 1ytw7kd

Comment rendre l’intelligence artificielle plus généreuse

Comment rendre l’intelligence artificielle plus généreuse

Shutterstock/Christian Lagerek

Cet article est publié dans le cadre de la première édition du Festival des idées, un événement organisé du 15 au 19 novembre 2016 par USPC et dont The Conversation est partenaire.

La coopération est l’une des caractéristiques de l’être humain. Nous sommes une espèce extrêmement sociale par rapport à d’autres. Habituellement, nous nous aidons tous les uns les autres de façon peu spectaculaire mais importante pour nous : laisser passer quelqu’un sur la route ou donner un pourboire quand on est satisfait.

Nous faisons cela sans aucune garantie de retour sur investissement. Les dons sont d’un faible coût personnel, mais avec un grand avantage pour le bénéficiaire. Cette forme de coopération, le don aux autres, a été baptisée réciprocité indirecte. Elle aide à la société humaine à prospérer.

Le comportement de groupe chez l’humain a évolué à l’origine pour surmonter la menace des grands prédateurs. Cela a conduit à nous avoir un cerveau sophistiqué avec des capacités sociales, qui est de plus grande taille, sans tenir compte des proportions que ceux des autres espèces. L’hypothèse du cerveau social est fondée sur cette idée : il suggère que le gros cerveau humain est une conséquence de l’évolution des humains dans des groupes sociaux complexes où la coopération est un élément distinctif.

La réciprocité indirecte est importante parce que nous voyons les individus donner dans la société malgré la menace des « passagers clandestins ». C’est-à-dire les participants qui reçoivent mais ne donnent pas. Cette idée est une énigme complexe, qui intéresse plusieurs disciplines : quelles sont les conditions dans la nature qui favorisent le fait de donner par rapport à l’égoïsme ?

Enseigner les codes sociaux aux robots pour mieux les intégrer dans la société humaine. Shutterstock/Michael Bednarek

Des économistes, biologistes, mathématiciens, sociologues, psychologues et d’autres encore ont tous examiné le comportement de don. Une enquête difficile, car elle consiste à observer le processus de l’évolution humaine. Mais l’informatique peut apporter une contribution importante.

En utilisant des logiciels, nous pouvons simuler des groupes simplifiés d’humains dans lesquels les individus choisissent de s’aider les uns les autres, utilisant différentes stratégies de dons. Cela nous permet d’étudier l’évolution de ce comportement en créant artificiellement les générations suivantes du groupe. Ce sont les stratégies de dons les plus efficaces qui auront une plus grande chance d’exister dans la prochaine génération.

Aujourd’hui, la coopération devient de plus en plus importante dans les domaines de l’ingénierie et de la technologie. Beaucoup d’appareils intelligents et autonomes, comme les voitures sans conducteur, les drones et les smartphones, font leur apparition et comme ces « robots » deviennent de plus en plus sophistiqués, nous devrons imaginer comment ils coopéreront quand ils entreront en contact avec d’autres appareils ou des humains.

Comment ces dispositifs devraient-il choisir de s’aider les uns les autres ? Comment éviter que des passagers clandestins exploitent la situation ? En franchissant les frontières traditionnelles entre disciplines académiques, nous pouvons fournir de nouvelles perspectives utiles pour les technologies émergentes. Cela peut permettre le développement d’une intelligence qui peut aider une technologie autonome à décider de faire preuve de générosité dans une situation donnée.

Modéliser l’évolution

Pour comprendre comment la coopération peut évoluer dans les groupes sociaux, nous avons effectué des centaines de milliers de « jeux de dons » simulés par ordinateur entre des joueurs virtuels appariés au hasard. Le premier joueur de chaque paire prenait une décision sur l’opportunité ou pas de donner à l’autre joueur. Ceci était fondé sur la façon dont ils jugeaient leur réputation. Si le joueur choisissait de faire un don, il enregistrait un coût et le récepteur, un avantage. La réputation de chaque joueur était ensuite mise à jour à la lumière de ce qui venait de se passer, et un autre jeu était lancé. Cela nous a permis d’observer quelles prises de décision fondées sur des comparaisons sociales donnaient une meilleure récompense.

Comparer est un autre élément clé du comportement humain que nous avons cherché à comprendre. Évoluant en groupes, nous sommes devenus habiles à nous comparer avec les autres et cela est très pertinent pour prendre de bonnes décisions de dons. Décider de ce genre de chose est un défi cognitif considérable quand les groupes sociaux sont grands : jauger les autres de cette manière aurait pu aider à une évolution vers des cerveaux humains plus importants.

Le comportement particulier de don que nous avons utilisé dans notre recherche a été basé sur les joueurs qui font des comparaisons de réputation par rapport à leur sienne propre. Cela conduit à un petit nombre de résultats possibles, par exemple, par rapport à moi-même, votre réputation pourrait être considérée globalement similaire, supérieure ou inférieure. L’élément majeur est d’estimer la réputation de quelqu’un d’une manière significative.

Les machines devront coopérer. Shutterstock

Nos résultats ont montré que l’évolution favorise une stratégie de donations à ceux qui ont au moins aussi bonne réputation que nous. Nous appelons cela « homophilie avec une ambition », c’est-à-dire une attirance pour les personnes qui nous ressemblent qui doit nous rapporter quelque chose. Cela implique deux éléments : premièrement, être généreux entretient la réputation ; deuxièmement, ne pas donner à des joueurs de réputation faible contribue à barrer la route aux passagers clandestins.

Il est important de se rappeler que nos résultats sont issus d’un modèle simplifié : les décisions de dons simulées n’admettent pas d’exceptions telles qu’on les trouve dans la vie réelle, et les facteurs économiques sont supposés être à l’origine des comportements plutôt que des facteurs émotionnels ou culturels. Néanmoins, cette simplification nous permet de gagner en clarté.

Chose importante, l’hypothèse du cerveau social est validée par nos conclusions : le gros cerveau humain est une conséquence d’hommes évoluant dans des groupes sociaux complexes où la coopération est un élément distinctif. Comprendre cela grâce à l’informatique ouvre de nouvelles possibilités conceptuelles pour le développement d’une intelligence sociale sophistiquée pour les systèmes autonomes.

This article was originally published in English