La frontière entre la réalité et la fiction peut facilement devenir floue lorsqu’il s’agit d’Intelligence Artificielle (IA). L’Intelligence Générale Artificielle (AGI) est la capacité d’une machine à apprendre jusqu’à atteindre un niveau où elle peut accomplir des tâches qui nécessitent de prendre des décisions, d’une qualité similaire à celle des êtres humains.
Une intelligence artificielle avec une conscience, capable de porter des jugements plutôt que de suivre aveuglément des instructions prédéfinies, est bien sûr incroyablement utile dans de nombreux contextes pratiques. Mais cela devient encore plus intrigant lorsque nous ajoutons du langage.
L’IA conversationnelle nous rapproche d’une représentation de nous-mêmes et d’une interaction qui s’apparente à l’établissement d’une relation. Bien sûr, le but ultime est de développer un système AGI qui ne se distingue pas de l’interaction humaine. Un système dont peut-être même ses propres développeurs perçoivent un niveau de sensibilité et de conscience artificielle qui ne peut sûrement pas exister. Ou peut-il ?
C’est cette ombre de doute dans l’esprit des utilisateurs que les développeurs d’IA recherchent lorsqu’il s’agit d’IA conversationnelle. Ce but ultime de la conscience perçue.
Un thème sans cesse intrigant qui fait rêver
L’idée que l’intelligence artificielle franchisse la frontière entre les humains et les machines nous intrigue depuis des décennies. Le monde de la science-fiction explore d’innombrables exemples de problèmes éthiques pour des êtres artificiels qui se déclarent sentients et revendiquent leurs droits. Des répliques du roman de Philip K. Dick de 1968 Do Androids Dream of Electric Sheep ?, plus tard adapté au film primé Blade Runner, à Spike Jonze’s Her, où un écrivain solitaire tombe amoureux de son système d’exploitation, nous sommes continuellement fascinés par le concept de la conscience artificielle.
Une préoccupation éthique intéressante
Les machines capables de « penser » par elles-mêmes suscitent de nombreuses considérations éthiques. Bien sûr, nous avons ceux qui atteignent les domaines de la science-fiction. Si une IA vous dit qu’elle a une conscience, qu’elle a des pensées individuelles, des idées, des espoirs et des peurs, a-t-elle alors des droits ? Ou un chatbot sentient pourrait-il utiliser ses capacités pour passer outre le but pour lequel il a été créé et forger son propre avenir, pour le bien ou pour le mal ? Pour revenir plus près de la réalité, nous avons d’autres préoccupations éthiques plus réalistes. Par exemple, si l’IA est utilisée par les entreprises pour communiquer avec les clients, faut-il obligatoirement informer les utilisateurs qu’ils échangent avec une intelligence artificielle ?
Comment déterminons-nous « l’intelligence » ?
Un ordinateur peut donner des réponses déterminées par un ensemble particulier de variables, mais quand cela devient-il quelque chose que nous pouvons appeler de manière réaliste l’intelligence artificielle ? C’est là que le test de Turing entre en jeu. Créé par l’informaticien Alan Turing dans les années 1950, ce test, également appelé “The Imitation Game”, donne à un utilisateur un accès aveugle à une machine artificiellement intelligente, aux côtés d’êtres humains. Si les utilisateurs ne peuvent pas déterminer quelle est la personne réelle et quelle est la machine, alors la machine a réussi le test.
L’IA dans l’actualité – le système LaMDA de Google
L’une des histoires les plus curieuses à avoir été diffusée dans les médias ces derniers temps est celle de l’ingénieur Google Blake Lemoine et de son travail avec Google LaMDA. LaMDA, ou Language Model for Developed Applications, est un système de développement de chatbot créé par Google. Avec un accès aux données dans de nombreuses langues différentes, ce chatbot avancé a été qualifié de révolutionnaire. De telles avancées technologiques ne font généralement pas l’actualité grand public, cependant, LaMDA l’a certainement fait, lorsqu’un des ingénieurs travaillant sur le projet a proclamé que le système était devenu conscient, croyant vraiment que Google avait créé un chatbot sentient. Le problème avec l’IA, c’est qu’elle se développe au-delà de sa programmation. Vous ne savez jamais vraiment quelle direction cela peut prendre, en particulier lorsque les humains sont impliqués, et c’était certainement le cas avec le chatbot Tay de Microsoft.
Tay – le projet d’IA qui a échoué
Lorsque Microsoft a lancé son système Tay AI sur Twitter en 2016, il espérait s’engager auprès de la génération Y, et c’est certainement ce qu’il a fait. Cependant, le résultat n’était pas tout à fait ce qu’il avait espéré. Le système a repris et répété les interactions avec son public, qui comprenait de nombreuses opinions politiques racistes et controversées. Le système est devenu si incendiaire qu’il a finalement été mis hors ligne et une leçon importante concernant la qualité des données et la conscience artificielle a été apprise.
Le facteur d’ambiguïté des réseaux de neurones artificiels
La plupart des systèmes informatiques sont faciles à comprendre. L’entrée se transforme en sortie. Lorsque vous savez ce qui est entré, vous savez ce qui doit être sorti. Si la sortie est incorrecte, le programme est défectueux. Il n’y a pas de zone grise. Cependant, lorsqu’il s’agit d’intelligence artificielle, tout cela change. C’est le réseau de neurones, le processus « d’apprentissage » qui ne peut être prédit, avec des niveaux cachés de « boîte noire » de traitement qui peuvent donner des résultats inattendus, mais qui ne peuvent être rejetés comme étant faux. Nous nous éloignons du monde binaire que nous associons sans aucun doute à la technologie informatique, vers quelque chose d’autre, quelque chose d’imprévisible. L’erreur est humaine comme on dit. Les gens sont surprenants, en général, les ordinateurs ne le sont pas. Et donc, quand un ordinateur nous surprend, c’est difficile à comprendre, et c’est facile de croire à la sensibilité de la machine, en particulier lorsque nous n’avons pas eu le contrôle des données introduites dans le système pour l’entraîner.
L’apprentissage est peut-être l’aspect le plus vital de l’IA que nous devons comprendre
En sachant d’où proviennent les données d’apprentissage, nous pouvons alors mieux comprendre la réaction d’un chatbot. Avec une meilleure compréhension de la façon dont les systèmes d’IA sont développés, les réponses des chatbots peuvent être considérées comme le produit de l’apprentissage et plus prévisibles. Sans connaître l’historique de l’apprentissage d’un chatbot, même les utilisateurs de chatbot très expérimentés peuvent devenir confus lorsqu’un système répond de manière inattendue. En fait, il ne faut pas faire un si grand saut pour percevoir de telles réponses comme des pensées conscientes. Mais c’est cette proximité avec le comportement humain qui fera des chatbots des ressources inestimables pour de nombreuses entreprises à l’avenir. Un chatbot n’est peut-être pas sentient, mais s’il peut parfaitement imiter un être humain, il peut être incroyablement utile, et c’est pourquoi la perception de la conscience est le but ultime de l’IA.