chargement...

1er Janvier 2019
Vers une conscience artificielle

Qu’est ce que la conscience ? Pourrons-nous un jour donner une conscience aux machines ? Tant de questions auxquelles je n’avais aucune réponse mais que je trouvais particulièrement intéressante. Une idée utopique que beaucoup de personne se sont déjà imaginée, créer un véritable cerveau artificiel, capable d’interagir, d’apprendre et d’avoir conscience de toutes ses actions. Une telle avancée serrait probablement l’un des derniers pas à franchir pour définitivement faire passé la révolution informatique dans une nouvelle ère.
Aujourd’hui, les avancées exponentielle dans le domaine de l’apprentissage automatique nous amènes à constater que les algorithmes d’apprentissage profond sont capable de faire apprendre de nouvelles choses aux machines, des choses qui n’étaient pas prévu lors de l’écriture du programme. Mais ces dernière ne s’en rendent pas compte, elles n’ont pas conscience de ces actions, et ne peuvent par conséquent, les exploiter.
Durant de nombreuses années la conscience ne fût qu’une idée extrêmement subjective. En effet, cette dernière fût analysée par les philosophes comme étant un phénomène mental lié à la perception et la manipulation intentionnelle de représentations mentales, qui comprend la conscience du monde et la conscience de soi, mais aussi la conscience morale qui implique le respect des règles éthique.

Aujourd’hui, et grâce aux avancées dans l’imagerie médicale, on remarque que la conscience est une parti observable et quantifiable dans notre cerveau.
Les travaux récents de Stanislas Dehaene ont permis de dénouer un important noeud dans la controverse qu’il existe autour de la conscience artificielle. En effet la conscience n’est serait pas subjective, mais bien « une opération computationnelle, un calcul » déclare t-il. À l’aide d’image subliminale, différents niveaux de conscience ont été révélés. Parmi ceux-ci, un premier niveau, appelé C0, fait référence à la partie inconsciente du cerveau. Parce que nous sommes aveugles de nos processus inconscients, les neuroscientifiques ont mis au point divers moyens de représenter des images ou des sons sans induire d'expérience consciente (Fig. 1) et ont ensuite utilisé l'imagerie comportementale et cérébrale pour explorer leur profondeur de traitement.

Fig. 1 - Exemples de paradigmes sondant le traitement inconscient (C0). [Par Stanislas Dehaene]

Cette partie dite inconsciente, correspond en réalité à ce dont nous somme actuellement capable de réaliser grâce aux réseaux de neurones convolutifs et il est donc possible de faire correspondre des algorithmes mathématique à cette dite phases.

La conscience serrait donc qu’une fine couche supplémentaire nous permettant d'accéder à l'information, d'y réfléchir posément, longuement et de partager cette dernière avec d'autres personnes. D’après les travaux de Stanislas Dehaene, pour accéder à cette couche consciente, le cerveau humain met en place deux types de traitement de l’information. Le premier correspond au niveau C1, il correspond au vaste répertoire d'informations, de programmes modulaires, que l'on peut convoquer à tout moment pour amener les données à la conscience et s'en servir.

Fig. 2 - Disponibilité globale : La conscience au premier sens (C1). [Par Stanislas Dehaene]

Dans le cerveau humain on peut ainsi passer d'une information consciente à l'autre de manière fluide et flexible et lui donner du sens.
Un deuxième type de traitement de l'information, C2, qui lui est associé, est nécessaire à la conscience humaine : c’est l’auto-monitoring, soit la capacité à traiter des informations sur soi-même que l'on peut également appeler la méta-cognition. Ainsi le cerveau est capable d'introspection, de contrôler son propre processus et obtenir des informations sur lui-même, c’est l’autonomie. 

Fig. 3 - L'introspection : La conscience dans un second sens (C2). [Par Stanislas Dehaene]

Ci-dessus (Fig. 3), les mécanismes par lesquels le cerveau du primate se surveille lui-même sont passé en revues, tout en soulignant leurs implications pour la construction de machines auto-réfléchissantes. Le traitement automatique fait des progrès en ce qui concerne les calculs de disponibilité globale et d’autosurveillance, mais il y a encore beaucoup à faire. La capacité d’un système à entreprendre des processus d’autosurveillance, et de mettre en œuvre et de coordonner avec souplesse de multiples calculs demeurent un défi en architecture des systèmes.

Fig. 4 - Carte du cerveau humain. [cf. Thèse - Conscience artificielle 2010]

De part les travaux du centre CEA de NeuroImagerie Cognitive sur la conscience, on en remarque la possibilité de quantifier, et donc de poser une logique mathématique sur le cheminement du raisonnement que pourrait entreprendre la conscience à ce stade.
Je me suis donc attardé sur des travaux moins récent mais pas pour autant dépassé. C’est la thèse de quatre doctorants, Guillaume Tisserant, Guillaume Maurin, Ndongo Wade et Anthony Willmot nommé « Conscience Artificielle » datant de 2010. Ces derniers ont essayé de poser un model sur le traitement conscient de l’information par notre cerveau. Ils ont mis au point une carte du cerveau humain composée de nombreux module ayant pour but, mis à bout un à un, de recrée un cerveau.
On peut donc imaginer que si l’on arrive à écrire ces modules sont formes d’algorithmes, on pourrait considérer que le programme doté de ces derniers mis à bout un à un, serait « conscient ». La création d’une conscience artificielle ne serait alors plus du domaine de la fiction, mais bien réellement envisageable. Bien entendu il serrait utopique de se dire que cela est pour demain. Mais contrairement au siècle dernier, cette idée devient réellement envisageable, bien que la complexité pour mettre au point de tels algorithmes est encore loin d’être résolu. Bien que pour réussir à faire de la conscience artificielle une réalité, Dehaene, Lau et Kouider avancent qu’il est nécessaire d’analyser les types spécifiques de calculs qui composent la conscience chez l’humain. Ils suggèrent que les autres modèles actuels n’expliqueraient pas pleinement la conscience.
Par ailleurs, pouvons-nous réellement avoir la certitude que la conscience que développerais notre IA serait la même conscience telle qu’on la définit chez les êtres humains ?

Stanislas Dehaene, Hakwan Lau, Sid Kouider, (2018) What is consciousness, and could machines have it ?
G. Tisserant, G. Maurin, N. Wade, A. Willemot, (2010) Conscience artificielle.
Michel Besserve, Université Paris Sud - Paris XI (2007) Analyse de la dynamique neuronale pour les Interface homme-machine [cs.HC].