Intelligence artificielle et sémiosis humaine-2

V incent-Olivier a sorti la semaine dernière la dernière partie de son très attendu post sur the unbearable inevitability of discretization.

Il y aborde plusieurs points que je résume ici :

1. L’humain, en apparence « complexe, subtile et nuancé », peut être modelisé pcq il fonctionne en suivant de très nombreux patterns cognitifs plus simples qui eux peuvent être modelisés.

2. L’intelligence peut être simulée (intelligence mimetism) car cette intelligence humaine n’est que la valeur relative de l’efficacité et de l’universalité cognitive.

3. En possèdant le bon niveau de détail et avec des systèmes suffisamment simples, il est possible de recréer cette complexité (-à la manière des nanotechnologies qui recréent la matière si je comprends bien-).

Faisant suite à sa première partie il précise l’idée que l’intelligence artificielle (AI) suivrait une destiné inévitable basée sur ces prémices. Des tests de pertinence permetteraient de se mesurer à l’homme sur le terrain de l’intelligence et même éventuellement de le dépasser comme Deep(er) Blue a battu Kasparov aux échecs. Seulement, cette vérité est « the unbearable inevitability of discretization », car nous, humains, ne sommes pas prêt à accepter les conclusions que cela implique, notamment la démonstration de notre illusoire « intelligence ».

Petit retour en arrière

Les premières discussions de visu avaient comme référence principale le web sémantique (il faut dire que Karl Dubost était présent). Dans mon précédent billet, je décrivais à Vincent-Olivier les fondements de notre scepticisme envers son enthousiasme cybernétique (voir Intelligence artificielle et sémiosis humaine).

Mais voilà, le titre du billet, malgré la conjonction ET, semblait opposer les deux termes. De fait, en écrivant « intelligence artificielle » je touchais un sujet beaucoup plus vaste et Vincent-Olivier a réagit promptement pour m’écrire que mon point de vue exposé sous-entendait clairement que « therefore AI is impossible » !

Je ne sais pas s’il est possible de prouver que « le AI soit impossible ». En tout cas, j’en ai aucunement la preuve. Tout au plus mon billet citait les précurseurs de la cybernétique et quelques réflexions sur le fait que la formalisation de l’information et sa communication tendait à s’exclure mutuellement. Ce qui m’avait permis d’émettre des doutes sur le AI.

Par contre, en retour, j’ajouterais que « l’absence de preuve » de son impossibilité ne permet pas de conclure therefore AI is possible. Affirmer « the unbearable inevitability of discretization » n’est aucunement une preuve en soi, ni une relation nécessaire de causalité. Tout au plus, il illustre d’une méthode (fascinante) qui pointe dans cette direction. Mais cela ne démontre pas si pratiquement elle est utilisable pour un très grand nombre de phénomènes discontinus et distincts (ce que j’estime que l’intelligence requiert). Clarifions notre pensée : définisons d’abord ce que j’entends par AI et puis ensuite que j’attend de l’AI. Nous finirons par les questions qui alimentent mon scepticisme.

L’intelligence artificielle

L’AI a connu des succès du côté de la simulation d’expert en situation de résolution de problèmes ou de planification (système expert. Elle est aussi reconnu pour ces processus associatifs, de reconnaissance et de catégorisation (système connexionniste). À moins d’avis contraire, elle n’a pas franchi (de façon satisfaisante) la barrière du langage naturel pour rendre compte d’une intelligence discursive découlant de l’usage de nombreux systèmes de symboles que l’on retrouve dans les complexes réseaux d’échanges interpersonnels au niveau de la société humaine (système d’apprentissage symbolique automatique).

Pause. Il est toujours malaisé de parler de l’intelligence artificielle en général, alors ici j’utiliserai AI dans son troisième sens (donné pour le système d’apprentissage symbolique automatique) que l’on peut inclure, si on le souhaite, dans la catégorie du Strong Artificial Intelligence de Searle et dans laquelle s’inscrit le « web sémantique » (sur lequel nous reviendrons dans un autre billet).

L’hypothèse cognitiviste généralement admis pose que le substrat biologique est celui du « hardware » physique sur lequel est installé le « sofware » de l’esprit humain. Je crois que c’est à quoi se réfère Vincent-Olivier. Mais cette approche soulève des problèmes de modélisation cognitive : elle ne permet pas de reconstruire la complexité sémiologique et social de l’intelligence discursive.

L’intelligence discursive

Par « intelligence discursive » j’entends cette faculté chez un sujet qui découle des relations intersubjectives propres aux sociétés humaines où chacun est simultanément une instance partielle et une source de production de cette intelligence collective. Et par « sujet » j’entends ce noeud entre le biologique et le social où se construit « l’intention » de communiquer.

Pour égaler la cognition humaine le AI doit donc :

  • Utiliser les langages naturels;

  • Être flexible, s’adapter et opérer en temps réel dans un environnement riche et complexe;

  • Tirer parti de l’environnement et de l’expérience (acquérir des capacités en se développant);

  • Être autosuffisant dans une communauté sociale et manifester une conscience de soi.

Voilà donc posé ces conditions qui permettent d’affirmer que nous sommes bien en présence d’une « intelligence artificielle » ou non.

Si certains souhaitent apposer une image, disons que je ne vois pas le AI comme les êtres que l’on retrouve à la fin du film AI (de Spielberg), ni comme un robot d’Azimov. Disons plutôt que Hal 9000 dans l’Odyssée de l’espace de Clark serait le moins caricaturale.

Il serait fascinant de pouvoir modèliser une architecture qui supporterait ces conditions. La « dicretization » dont parle Vincent-Olivier se propose de remplir ce mandat (en autant que l’on trouve le niveau de détails approprié) par un système calculatoire perfectionné qui adviendra inévitablement. À moins d’une mauvaise interprétation de ma part, il se réclame ici du cognitivisme (une cognition structurée comme un système de symboles-types, immuables, intemporels, en nombre fini) et du connexionisme (une cognition émergeant d’une organisation distribuée et auto-adaptative d’agents actifs ou réactifs) pour croire cette venue inévitable.

Mes réserves

Je souhaiterais dépasser une définition de l’intelligence comme capacité de créer des « relations entre… » (car on doit alors admettre qu’un ordinateur en général est « intelligent », car il peut aujourd’hui créer de telles relations entre les données et tirer des conclusions).

J’exposerais mes réserves sous forme d’hypothèse-question:


Hypothèse 1 : les corrélation esprit-matière n’a été jusqu’ici, à ma connaissance, que descriptive et non pas explicative (Vincent-Olivier citait « l’homme qui prenait sa femme pour un chapeau ») : il est effectivement intéressant de connaître la région du cerveau où se passe l’activité cérébrale, mais ça n’explique pas le pourquoi. Comment alors évoquer des relations nécessaires si la neurocognition ne permet pas faire de lien entre ce qui se passe dans la matière et ce qui passe dans l’esprit? Je suis conscient que cette hypothèse se base sur l’incapacité actuelle de la science de répondre à la question. Mais elle illustre pourquoi la « discretization » ne peut être vu comme inévitablement la solution pour créer le AI.

Hypothèse 2 : Puisque la pensée origine de l’activité de la matière (du cerveau), donc la base fondamentale qu’est la physique quantique ne vient-il pas modifier la donne? La nature aléatoire de la thérorie quantique permet d’ouvrir le débat sur ce qu’est la volonté (notion problématique dans un monde déterministe -or l’approche de « discretization » présuppose ce déterminisme (voir les recherches sur le quantique et la conscience). Cette approche, toutefois, repousse la question à un autre niveau (nous ne savons pas plus pourquoi la conscience apparaît) mais elle repousse ici aussi la décision de conclure tout de suite à l’inévitabilité de la « discretization » comme réponse pour créer un AI.

Hypothèse 3 : Le foisonnement d’un arbre de décision qui tiendrait en compte des connections entre les (10 à la puissance 15) synapses multipliés par les innombrables états mentaux, combinés à la sémiosis intersubjectives m’apparait trop colossale pour une informatique basée sur des tables de vérité (sachant qu’une table pour n ensembles, son nombre de composition est 2 exposant n)) il me semble que la logique reste inapplicable en pratique avec n au delà d’une certaine magnitude. Pourrait-on alors conclure que le niveau approprié de « discretization » offrirait trop de « possibles » à computer : la puissance de calcul pour gérer le tout serait tout simplement astronomique donc, pratiquement, inaccessible? Un peu comme ce qu’engendrerait comme coût énergétique l’envoi d’une fusée à la vitesse de la lumière. Théoriquement possible mais pratiquement impossible. La machine humaine serait-elle alors la seule à possèder cette capacité de faire des résolutions de problèmes de « haut discursif » (autrement dit la machine basée sur une architecture classique de von Neumann serait par sa structure interne inapte à atteindre ce territoire?).

L’intelligence discursive ne me semble pas avoir dévoilé sa mécanique interne de façon à laisser le AI prétendre qu’elle se résume seulement à une somme d’éléments discrets computables. Il me semble que sa complexité recèle encore de nombreux défis: notre recherche symbolique associative en temps réel et notre processus d’apprentissage par déduction et analogie, au niveau humain, ne fonctionne pas dans la vie de tous les jours par réduction de problèmes (« discretization »). Il existe peut-être une autre manière…

Peut-être que la magnétude que j’envisage n’est pas si grande, peut-être que la mécanique quantique ne possède pas d’écho significative à notre niveau pour fabriquer un AI pragmatique, peut-être que le cerveau n’est pas le modèle à suivre pour émuler l’intelligence. Mais je serais curieux de connaître le point vu de Vincent-Olivier, ou d’autres lecteurs, à cette étape de notre discussion, sur « the inevitability of discretization » comme piste inéluctable pour un AI au sens que j’ai évoqué plus haut, ou, du moins, dans quel contexte précis elle verrait jour.

Billet original sur http://zeroseconde.com

ZEROSECONDE.COM (cc) 2004-2012 Martin Lessard

Contenu protégé selon la licence Paternité – Pas d’utilisation commerciale – Partage des conditions initiales à l’identique 2.0 de Creative Commons

Conférencier, consultant en stratégie web et réseaux sociaux, chargé de cours. Nommé un des 8 incontournables du Montréal 2.0 (La Presse, 2010). Je tiens ce carnet depuis 2004.

Une réponse à “Intelligence artificielle et sémiosis humaine-2” Subscribe

  1. Martin Lessard 7 décembre 2004 à 14:47 #

    La conversation se poursuit ici :
    Goedel est le web sémantique

Laisser un commentaire

5 points pour bien bâtir votre auditoire

À la question «Quels sont les éléments les plus importants pour bâtir son audience» posée par Olivier Lambert, j’avais répondu […]

Changement de cycle [4] / Internet est mort, vive les internets

Toute transition laisse apparaître par décantation les éléments moteurs qui alimenteront le cycle suivant. Ce billet clôt une série de quatre sur le changement de […]

Zéro Seconde a 10 ans!

En février 2014, mon blogue a soufflé ses 10 bougies. C’est une décennie complète à observer les impacts du numérique sur […]

Changement de cycle [3] / Deep Learning, robots et AI: à qui appartiendra l’économie de demain?

Changement de cycle [1]: Élites hors circuit numérique Changement de cycle [2] / Élites? Quelles élites? Changement de cycle [3] […]

Les médias sociaux en entreprise

Je vous invite au lancement de mon livre “Les médias sociaux en entreprise” que j’ai co-écrit avec Marie-Claude Ducas et Guillaume Brunet. Dépêchez-vous de […]

Pourquoi bloguer (dans un contexte d’affaires)

Voilà la couverture du livre dans lequel j’ai écrit le premier chapitre « Bloguer pour influencer ». Il est maintenant en pré-vente […]