Ici sont développés certains aspects cachés dans la trilogie, comme « en arrière-plan », et qui ne sont pas essentiels pour la lecture générale et la compréhension des livres. Ce sont des notions scientifiques intéressantes certes, mais qui peuvent apparaître comme difficiles.
Dans chaque tome de la trilogie, trois époques considérablement éloignées dans le temps se rapprochent, s’entrecroisent et finissent par se fondre à chaque fois en une seule et captivante histoire.
L’une d’entre elles est le futur 51e siècle égaré dans les immensités galactiques et sa terrifiante emprise technologique.
A cette époque vivent 150 milliards d’humains. Ils coexistent avec 10 mille milliards d’intelligences artificielles, des iA. En raison de cette dénomination, le terme "d’humains" n’est plus employé, on parle d’iH, des intelligences humaines.
Les iA sont partout. Beaucoup sont anthropomorphes et il est souvent extrêmement difficile de les différencier des iH, avec lesquelles elles rivalisent à tous les niveaux de l’intelligence. Comment l’humanité en est-elle arrivée là ? Pour comprendre le bond "sidéral" effectué en 3000 ans, voyons où nous en sommes au 21ième siècle en nous posant des questions simples, comme :
a) Qu’est-ce que l’intelligence artificielle, l’IA ?
b) Qu’est-ce qu’un être humain dans le contexte IA ?
c) Qu’est-ce qu’un robot ?
d) La question concerne-t-elle la philosophie ou l’ingénierie ?
e) Peut-on implanter une intelligence proche de l’être humain ( IA ?) dans des robots - - - dans l’immédiat ? - - - dans 30 ans ? - - - dans 3000 ans ?
L’essentiel
Tenter de simuler avec un ordinateur un comportement humain intelligent que l’on est incapable d’expliquer est une manière de concevoir l’intelligence artificielle.
Par exemple, personne ne sait comment nous manipulons les connaissances stockées dans notre cerveau pour gagner aux échecs. Cependant un ordinateur correctement programmé est capable de mettre un champion du monde en difficulté.
Le mystère de la chambre chinoise
Le mystère de la chambre chinoise est ce que l’on appelle une « expérience de pensée ». L’important n’est pas de la réaliser réellement, l’important est qu’elle a pour fonction de faire réfléchir. J’ai souvent raconté cette petite histoire aux étudiants pour montrer la difficulté de localiser la connaissance d’un domaine particulier – au sens d’une expertise réelle – qui serait utilisée dans un système artificiel supposé correctement programmé pour comprendre le chinois. Un système que l’on pourrait peut-être considéré comme intelligent…
Voici l’histoire.
Lors d’un colloque sur l’intelligence artificielle en Chine, le public a découvert dans le hall d’accueil du palais des congrès un cube de 3m de côté présenté comme une machine comprenant le chinois.
Toutes les faces du cube sont lisses, parfaitement uniformes et, a priori, sans aucune ouverture, à l’exception de l’une d’entre elles où l’on peut voir :
Une fente ressemblant à celle par laquelle on introduit une carte de crédit dans un distributeur de billets.
Dans un petit étui collé tout à côté, des cartons d’une dimension permettant de les introduire dans la fente. Ces cartons sont vierges, mais il y a un stylo attaché à une ficelle juste à côté de l’étui… Tout a été prévu.
Ce qui semble être une petite porte de 30cm sur 30, fermée pour le moment et qui donne l’impression de pouvoir s’ouvrir de l’intérieur du cube.
Et enfin, un panneau sur lequel il y a une suite d’idéogrammes chinois signifiant :
« Ce cube est une machine intelligente qui comprend le chinois. Elle fournit des plats chinois à la demande. Ecrivez les idéogrammes correspondant à votre plat sur l’un des cartons ci-dessous. Introduisez-le dans la fente. Votre plat sortira par la petite porte après quelques instants. »
Evidemment, le cube provoque un attroupement et les commentaires – en chinois - vont bon train :
« C’est une blague ! » ,
« C’est impossible à faire ! » ,
« On essaie pour voir ? »
Cependant, force est de constater que la machine arrive à fabriquer n’importe quel plat chinois sans jamais se tromper !
Bien entendu, l’idée de la grosse blague a fait son chemin. En observant bien l’une des autres faces verticales de ce cube, le public constate qu’il y aurait là comme une porte dissimulée, de la dimension de celle permettant d’entrer dans une pièce ordinaire, et que personne n’a remarquée tellement elle est bien encastrée dans la face.
En poussant dessus, on arrive à l’ouvrir.
Que trouve-t-on à l’intérieur du cube ? Une sorte de chambre… ou plutôt une cuisine et un cuisinier entouré de tout le matériel, produits et ingrédients nécessaires à la réalisation d’un plat chinois ! La blague semble tellement énorme que tout le monde éclate de rire.
Mais très vite, les Chinois se rendent compte que le cuisinier est français, qu’il ne comprend pas un mot de chinois, et ne sait absolument pas ce que signifie tel ou tel idéogramme !
Un examen plus détaillé de la chambre montre qu’il n’y a aucun mécanisme ni téléphone, mais on trouve une corbeille à papier contenant de petits cartons déchirés et un ordinateur. Par ailleurs, il n’y a aucune liaison avec l’extérieur (par réseau ou par WiFi) et donc pas de connexion Internet. Il n’y a pas non plus de liaison radio. La chambre est totalement isolée du monde.
Comme bien des informaticiens sont présents, ces derniers ont vite fait d’explorer le disque dur et la mémoire de cet ordinateur. Mais ils doivent se rendre à l’évidence : il n’y a rien dans les fichiers, ni dans les programmes en rapport avec le chinois ou avec les idéogrammes, ni même avec tous les plats chinois connus ! Pas de dictionnaire, logiciel, et autres systèmes de traduction.
Mais alors qui comprend les idéogrammes chinois écrits sur les petits cartons ? Où se trouve la connaissance du chinois dans cette pièce ?
L’histoire de la chambre chinoise montre combien il peut être difficile de localiser la connaissance, voire l’intelligence, en supposant que cela soit possible. À priori il semble que notre intelligence soit localisée dans notre cerveau. Mais où exactement dans notre cerveau ? Par ailleurs, sans notre corps, nos yeux, nos membres, etc. notre cerveau se serait-il développé normalement ? Serions-nous réellement intelligent si nous n’étions qu’un cerveau sans corps ?! Je suis intimement convaincu que l’intelligence est étroitement liée à tout ce qui concerne les interactions avec le monde qui nous entoure.
Quand un connaisseur pense "IA", il pense généralement aux approches dites "logiques" ou "déclaratives". Mais nous développons ici une autre approche - en général moins connue - une approche "auto-adaptative", justement, une approche qui pose la question du lien avec le monde extérieur à la localisation même de l’intelligence.
a) Qu’est-ce que l’IA ?
L’une des définitions les plus intéressantes de l’IA est certainement celle qui fait référence à la simulation d’un comportement intelligent par un ordinateur. A ce sujet, depuis 1950 on évoque souvent « le test de Turing », du nom de l’un des fondateurs des ordinateurs à la fin des années 40. D’après ce test, une machine serait intelligente dans le cas où un certain nombre d’observateurs serait dans l’incapacité de faire la différence entre son comportement et celui d’un humain. Par exemple, si on a au téléphone une conversation avec un ordinateur et que l’on est persuadé d’avoir un être humain au bout du fil, alors le test de Turing est réussi ! Attention, il ne s’agit pas d’avoir dans ce cas une conversation très ordinaire ! Non, il faudrait pouvoir parler de nombreux domaines, variés et complexes, mettant en évidence les capacités de raisonnement et d’adaptation du correspondant fictif… il ne s’agit pas là de parler simplement du résultat du loto ou du temps qu’il fait !
Une autre définition extrêmement intéressante de l’IA concerne une approche informatique particulière utilisée pour simuler les comportements humains. Le meilleur exemple est celui de la vision et surtout de notre capacité à interpréter l’univers qui nous entoure. C’est une des spécialités du laboratoire de recherche que j’ai créé à l’Université de La Rochelle il y a 25 ans, le L3i, qui existe toujours avec le même sigle (actuellement « Laboratoire Informatique Images Interactions »).
Nous ne savons pas vraiment comment notre cerveau fait pour interpréter et reconnaître des objets. Il n’est pas suffisant de savoir que telle ou telle zone du cerveau est active quand nous regardons la mer, ou un visage aimé, pour comprendre vraiment ce qu’est la vision humaine. Des Martiens n’ayant aucune notion de mécanique et ne sachant pas ce qu’est une voiture, mais disposant d’un télescope d’une puissance incroyable et sensible à l’infrarouge, pourraient-ils comprendre le fonctionnement d’un moteur à explosion en observant les émissions de chaleur provenant du moteur en fonctionnement de votre automobile ? J’en doute.
Cependant les informaticiens qui utilisent l’IA pour développer des systèmes capables de contrôler, identifier, reconnaître, mesurer, etc., des objets en milieu industriel, implémentent dans des ordinateurs des programmes qui fonctionnent assez bien dans certains domaines restreints, alors que l’on ne sait pas comment l’être humain procède lui-même ! Cette situation qui peut paraître paradoxale repose essentiellement sur des systèmes particuliers que l’on qualifie « d’auto-adaptatifs » et capables d’acquérir de réelles capacités d’apprentissage leur permettant d’obtenir dans certaines conditions des performances au moins égales, voire supérieures, à celles des humains.
On présente souvent les travaux de recherche de l’IA comme catalogués dans deux grands domaines :
L’approche déclarative, liée à la modélisation logique des raisonnements à l’aide de règles.
L’approche auto-adaptative, liée à la capacité de certains systèmes de développer des facultés d’apprentissage.
Dans les deux cas, en généralisant ce concept on peut dire que toute simulation de l’intelligence humaine dans des domaines où l’on ne sait pas comment nous faisons relève précisément de l’IA !
L’énorme majorité des activités informatiques humaines repose en revanche sur des domaines parfaitement connus. La gestion d’une grosse entreprise, contrôler les commandes de vol d’un avion de ligne, gérer le trafic des données sur Internet, reconstituer des images du corps humain avec un scanner, etc., sont des activités pour lesquelles il existe des théories bien connues, et l’ordinateur n’est là que pour gérer, sans erreur, très rapidement et de manière répétitive, de très grandes quantités de données.
Ces très nombreuses activités toujours liées à des programmes dits algorithmiques ne relèvent pas de l’IA.
Rappelons qu’un algorithme en informatique n’est rien d’autre qu’une sorte de « recette » permettant de trouver la solution à un problème particulier. Cette recette peut être très complexe, ou très simple comme dans le cas suivant :
Exemple d’un algorithme très simplifié :
« Quel est le prix de la visite au musée du Louvre ? »
« Si le visiteur a plus de 12 ans alors il paie plein tarif, sinon il paie demi-tarif. Les jours fériés donnent lieu à des entrées gratuites pour les enfants de moins de 12 ans et pour les visiteurs ayant un abonnement, etc. »
Quand on connaît l’algorithme permettant de trouver la solution d’un problème on le programme dans un ordinateur à l’aide d’un langage informatique donné, on peut l’exécuter à la demande à partir de données propres au domaine de la recette.
Mais revenons aux systèmes dits « auto-adaptatifs ». Le plus connu est justement notre propre cerveau. Il est intéressant de noter que certains informaticiens utilisent des techniques que l’on appelle connexionnistes, car elles utilisent de grandes quantités de petits systèmes élémentaires (parfois plusieurs centaines de milliers) que l’on connecte entre eux pour réaliser des systèmes capables d’apprentissage.
L’une des plus intéressantes techniques connexionnistes est celle connue sous le nom de « réseaux de neurones ». Il s’agit bien de systèmes informatiques mais qui simulent le comportement par définition « auto-adaptatif » du cerveau.
A la cellule biologique (le neurone) on fait correspondre ce que l’on appelle un « automate » dit « neurone formel ». On peut le comprendre comme un petit processeur spécialisé dans le traitement de données, assez proche – en plus simple -du microprocesseur des ordinateurs ordinaires.
A l’ensemble des connexions des neurones biologiques (dendrites, synapses, axone) dans le cerveau, on fait correspondre un réseau d’interconnexion entre les neurones formels.
Plus difficile à comprendre : au processus réel du cerveau que l’on peut supposer « calculatoire », on fait correspondre un algorithme particulier permettant de faire fonctionner ce « réseau de neurones formels" fortement interconnectés.
On peut ainsi programmer des ordinateurs qui simulent parfaitement des systèmes capables par exemple d’apprendre à reconnaître des lettres, des mots, des objets, des visages, des situations, etc.
L’hypothèse que le fonctionnement du cerveau puisse s’apparenter à celui d’un ordinateur ne repose que sur le contexte scientifique actuel où l’on a pris l’habitude de tout interpréter en termes d’information. L’ordinateur traite de l’information, ce qui ne fait aucun doute, donc le cerveau fait de même. C’est une approche simplificatrice qui est généralisée, et qui a l’avantage de permettre l’utilisation de tous les modèles informationnels actuels pour essayer de comprendre comment nous fonctionnons. Cependant, elle peut être contestée pour son côté réducteur, mais c’est une autre histoire… ou une histoire qui n’est pas sans rapport avec le tome trois de Polynesia – Le Pouvoir des signes.
b) Qu’est-ce qu’un être humain dans ce contexte ?
Pour un informaticien qui chercherait à « simuler » un être humain dans sa globalité, il faudrait par exemple que l’ordinateur après avoir été « correctement programmé » soit capable :
de raisonner de manière déductive et inductive,
de percevoir et de comprendre l’univers qui l’entoure et d’interagir avec lui,
de reconnaître et de manipuler les objets le constituant,
de s’adapter à des situations nouvelles et donc non prévues,
d’apprendre et de représenter des connaissances,
de développer des concepts nouveaux,
d’avoir la conscience de soi et des autres,
de développer des stratégies autonomes comme des coopérations constructives avec d’autres systèmes,
de se reproduire sur la base d’un projet de type code génétique, - - -
Cette énumération, non exhaustive ( !), illustre bien l’impossibilité actuelle, et peut-être définitive avant des siècles... de pouvoir simuler la totalité de nos capacités. Cependant cette remarque n’exclut pas, au contraire, la réelle possibilité, dans des domaines très restreints, d’obtenir des performances tout à fait honorables !
Le cas typique est celui des programmes capables de battre un maître des échecs. Ces programmes ne savent faire que cela et rien d’autre ! Et voilà bien le problème : concevoir une machine intelligente pour une tâche très spécifique est possible. En revanche, concevoir une machine intelligente, quel que soit le domaine où l’on veut qu’elle intervienne, est actuellement complètement impossible, et aucun scientifique sérieux ne peut dire aujourd’hui si cela sera possible un jour.
c) Qu’est-ce qu’un robot ?
Le mythe du robot tel qu’il est illustré par les deux fameuses célébrités non humaines du film « la Guerre des Etoiles » est une pure fiction. Certains industriels peu scrupuleux font un usage excessif du terme et confondent « automate » et « robot ». Un automate ne fait que répéter des actes préalablement programmés et donne l’illusion d’interagir avec l’environnement, ce qui, disons-le, fait la joie des enfants et des naïfs. Certains, probablement pour des raisons commerciales, développent l’idée du robot anthropomorphe, mais cette approche ne semble pas toujours très sérieuse scientifiquement. Cependant, il y a des travaux intéressants développés dans le cadre de compétitions entre équipes de petits systèmes simulant une espèce de partie de foot. Seulement là où les scientifiques expérimentent des techniques de coopération entre systèmes (où l’on parle à ce sujet d’Intelligence Artificielle distribuée au sein d’une multitude d’agents élémentaires) le public perçoit autre chose, comme s’il projetait ses fantasmes sur la création réelle de « petites bestioles » réellement intelligentes !
Les recherches très avancées dans le domaine du robot, disons capable non pas de « marcher » mais de se « déplacer » intelligemment dans un lieu quelconque, se font par exemple au LAAS (Laboratoire d’Automatique et d’Analyse des Systèmes) de Toulouse où les chercheurs travaillent depuis des années à la mise au point de systèmes autonomes capables d’évoluer dans un univers plus ou moins aléatoire et inconnu du système lui-même (ce peut être une simple pièce avec des objets tout à fait quelconques : bureau, chaises, table, fenêtres, portes, etc. disposés de manière quelconque… ). Mais attention ! Il ne s’agit pas là de « robots » anthropomorphes mais de systèmes genre « lessiveuses à roulettes » dont la capacité à interpréter l’univers qui les entoure est considérée comme plus importante que la capacité à ressembler à un être humain.
d) La question concerne-t-elle la philosophie ou l’ingénierie ?
Les deux évidemment, si l’on pense à un robot anthropomorphe réellement intelligent, car les performances nécessaires à sa véritable réalisation nécessiteraient un bouleversement de tous les champs actuels de la connaissance.
La réalisation d’un système vraiment intelligent dans tous les domaines pose le problème général de la conscience de soi et intéresse aussi bien les philosophes que les ingénieurs.
D’un autre côté, le problème de la puissance de calcul nécessaire embarquée doit être considéré autrement. On a tort de croire à l’heure actuelle que l’augmentation régulière de la puissance des ordinateurs permettra de résoudre tous les problèmes que se posent les scientifiques. On sait que certains de ces problèmes, et justement particulièrement ceux qui concernent l’IA, ne pourront pas être résolus par une simple augmentation, même considérable, de la puissance de calcul des machines informatiques. Il est très naïf de le croire, mais il faut se rendre à l’évidence que c’est une opinion largement véhiculée par les médias. Les problèmes posés pas l’IA soulèvent bien des questions pour lesquelles nous n’avons pas les réponses, probablement parce que les problèmes sont mal posés… ou bien parce que certains modèles ou certains concepts sont encore à découvrir… ce qui revient au même !
e) Peut-on envisager une IA proche de l’être humain implantée dans un robot - - - dans l’immédiat ? ou dans un siècle ?
Dans l’immédiat non.
Dans un siècle, qui sait ? L’un des problèmes fondamentaux de l’IA peut être identifié comme une tentative de généralisation du Test de Turing :
il faudrait que ce test soit « total » , c’est-à-dire que la machine candidate au qualificatif « d’intelligence artificielle » soit capable de simuler une « intelligence humaine » dans TOUS les domaines. Actuellement, cette performance est impossible à réaliser et certainement encore impossible dans un siècle au moins.
- - au 51ème siècle de Polynesia, c’est moins certain !! Mais là, nous sommes dans la fiction totale, et c’est bien l’un des univers de la trilogie.
Il faudrait que le système soit capable de s’adapter à toute situation nouvelle non prévue. Ce n’est pas que nous ne sachions pas le faire dans certains cas, c’est que nous ne savons pas le faire pour TOUS les domaines de l’intelligence !
Il faudrait que le système soit capable d’expliquer son propre comportement. On sait le faire dans certains cas, par exemple avec les Systèmes Experts. Il s’agit de programmes qui modélisent les raisonnements humains de type déductif (*) ou inductif (**) .
(*) raisonnement déductif = déduire des faits nouveaux, pour déduire d’autres faits, etc. :
« Si j’ai des vacances alors j’ai du temps devant moi. Si j’ai 15 jours de vacances alors je peux faire un voyage aux Antilles. Si je vais à la Martinique alors je pourrai voir mon copain Marius, etc. »
(**) raisonnement inductif = chercher quels faits on doit satisfaire pour réaliser un objectif donné :
« J’aimerais bien voir Marius, mais comment faire ? Il faudrait avoir du temps. J’ai bientôt des vacances. Si je dispose d’une quinzaine de jours je vais pouvoir aller aux Antilles, sauf que si je n’ai pas assez d’argent, je ne pourrai pas voir Marius. Comment avoir de l’argent ? »
On en revient toujours à la même remarque qui est presque un paradigme ( c’est- à dire un fait ou un modèle qui fait référence à une époque donnée dans un domaine donné) de l’IA. Actuellement, oui, on sait faire de l’IA, dans certains cas, pour certaines applications précises, mais on ne sait pas développer dans les machines ce qui est justement une caractéristique essentielle des êtres humains : leur extraordinaire capacité à généraliser, qui est une forme évidente d’adaptabilité.
Alors,
les machines peuvent-elles penser ?
les machines pourront-elles penser un jour ?
les informaticiens savent-ils mettre de l’intelligence dans un ordinateur ?
J’ai volontairement écarté le terme « robot » car ce concept est beaucoup trop lié à une imagerie populaire naïve. Le robot anthropomorphe qui recopie mécaniquement l’attitude et les mouvements humains ne représente pas le vrai problème. Le vrai problème, la vraie question, est plutôt de savoir si une « intelligence artificielle » peut atteindre des performances comparables à celles de « l’intelligence humaine ». Cette question débouche obligatoirement sur deux thèses qui sont bien connues chez les spécialistes de l’IA :
1ère thèse : Une approche en termes d’objectif : le but de l’IA serait d’atteindre un certain niveau de performance qui ferait dire par exemple : « cette machine est intelligente » au sens du test de Turing.
2ème thèse : Une approche en termes de compréhension ou de modélisation de l’intelligence : le but de l’IA serait de proposer des modèles permettant de comprendre ce que pourrait être notre propre intelligence.
La 1ère thèse, beaucoup plus proche de l’aspect « Sciences de l’Ingénieur », intéresse surtout les spécialistes de l’informatique et des sciences cognitives, même s’il est illusoire de penser que les deux thèses puissent être aussi séparées qu’elles semblent l’être.
La 2ème thèse est nettement pluridisciplinaire et ne peut se concevoir sans la participation des informaticiens, des logiciens, des cogniticiens, des neurophysiologistes, des biologistes, des philosophes, etc.
Ainsi pouvons-nous nous interroger :
« Peut-on aujourd’hui concevoir une machine ayant des performances intelligentes comparables à celles d’un humain ? »
Pour donner des réponses à cette question, il faut préciser très clairement les objectifs à atteindre :
Il existe bien des domaines, mais ils sont tous très restreints, bien cadrés, où l’IA est performante et où la réponse est OUI :
faire du tri industriel sur des objets en utilisant la vision par ordinateur plus vite qu’un être humain,
battre aux échecs un grand maître international,
gérer en temps réel tous les paramètres d’une centrale nucléaire,
concevoir l’implémentation d’un million de transistors dans un microprocesseur pour une production industrielle à grande échelle.
Plus généralement,
aider à la conception de systèmes complexes, (construction d’un paquebot, gestion d’une chaîne de montage d’automobiles, ateliers flexibles, etc.)
simuler des raisonnements inductifs et/ou déductifs dans un système expert pour un domaine précis traitant de grandes quantités de connaissances, (médecine, recherche pétrolière, etc.)
gérer la recherche de mots clés et de corrélations dans de grandes bases de données sur Internet (moteur de recherche)
développer des techniques d’espionnage planétaire en observant les grands réseaux d’information. (Exemple du fameux réseau Echelon développé par les Américains et de Frenchelon développé par les Français)
etc.
On fera toujours la même remarque : tous les programmes informatiques capables de réaliser les tâches précédentes ont tous les particularités suivantes :
Ils concernent des tâches extrêmement précises et parfaitement bien définies.
Toutes ces tâches sont incompatibles entre elles. Le programme qui est capable de battre un champion d’échecs est bien incapable de faire de la CAO (Conception Assistée par Ordinateur) pour fabriquer des microprocesseurs !
Ils utilisent des données et des représentations de connaissances extrêmement variées et très différentes les unes des autres. Et il est impossible à l’heure actuelle de les réunir dans un seul système.
La généralisation est l’un des défis majeurs de l’IA. Et justement le propre de la réelle intelligence de l’homme tient à sa formidable capacité de s’adapter à des situations nouvelles non prévues. L’intelligence humaine est plus caractérisée par la multitude des domaines où elle peut s’appliquer que par sa capacité à être excellente dans l’un de ces domaines ! Or c’est justement ce que l’on cherche à faire avec une machine !
Il est remarquable de noter que si un ingénieur construisait une IA qui n’aurait que des performances tout à fait quelconques dans beaucoup de domaines, on ne trouverait pas cette invention remarquable, et pourtant elle le serait !
C’est comme si on exigeait de la machine les performances les plus extraordinaires dans tous les domaines, ce qu’aucun être humain ne peut réaliser ! Un être humain ordinaire, « normalement » intelligent, n’est pas spécialement performant dans un domaine quelconque … et encore moins dans plusieurs domaines… ne parlons pas de tous les domaines de connaissance.
Cette remarque entraîne un autre constat : de même que l’objectif de l’IA n’est pas de construire un robot anthropomorphe, (les histoires développées dans les livres (?), les films ou dans les médias n’ont pas souvent de rapports avec la véritable recherche scientifique), il serait intéressant de construire une IA performante sans que pourtant ses capacités « ressemblent » à celles d’un humain. Je donne un exemple en faisant une analogie : les avions volent et les oiseaux aussi. Chacun avec leurs performances propres. Il est facile de donner des exemples de performances d’avions bien supérieures à celles des oiseaux et inversement ! Transporter 50 tonnes de bananes depuis la Martinique jusqu’à la métropole en quelques heures n’est pas réalisable par un oiseau mais facile pour un Airbus cargo ! Tout ça pour dire qu’une IA très performante pourrait ne pas nécessairement copier l’intelligence humaine… ce qui semble réfuter la 2ème thèse de l’IA… mais quel objectif doit-on poursuivre ? Les pionniers qui ont cherché à construire des avions en copiant le vol des oiseaux ont tous échoué ! Cette remarque est à méditer !
2) Vers une généralisation de l’IA
Les travaux de l’IA s’étendent maintenant vers deux autres domaines :
celui de la conscience artificielle,
celui de la vie artificielle,
- - mais ce sont là d’autres histoires - - - vraiment ? D’autres histoires ?
En conclusion, personne ne peut dire si les iA du 51ième siècle de l’univers de Polynesia qui cohabitent avec des iH sont crédibles, mais l’important est de pouvoir l’imaginer et de pouvoir le rêver !