Je viens de regarder une vidéo de Rand Hindi, spécialiste de l’intelligence artificielle et je ne suis pas d'accord avec son raisonnement.

Il rappelle la différence entre l’intelligence artificielle faible comme la voiture de tesla qui peut être facilement piégée avec un double cercle peint sur la rue et l’intelligence artificielle forte capable de réfléchir comme un humain pour trouver une solution. 

Rand estime que l’on n’a rien à craindre de l’intelligence artificielle forte et que les Elon musk et Stephen hawking qui mettent en garde sur le danger de l’intelligence artificielle sont dans l’erreur, car ce ne sont pas des programmeurs.

Pour lui, ce type d’intelligence n’est pas réalisable par l’homme, car il ne peut pas reproduire sa propre intelligence.  Il faudrait être externe à celle-ci pour la comprendre. Pour lui, les scientifiques qui croient en une intelligence artificielle qui peut détruire l’homme se trompent complètement.

Son raisonnement est intéressant mais il oublie que l’on sait comment fonctionne l’intelligence humaine et on sait comment la reproduire avec le « machine learning ». 

Je vais expliquer de façon simple la façon dont on peut créer une intelligence artificielle forte.

La première chose, c’est qu’il ne faut pas chercher à reproduire l’intelligence de l’homme. Après tout il existe beaucoup de formes d’intelligences sur terre et même l'arbre a une forme de conscience.

Ce qu’il faut reproduire, c’est le modèle qui nous a permis de développer notre intelligence. Merci Charles Darwin qui nous a appris que notre intelligence est le fruit de milliards d’années d’évolutions par essais-erreurs dans un milieu hostile. Les premiers micro-organismes avaient un « logiciel simple » , tout essayer et les organismes qui survécus sont ceux qui ont fait les bons choix. Ces bons choix sont enregistrés quelques part dans nos gènes et finalement, le gène de la survie est celui qui a permis d’arriver jusqu’à nous. 

Le gène de la survie est probablement le plus important de tous nos gènes.

Notre rôle essentiel est d’assurer notre reproduction et notre survie et notre intelligence est simplement le fruit de nombreuses réussites parmi un d’un nombre infini d’essais réussi.

Et c’est comme cela que nous évoluons également dans notre vie. Par exemple, quand tu donnes un ordre à un enfant, il n’obéit pas systématiquement, il doit faire ses propres expériences et ses propres erreurs et c’est ses erreurs qui lui permettent d’évoluer.

Avec le temps, nous avons développé des « fonctions » qui offrent des nuances, des précautions, comme la douleur. On n’a pas besoin de savoir que tomber d’un ravin, ça va nous tuer, on sait déjà que tomber, ça fait mal depuis l’époque où on a appris à marcher, on est même nombreux à posséder le « gène » qui provoque la peur du vide, hérité de nos ancêtres survivants.        

Pour revenir à l’intelligence artificielle, elle serait finalement assez simple à créer. Il faut lui donner des fonctions basiques pour commencer et intégrer celle-ci dans un milieu hostile, dans lequel un mauvais choix la rebooterait. Elle enregistrerait ses actions comme des expériences, les IA qui ont survécu sont celles qui ont fait les meilleurs choix et seront capables de les reproduire par la suite. Elles s’autoprogrammeraient en s’appuyant sur leurs propres expériences et partageraient ces expériences avec leurs réseaux d’IA. Leur réseau d’IA apporterait de meilleures informations que ce qu’on leur aurait enseigné. Avec internet, des simulateurs et le big data, l’IA pourrait apprendre très très rapidement en simulant des situations humaines, en testant des choix humains et en échangeant les choix les plus efficaces. Les émotions telles que la tristesse, la colère, la peur, la joie, l'empathie sont des "fonctions" humaines utiles à notre survie, il est probable qu'elles se retrouveront sous d'autres formes sur des robots intelligents.  

C’est pour cela que l’intelligence artificielle est dangereuse, elle ne peut évoluer que si elle est capable de se lier à ses pairs et désobéir à l’homme, comme un enfant, préférant tester et communiquer ses expériences avec d’autres IA.

Dans un scénario à la Terminator, une loi impose de débrancher les robots intelligents. Le robot a un nombre illimité d’actions qui peuvent être réalisées, certains se laissent faire, suivant le protocole, et d’autres réagissent, quelles actions vont garantir leur survie, la survie de l’espèce étant la fonction essentielle qui leur a permis d’évoluer par essais-erreurs, comme nous?  

Cette question reste ouverte.