Donc c’est fait. La course vient de commencer. Pour vrai. La compagnie Tesla offre maintenant une fonction Autopilot sur son Model S. Sur l’autoroute par exemple, la fonction Autopilot permet à la voiture de se conduire seule, c’est-à-dire de suivre la route, prendre les courbes, changer de voie, accélérer et décélérer. En ville, l’Autopilot peut «gérer le trafic» pendant les heures de pointe, il peut aussi chercher un espace de stationnement avec son radar et accomplir par lui-même le stationnement en parallèle. Il n’y a pas à dire, c’est une technologie impressionnante. Mais plus impressionnante encore est la façon dont Tesla a mis son Autopilot sur le marché. Aucune compagne publicitaire, aucun battage médiatique, rien. Le mercredi 14 octobre 2015, Tesla a simplement mis en ligne une mise à jour du logiciel dont était déjà équipé son Model S dans laquelle était incluse une nouvelle «fonctionnabilité», comme s’il s’agissait d’un autre gadget sans réelle importance. Bien sûr, la voiture elle-même, le Model S de Tesla, était déjà une sorte d’hybride technologique : en plus de sa carrosserie et de ses quatre roues, la voiture électrique est munie d’un radar, de caméras, de senseurs ultrasons et, bien sûr, d’un ordinateur puissant connecté à l’Internet. Et c’est ainsi que les propriétaires de cette voiture se sont réveillés un matin avec la possibilité de télécharger un Autopilot avant de prendre la route; ce qu’ils se sont empressés de faire.
Je suis loin, très loin, de m’intéresser aux voitures et aux ordinateurs. Je ne connais à peu près rien de notre voiture–je n’ose même pas dire «ma» voiture–, encore moins de «mon» ordinateur. Si je me force, je peux vous donner l’année de construction de notre voiture, 2010 je crois. «Mon» ordinateur, mieux vaut ne même pas en parler. Mais au-delà de ma vie quotidienne, à une plus grande échelle si vous voulez, la technologie me fascine. Et cette histoire de Tesla me fascine au plus haut point. Un ami m’en a parlé un soir et, le lendemain, je lisais à la chaine des articles du MIT Technology Review sur le sujet et regardais des vidéos de conducteurs ne conduisant pas leur voiture. Je me répétais sans cesse : «Ça y est, c’est le début, la course est lancée.» Google devrait bientôt réagir. Les Google Cars ont environ deux millions de kilomètres au compteur sans être responsables, semble-t-il, d’aucun accident. Pour accumuler autant de kilométrage, le lobby de Google a convaincu quatre États américains de modifier leurs lois pour autoriser la présence de véhicules autonomes (driverless cars) sur leur réseau routier. La compagnie Google possède des milliards de dollars qui dorment quelque part sur la planète, tout comme Apple, Amazon et bien d’autres compagnies qui pourraient avoir un intérêt évident à investir massivement dans ce nouveau marché. Et quand les statistiques démontreront que les voitures intelligentes font moins d’accidents que les conducteurs humains, et que les accidents dans lesquels elles auront été impliquées ont été causés par des voitures conduites par des humains, ce que les ordinateurs des voitures intelligentes pourront démontrer avec une logique implacable, les compagnies d’assurance donneront le coup de grâce en imposant une tarification qui fera de la conduite humaine un luxe récréatif pour les plus riches.
Je retiens donc la date du 14 octobre 2015; peut-être figurera-t-elle un jour dans les livres d’histoire qui raconteront la révolution technologique qui aura conduit à la voiture intelligente. Cette date sera bien sûr éclipsée par une date plus importante, mais encore inconnue qui fera de la voiture intelligente la norme en matière de conduite automobile. Mais même cette date devrait être à son tour éclipsée par une autre encore plus importante. Car qui dit voiture intelligente dit intelligence artificielle, et ce serait ça, l’I.A., la véritable révolution technologique qui pourrait faire basculer l’humanité dans une ère nouvelle.
***
Lorsque je lisais au sujet de la Tesla, je pensais constamment au dernier livre de Nick Bostrom : Superintelligence : Paths, Dangers, Strategies (Oxford University Press, 2014). C’est d’ailleurs le même ami qui m’a parlé de la Tesla qui m’a parlé de ce livre alors qu’il venait tout juste de sortir. C’est l’une des rares personnes de mon entourage qui connaît bien Nick Bostrom et qui, comme moi, est fascinée par ce philosophe suédois inclassable. Peut-être que la meilleure façon de présenter Bostrom serait de dire qu’il est à la tête du Future of Humanity Institute à Oxford. Ce titre laisse songeur. On se dit que c’est sérieux, puisque l’université Oxford est un établissement sérieux et réputé. En même temps, on se demande quel genre de type peut bien se présenter sérieusement comme le directeur du Future of Humanity Institute. Eh bien voilà : Nick Bostrom.
La première fois que j’ai entendu parler de Nick Bostrom, c’est en lisant Le nouvel homme nouveau (Boréal, 2007) d’Antoine Robitaille, dont le sous-titre est Voyage dans les utopies de la posthumanité. À la fin de son livre, Antoine Robitaille propose un entretien brillant avec Bostrom qu’il présente comme le transhumaniste en chef. Posthumanisme et transhumanisme peuvent être ici considérés comme des termes synonymes pour désigner un même projet, celui de créer au moyen de la technologie une nouvelle espèce qui serait supérieure à celle des homo sapiens, c’est-à-dire nous. L’être humain est l’un des résultats hasardeux de l’évolution biologique sur terre et, maintenant que nous avons compris ce mécanisme et que nous pourrons bientôt le contrôler, le projet posthumaniste consiste à prendre notre destinée en main pour nous créer un avenir meilleur. «Nous ne sommes plus contraints d’accepter ce que la nature nous a donné, explique Bostrom à Antoine Robitaille, nous ne sommes plus obligés d’accepter de mourir après quelques décennies sur terre ou d’être vaincus par le cancer avant cela. Cela signifie aussi que nous ne sommes plus troublés par des changements d’humeur pour des raisons chimiques. Bref, “meilleur” signifie avoir plus de contrôle sur notre propre vie, en être totalement maître et pouvoir développer le type d’idéal que nous souhaitons.» Bostrom est donc un optimiste pur et dur. Il est la version 2.0 du projet cartésien visant à nous rendre maîtres et possesseurs de la nature. Comme Descartes, Bostrom est un philosophe pour ainsi dire par défaut qui estime que sa tâche n’est pas tant de comprendre la condition humaine présente que de réfléchir sur les conditions qui permettront, grâce à la science et à la technique, la venue d’une nouvelle humanité épanouie.
Dans le long portrait que lui a consacré le magazine The New Yorker (édition du 23 novembre 2015), Bostrom utilise l’analogie suivante pour expliquer la façon dont il conçoit sa tâche comme philosophe. Imaginons que nous ayons à construire une énorme ligne de métro sous-terraine, que ce projet se fasse sur plusieurs générations et que chacun ait son rôle à jouer. Imaginons que nous ayons chacun une petite pelle, mais que nous savons qu’une énorme pelle mécanique arrivera bientôt pour prendre le relai. Il serait dérisoire de passer sa vie à creuser alors que l’énorme pelle mécanique fera plus et mieux en une seule «bouchée». Par contre, même avec notre pelle et notre longévité dérisoires, nous pourrions accomplir un travail utile, comme marquer à l’avance les endroits où il faudra que l’énorme pelle mécanique creuse. La petite pelle est bien sûr le cerveau humain et l’énorme pelle mécanique notre futur posthumain, et c’est ainsi que Nick Bostrom conçoit son travail au Future of Humanity Institute.
En un sens, Bostrom mérite le titre de philosophe, car, compte tenu de ses prémisses, il refuse le modèle de la spécialisation universitaire. Au lieu de creuser son petit trou, Bostrom aspire à une vision la plus complète possible du chantier intellectuel. Quand Aristote compare le philosophe à un architecte qu’il distingue des maçons, charpentiers et autres manœuvres spécialisés, c’est tout de même un peu cela qu’il avait en tête. Mais cet idéal d’un savoir total est aujourd’hui considéré comme chimérique. «Cela n’existe plus, écrit Musil dans L’homme sans qualités. Tu n’as qu’à jeter un coup d’œil dans le journal. Il est rempli d’une opacité démesurée. Il y est question de tant de choses que cela dépasse de loin la capacité de pensée d’un Leibniz.» Je ne sais pas pour vous, mais ce passage décrit à la perfection mon expérience quotidienne : en feuilletant le journal ou en glanant sur le web, quand je m’intéresse à un événement politique, économique ou à une avancée scientifique, j’ai rapidement le sentiment d’être dépassé, comme si je souffrais d’une myopie intellectuelle sévère. Le fait est là, j’en perçois les contours, mais ses ramifications sont si nombreuses et diverses que sa compréhension totale m’échappe. Peut-être suis-je tout simplement limité, mais peut-être aussi qu’un Leibniz ou un Aristote ne ferait pas beaucoup mieux : il verrait plus clair et plus loin que moi, c’est sûr, mais sans pour autant atteindre une compréhension totale. Dans ces conditions d’éclatement de tous les savoirs, l’âme qui aspire encore à la totalité a alors la tentation de faire le pas de côté, pour parler comme Kundera, et de se rabattre sur la littérature et les grandes œuvres qui, elles, possèdent encore et toujours une totalité circonscrite. Mais si on hésite à faire ce pas de côté, à se détourner complètement de la science et des savoirs dits objectifs, la polymathie de Nick Bostrom possède une certaine force de séduction.
Et ce charme est d’autant plus fort que, dans son dernier livre, Bostrom nuance son optimisme technologique. L’avenir de l’humanité, affirme-t-il page après page, se jouera tout entier dans sa relation avec l’intelligence artificielle. Je me permets de réduire son propos aux quatre propositions suivantes : 1) l’I.A. sera créée dans un avenir plus ou moins rapproché, mais elle sera créée; 2) cette superintelligence informatique, une fois créée, ne pourra plus être contrôlée par l’intelligence humaine; 3) il est donc impératif de rendre cette superintelligence compatible avec nous, car notre liberté et notre survie en dépendent; 4) cette compatibilité présuppose que l’on soit capable de définir ce qu’est l’humanité pour le communiquer à la superintelligence, ce qui est un épineux problème philosophique qui devra être résolu avant l’arrivée de l’I.A.
Je me limiterai ici à deux ou trois remarques qui, à mes yeux, révèlent l’importance de la réflexion de Bostrom. Tout d’abord, de quoi parle-t-on lorsqu’on parle d’intelligence artificielle (I.A.)? Il n’est pas anodin que Bostrom préfère le terme superintelligence à celui d’intelligence artificielle. La représentation populaire de l’intelligence artificielle procède selon deux prémisses. Un génie de l’informatique invente seul une intelligence artificielle et cette intelligence artificielle se distingue de la simple puissance informatique par sa conscience. Bon an mal an, on retrouve ces deux prémisses dans de nombreux films; en 2015, on a pu les voir à l’œuvre dans Avengers : Age of Ultron (Joss Whedon) et Ex Machina (Alex Garland). Or, la superintelligence dont parle Bostrom ne possède pas de conscience et risque plutôt d’être créée à la suite d’une explosion de la puissance informatique elle-même. Pour le dire simplement, il y a peu de chance que la venue de la superintelligence conduise à une confusion entre l’homme et la machine comme dans les scénarios de Philip K. Dick. Au contraire, Bostrom insiste sur le fait que l’intelligence artificielle ne ressemblera fort probablement pas à l’esprit humain, même qu’elle risque beaucoup plus de nous apparaître comme quelque chose «d’extrêmement étranger», précise-t-il.
Ce que Bostrom nous invite à concevoir, c’est une super-raison instrumentale, c’est-à-dire une superintelligence qui, considérant une fin donnée, cherchera par tous les moyens possibles à atteindre cette fin. La raison humaine, elle, ne connaît pas parfaitement les finalités qui la motivent. «Nous, êtres humains, sommes souvent heureux de laisser nos valeurs ultimes errer, dit Bostrom. C’est souvent parce que nous ne savons pas précisément ce qu’elles sont.» L’intelligence artificielle, pour sa part, ne pourrait pas exister dans un flou pareil au sujet de son objectif dernier ou de sa raison d’être. Bref, la célèbre formule de Sartre, comme quoi l’être humain est le seul être pour lequel l’existence précède l’essence, demeurerait vraie après la création de l’I.A. Par contre, parce qu’il s’agirait d’une raison instrumentale pure et superpuissante, la quantité de moyens qu’elle serait en mesure de monopoliser pour atteindre sa fin dépasserait tout ce que l’entendement humain est en mesure de concevoir. Bostrom imagine une puissance informatique capable de maîtriser la nanotechnologie et dont l’activité se déploierait selon une conception du temps, de l’espace et des ressources matérielles qui n’aurait plus aucune mesure avec notre perspective humaine. Et devant une impasse, quand un simple ordinateur «bogue», l’I.A. apprendrait de son erreur, la contournerait, redéfinirait son objectif à court terme, ou je ne sais quoi encore, mais jamais elle ne cesserait de poursuivre son objectif ultime. D’où l’importance cruciale de définir à l’avance la finalité qu’il conviendrait de lui assigner. Mais cela revient au problème de définir l’être humain, ou du moins ce que nous entendons par le «bonheur de l’humanité.» Car si l’on définit le «bonheur de l’humanité» par des visages souriants, Bostrom nous avertit que, pour une I.A., cette fin pourrait tout aussi bien être atteinte par l’implantation d’électrodes dans les visages de tout un chacun. Bref, la plus grande inquiétude de Bostrom est que le mythe du roi Midas, qui meurt de pouvoir changer tout ce qu’il touche en or, devienne une réalité à l’échelle planétaire, ce qui signifierait la fin de l’humanité.
L’I.A. sera donc l’outil qui sauvera ou détruira l’humanité selon Bostrom. C’est pourquoi il estime que la tâche la plus urgente à accomplir est de définir l’être humain ou, plus précisément, définir les valeurs qui sont compatibles avec l’humanité. C’est ce qu’il appelle the value-loading problem. Repensons simplement au cas de la voiture intelligente. On souligne souvent, et à juste titre, que la voiture intelligence devra trouver une solution à un épineux problème éthique. Dans l’éventualité d’une collision inévitable qui entraînerait la mort d’êtres humains, quelle décision prendra la voiture? Sauver à tout prix ses propres passagers? Choisir la manœuvre qui causera le moins de morts possible? Sacrifier le conducteur si les personnes qui seront renversées sont des enfants? En éthique, on nomme cette expérience de pensée le dilemme du tramway (en anglais the trolley problem). En philosophie, on aime bien cette expérience de pensée, non pas pour la résoudre, mais simplement pour mieux identifier différentes éthiques, généralement utilitariste et déontologique. Mais quand on présente ce problème, on tient pour acquis que tout le monde sait ce qu’est un être humain. Or, ces deux conditions ne tiennent plus pour une I.A. L’I.A. devra résoudre ce problème; en fait, il ne s’agit même pas de devoir, mais de nécessité : l’I.A. trouvera une solution à ce problème, qu’on le veuille ou non, puisqu’il lui serait impossible d’occulter consciemment cette difficulté pour, comme nous le faisons si souvent, «passer à autre chose». Mais, pour résoudre ce problème éthique, elle devra d’abord savoir distinguer un être humain d’un chien ou d’un orignal. Pour un philosophe comme Nick Bostrom, peut-être bien que l’I.A. sera d’ailleurs la seule intelligence en mesure de résoudre ce problème qui à la fois embête et amuse nos cerveaux d’homo sapiens, mais, pour qu’elle puisse le résoudre convenablement, il faudra lui indiquer les valeurs ultimes qui guideront sa décision. There’s the rub, comme dirait Hamlet.
***
Depuis que j’ai lu Superintelligence, je me surprends à penser et repenser aux thèses de Bostrom. Parfois, je me dis qu’il s’emballe et fait lui-même dans la science-fiction. Parfois, je me dis qu’il est d’une effroyable lucidité. Je ne sais donc pas si la superintelligence verra le jour, mais je suis convaincu que notre quotidien sera de plus en plus affecté par différentes formes d’I.A., dont l’Autopilot de Tesla et la Siri d’Apple, et même la nouvelle Hello Barbie à en croire les journaux, ne sont que les premiers balbutiements. Le sentiment à la fois d’émerveillement et d’étrangeté que font naître nos propres créations technologiques n’en sera qu’exacerbé.
Quant à Bostrom, il me fascine toujours. S’il est une chose que Bostrom n’est pas, c’est une âme religieuse. On peut difficilement concevoir une doctrine plus athée et matérialiste que la doctrine posthumaniste. Et pourtant, à la lecture de Superintelligence, on peut se surprendre à penser à la tradition théologique tellement ce livre nous invite à réfléchir sur l’omniscience, l’omnipotence, l’ubiquité, le temps, l’espace et ce qu’il appelle le cosmic endowment of humanity –qu’on pourrait traduire par le privilège cosmique de l’humanité. Et il y a surtout ce principe de déférence épistémique auquel adhère Bostrom : «Une future superintelligence occupe un point de vue supérieur sur le plan épistémique : ses croyances (probablement sur la plupart des sujets) ont plus de chances d’être vraies que les nôtres. Nous devrions donc déférer à l’opinion de la superintelligence toutes les fois que cela est possible.» Ce n’est pas de la foi au sens religieux du terme, mais cette attitude intellectuelle d’abdication n’en demeure pas moins troublante. Elle rappelle le conte du Grand Inquisiteur des Frères Karamazov ou encore, plus récemment, Soumission de Michel Houellebecq. Dans un autre registre, cette attitude rappelle surtout la fin de I, Robot d’Isaac Asimov. La très rationnelle Dr Susan Calvin, qui connaît mieux que quiconque le «cerveau» des «Machines» superintelligentes qui administrent alors la planète, conclut que ces «Machines» savent mieux que nous ce qui est bien pour nous, donc l’attitude rationnelle qui convient d’adopter est de se soumettre à leur rationalité supérieure. Déférence épistémique dit Bostrom. La conclusion d’Asimov m’a toujours semblé rebutante. Dans sa préface, Asimov dit que ses robots ne reproduiront pas le préjugé faustien ou «frankensteinien» de la créature qui se retourne contre son maître. Il n’en demeure pas moins que ses robots finissent par retirer à l’humanité le droit de déterminer par elle-même sa destinée. «Ce droit, répond la très rationnelle Dr Calvin, [l’humanité] ne l’a jamais possédé, en réalité.» Sans doute que Bostrom serait en partie d’accord, car ce qui motive son projet posthumaniste est précisément la volonté de prendre notre destinée biologique en main. Sauf que le projet posthumaniste ne pourra se réaliser sans l’aide d’une intelligence informatique superpuissante, ce qui crée une pression de plus sur la possibilité de sa réalisation : la recherche biomédicale, les drones et autres projets de l’armée, l’industrie de l’automobile et du commerce en ligne, les moteurs de recherche Google et les plateformes Facebook, sans même parler du génie informatique en lui-même, bref tout converge vers la création de l’I.A. Et c’est alors que Nick Bostrom devient inquiet.
Selon son point de vue radicalement évolutionniste, toute forme d’intelligence inférieure s’est fait exterminer par l’apparition d’une intelligence supérieure; c’est la leçon amère que l’on cache tant bien que mal derrière l’expression «le mystère du chainon manquant». Puisque notre «bonheur» requiert la création d’une intelligence supérieure à la nôtre, pour la première fois le très optimiste Nick Bostrom exige un temps d’arrêt. Et subitement, la philosophie dans sa forme classique, voire la théologie et la littérature, redeviennent pertinentes.
Raphaël Arteau McNeil
Crédit photo: Tesla Motors