Ne pas s'inquiéter

Blog

MaisonMaison / Blog / Ne pas s'inquiéter

May 11, 2023

Ne pas s'inquiéter

[Le battage médiatique de l'IA n'est pas nouveau. L'histoire de l'exagération de son potentiel remonte

[Le battage médiatique de l'IA n'est pas nouveau. L'histoire de l'exagération de son potentiel remonte à des décennies. Dans cet article, Robert J. Marks fait écho à de nombreux points de vue abordés plus en détail dans son livre de 2022 Non-Computable You : What You Do That Artificial Intelligence Never Will. Aujourd'hui, nous le partageons avec vous, écrit à l'origine le 3 octobre 2017 et publié sur The Stream.]

L'IA transforme notre monde. Doit-on s'en soucier ?

L'entrepreneur milliardaire Elon Musk est inquiet.

Woody Allen a dit un jour : "Et si tout n'était qu'illusion et que rien n'existait ? Dans ce cas, j'ai définitivement trop payé pour mon tapis." Musk pense qu'il a surpayé son tapis. Il pense qu'il y a de fortes chances que le monde tel que nous le connaissons soit une simulation informatique sophistiquée conçue par un super programmeur et que nous, les humains, soyons des agents intelligents dans cette simulation. Je suppose que nous pouvons dire que Musk pense que nous sommes le produit d'un design intelligent.

Et nous, en tant que simulations conçues intelligemment, générons nos propres simulations d'IA (intelligence artificielle). Nous sommes, dans l'univers de Musk, des simulations écrivant des simulations. Concernant l'IA que nous créons, Musk prévient : "Je pense que nous devrions faire très attention à l'intelligence artificielle. Si je devais deviner quelle est notre plus grande menace existentielle, c'est probablement cela. Nous devons donc être très prudents."

Musk ne semble pas inquiet que nous puissions constituer une menace existentielle pour le super programmeur qui nous a écrit. Et si Musk a raison, les simulations d'IA que nous créons ne seront-elles pas finalement détruites par les simulations que nos simulations écrivent ? Alors peut-être qu'il n'y a rien à craindre pour Musk.

Pour éviter que l'IA ne bousille davantage l'humanité, Musk pense que l'IA doit être contrôlée. Il a raison sur ce point. Les dangers accompagnent toutes les nouvelles technologies. L'introduction de l'automobile, de l'électricité domestique et du four à micro-ondes menaçait. Alfred Nobel était préoccupé par la menace posée par son invention de la dynamite. Il a apaisé sa conscience en fondant les prix Nobel - y compris le prix Nobel de la paix.

Et puis il y a la technologie des bombes atomiques et à hydrogène, qui sont les plus proches de l'invention de dispositifs apocalyptiques.

Alors devrions-nous nous inquiéter qu'un ordinateur comme Skynet dans les films Terminator devienne conscient de lui-même et essaie de nous anéantir ? Ou, comme dans Matrix, peut-être que les ordinateurs nous obligeront à nous baigner dans une soupe embryonnaire gluante tandis que des programmes informatiques câblés à notre cerveau nous emmèneront dans un monde imaginaire de réalité virtuelle.

Les chercheurs préoccupés par la soi-disant singularité - où les ordinateurs gagnent en intelligence au-delà de celle de l'homme - prennent cette menace au sérieux. Lorsque cela se produira, les ordinateurs prendront le relais et la meilleure vie disponible pour vous et moi sera celle d'un animal de compagnie choyé par un robot. Doit-on s'inquiéter ?

La réponse courte en non. De nombreuses préoccupations légitimes peuvent être soulevées à propos de l'IA, mais pas celles-ci. Aucune de ces choses ne se produira.

Il y a de plus en plus de preuves que les ordinateurs ne deviendront jamais conscients ou ne gagneront jamais en compréhension. Gregory Chirikjian, directeur du laboratoire de robots de la Johns Hopkins Whiting School, ajoute : "Les robots ne pourront pas non plus faire preuve d'une quelconque forme de créativité ou de sensibilité."

Mais attendez une minute ! Nous connaissons quelque chose qui fait toutes ces choses. Il est en quelque sorte contenu dans les trois livres de viande grasse entre nos oreilles. À cause de notre cerveau, vraisemblablement, nous sommes créatifs, conscients et sensibles. Alors pourquoi l'IA ne pourrait-elle pas un jour faire ce que nous faisons ?

Une raison évidente pour laquelle l'intelligence artificielle et les robots n'obtiendront jamais les capacités supérieures des humains est que des fonctionnalités telles que la conscience, la compréhension, la sensibilité et la créativité sont hors de portée de ce que nous définissons actuellement comme des ordinateurs. Alan Turing a inventé la machine de Turing dans les années 1930. La thèse de Church-Turing affirme que tout ce qui peut être fait sur un ordinateur aujourd'hui peut être fait sur la machine d'origine de Turing. Cela peut prendre un milliard ou un billion de fois plus de temps, mais cela peut être fait. Par conséquent, les opérations qui ne peuvent pas être effectuées par une machine de Turing ne peuvent pas être effectuées par les supercalculateurs d'aujourd'hui.

Turing a montré qu'il y avait de nombreuses opérations déterministes au-delà des pouvoirs de l'ordinateur. Par exemple, un programme informatique ne peut pas être écrit pour toujours analyser ce qu'un autre programme informatique arbitraire fera. Un programme informatique sélectionné arbitrairement finira-t-il par s'arrêter ou fonctionnera-t-il indéfiniment ? Turing a montré qu'un ordinateur ne peut pas résoudre ce problème. La machine de Turing, et donc les ordinateurs d'aujourd'hui, ont des limites fondamentales à ce qu'ils peuvent faire. En termes de compréhension, notre cerveau fonctionne au-delà des machines de Turing à bien des égards.

Le philosophe John Searle a proposé une autre raison dans son argumentation de Chinese Room. Imaginez une pièce avec un petit homme nommé Pudge. Il reçoit des messages en chinois glissés par une fente de la porte. Pudge regarde le message et se dirige vers une grande banque de classeurs dans la pièce où il cherche un message identique ou similaire. Chaque dossier dans le classeur contient deux feuilles de papier. Sur l'une est inscrit le message qui pourrait correspondre au message glissé par la fente de la porte. La deuxième feuille de papier dans le dossier est la réponse correspondante à ce message. Une fois que Pudge correspond au bon message, il copie la réponse correspondante. Après avoir reclassé le dossier et fermé le tiroir du classeur, Pudge retourne à la fente de la porte par laquelle il livre la réponse et son travail est terminé.

Voici les plats à emporter.

Pudge comprend-il la question ou la réponse ? Non. Pudge fait son travail et ne lit même pas le chinois ! Il associe simplement des modèles. Il pourrait sembler de l'extérieur que Pudge comprend le chinois, mais ce n'est pas le cas. Il suit simplement un algorithme - une procédure étape par étape pour atteindre un objectif.

Lorsqu'on suit une procédure étape par étape pour cuire un gâteau, c'est-à-dire en suivant une recette, on exécute un algorithme. C'est tout ce qu'un ordinateur peut faire. Il peut suivre les instructions d'un algorithme.

Vous vous souvenez quand le superordinateur Watson d'IBM a battu tout le monde au jeu télévisé Jeopardy ! ? Je peux imaginer que Pudge dans la salle chinoise soit réaffecté à la salle Wikipédia. Lorsque Watson se voit poser une question, Pudge se rend dans un classeur Wikipédia et récupère la bonne réponse et la glisse à travers la fente vers l'extérieur. Watson l'ordinateur ne comprend ni les questions ni les réponses. Watson suit un algorithme préprogrammé. Ce n'est pas conscient.

Alors qu'est-ce qui permet à notre cerveau, ou plutôt à nous, de faire des choses que les ordinateurs ne peuvent pas faire ? Qu'est-ce qui nous differencie?

Certains chercheurs cherchent une explication matérialiste de nos cerveaux remarquables. En s'intéressant aux tubules quantiques trouvés dans le cerveau, Sir Roger Penrose et le Dr Stuart Hameroff proposent un modèle de mécanique quantique. Hameroff note que leur théorie des tubules quantiques du cerveau "est en conflit avec une prémisse majeure de l'IA [forte] et de la singularité".

La théorie de Penrose et Hameroff propose un processus cérébral physique non algorithmique. Les ordinateurs sont limités à l'exécution d'algorithmes. Puisque non algorithmique signifie non calculable, ce que Penrose & Hameroff proposent ne peut pas être simulé sur un ordinateur. Si la théorie de Penrose-Hameroff ou d'autres travaux sur la soi-disant conscience quantique réussissent et peuvent être intégrés dans un modèle fonctionnel, nous serons en mesure de générer des machines qui font ce que fait le cerveau. Cette nouvelle technologie ne sera pas un ordinateur. Nous devrons lui donner un autre nom.

Si nous pouvons construire un cerveau humain, ayez peur. Ayez très peur. Skynet est peut-être juste au coin de la rue. Mais tant que les ordinateurs deviennent simplement plus rapides et utilisent plus de mémoire, il n'y a aucune raison de s'inquiéter à ce sujet.

Même si nous acceptons les limites des ordinateurs, et donc de l'IA, les craintes de Musk sont toujours fondées. Il craint que nous puissions "produire quelque chose de mal par accident". Il a raison. Les ordinateurs font ce qu'on leur dit de faire.

Le célèbre roman et film de science-fiction 2001 : l'Odyssée de l'espace présente un ordinateur de haut niveau nommé HAL. À la fin du film, HAL fait des efforts pour tuer les astronautes car ils interfèrent avec l'objectif principal de la mission.

Il ne s'agit pas tant d'un ordinateur devenu voyou que d'une programmation négligente. Même si l'on admet la fiction que HAL est conscient, la faute revient au programmeur de HAL qui a omis de préciser que l'être humain était plus important que la mission.

L'écrivain de science-fiction Isaac Asimov a tenté de réglementer l'IA dans un article de magazine de science-fiction de 1942 regroupé plus tard avec d'autres histoires sur le même thème et publié sous le titre I Robot. Asimov a proposé trois lois pour assurer la soumission des robots IA aux humains. La première des trois lois d'Asimov est la suivante :

Si HAL était programmé avec la première des lois d'Asimov, HAL n'essaierait jamais de reprendre la mission en assassinant les astronautes. Mais là encore, le film serait moins intéressant.

Les législateurs et les régulateurs de l'IA doivent penser plus largement qu'Asimov. Que ferait un robot IA à un policier tentant de taser un suspect de meurtre en fuite ? Suivant la première loi interdisant à tout être humain de se faire du mal, le robot désarmerait le policier et le meurtrier s'échapperait. La première loi doit être amendée.

Certains disent que l'IA sera un jour en mesure de porter des jugements moraux et éthiques avant d'agir. Non. Les jugements moraux et éthiques seront effectués au préalable dans le programme informatique.

Réfléchir aux conséquences des règles, c'est ce que font les législateurs et les régulateurs. Ils le font souvent si mal. J'espère que toute réglementation de l'IA qui en résultera ne nécessitera pas une horde de bureaucrates fouinant dans le code de tout le monde. Avoir des entreprises responsables de l'action de leur IA semble être une meilleure idée. Des législateurs avec des tubules quantiques meilleurs que les miens sont nécessaires pour formuler de telles règles.

L'IA continuera de remplacer les travailleurs et de changer notre monde. Les algorithmes remplacent les agents de voyages, les préposés aux péages, les caissiers de banque, les caissiers et les magasins physiques. Mais la croissance de l'IA a également créé des emplois comme des spécialistes des technologies de l'information, des blogueurs, des analystes de données, des programmeurs et des webmasters.

Toute nouvelle technologie donnera lieu à ce type de transition. Les économistes aiment invoquer les proverbiales usines de fouets de buggy, qui ont été remplacées par des usines de voitures.

Mais méfiez-vous du battage médiatique sur l'IA motivé par le marketing, la renommée, l'ignorance ou l'augmentation du nombre de clics sur un site Web. Au début des années 1900, alors qu'il tentait de lancer sa technologie de courant continu, Thomas Edison électrocutait des animaux lors de foires d'État en utilisant le courant alternatif concurrent de Nikola Tesla. Edison a même fait tuer le pauvre Topsy l'éléphant à Coney Island en 1903. Edison a fait cela pour que les gens adoptent son courant continu plutôt que le courant alternatif de Tesla.

Selon Edison, le courant alternatif de Tesla était une menace existentielle potentielle. Mais Edison n'était pas intéressé par la vérité. Parce qu'il pensait que cela améliorerait son entreprise, Edison a lancé un battage médiatique. Comme le montre la sortie des prises murales de votre maison aujourd'hui, Tesla a gagné la bataille même s'il y avait et il y a des problèmes avec son courant alternatif. Des électrocutions accidentelles occasionnelles se produisent encore et il y a encore des incendies de maison dus à une isolation électrique effilochée. Mais envisage-t-on même d'éliminer ces risques en vivant sans électricité ?

Chaque nouvelle technologie a des conséquences. Mon merveilleux téléphone portable me permet d'accéder au Web et à la connaissance du monde mais, ce faisant, j'ai sacrifié ma vie privée à Google et peut-être à la NSA. Il y a toujours des compromis. Personnellement, j'ai hâte de programmer ma voiture pour conduire de McGregor, au Texas, à notre maison près de Charleston, en Virginie-Occidentale, pousser GO et ramper sur le siège arrière pour faire une sieste. Il y a un danger possible ici. Je pourrais entrer par erreur dans Charleston, Caroline du Nord.

Voici l'essentiel : filtrez le battage médiatique, comprenez les limites de l'IA et ignorez les éléphants électrocutés. Presque toutes les prévisions de l'IA sont hyperboliques. Comme National Enquirer, ils sont motivés par autre chose que la vérité. Tenez compte du conseil de Neils Bohr, "La prédiction est très difficile, surtout en ce qui concerne l'avenir."