Menu General
cabezal
Menu General
cabezal favorita
     
   
     
     
     
   
 
Débutons classiquement par une question mille fois répétée : c’est quoi l’intelligence artificielle ? Il suffit de demander à votre moteur de recherche favori (qui est une intelligence artificielle par définition) pour obtenir un flot de réponse. On va simplifier et oublier toutes les réponses qui font intervenir « la simulation » de l’intelligence humaine, et ne se concentrer que sur trois ingrédients essentiels : des données, des ordinateurs, des algorithmes.

Vu comme ça, l’intelligence artificielle ne respire pas la nouveauté. Chacun de ces ingrédients existe depuis des années, et avant même que l’on ne parle d’intelligence artificielle. Alors qu’est-ce qui a changé ? Essentiellement rien, juste du « plus », mais en grande quantité : « plus » de données, des ordinateurs « plus » puissants, des algorithmes « plus » performants.

Cela n’a l’air de rien, et c’est sans doute un peu décevant pour la plupart. Mais le « plus » est un malin, on n’a l’impression qu’il ne fait rien, mais il change tout si on le fait vraiment grandir.

Prenez votre voiture et accélérez, il ne se passe pas grand-chose, vous allez plus vite c’est tout. Soit, mais appuyez vraiment sur l’accélérateur, passez le « plus » en sur-vitaminé, et approchez-vous de la vitesse de la lumière. Alors là, tout change, vous entrez dans l’univers étrange de la relativité restreinte : votre temps s’écoule plus lentement, votre longueur augmente, bref votre espace-temps se transforme, ce qui n’est pas rien. Vous êtes passé d’un coup d’un espace newtonien tout à fait rassurant à un espace einsteinien largement plus étonnant. La même chose se passerait pour l’infiniment petit, ou le « plus » petit vous plongerait d’un coup dans le monde déroutant de la mécanique quantique.

La conclusion c’est qu’avec le « plus » il vaut mieux rester prudent. C’est la même chose avec nos trois ingrédients : on pense que cela ne va rien changer, mais en fait cela va tout changer.

Précisons un peu. Qu’est-ce que le « plus » du côté des données ? Qu’est-ce qui a changé de ce côté-là ? Essentiellement une chose : la masse de données humaines. Qu’il s’agisse de Monsieur Facebook, de Monsieur Google, de Madame Amazon, ou du jeune Twitter, sans parler de leurs cousins en Chine (la famille Baidu ou la famille Alibaba), la quantité de « données humaines » a littéralement explosé. Pour donner une idée (déjà fausse, les chiffres sont de 2018) à chaque minute on dénombre : 3,7 millions de requêtes sur Google, 1 million d’accès sur Facebook, 187 millions de mails, etc. etc.

Du côté des ordinateurs (que l’on appelle des « centres de données hyperscales », pour faire plus chic) c’est la même chose, avec des puissances de calcul tout aussi affolantes et des noms tout aussi affriolants : on parle de centres de calcul « pétaflopique », et bientôt « exaflopique ». Inutile de dire combien cela fait … « Très beaucoup » comme disait ma fille quand elle était plus jeune.

Enfin du côté des algorithmes, l’utilisation de méthodes anciennes mais revisitées, a donné naissance à des réseaux de neurones (maintenant profonds) avec des familles aux noms étranges : réseaux de neurones convolutifs, réseaux à apprentissage supervisé, à apprentissage non supervisé, réseaux adversatifs générateurs, réseaux neuronaux récurrents etc. Bref tout une panoplie de jeunes guerriers qui veulent en découdre.

Bon, mais une fois que l’on a dit tout ça (et que tout le monde connait), on n’est pas beaucoup plus avancé. Qu’est-ce que le « plus » a fait dans ce cocktail à trois ingrédients pour que l’intelligence artificielle apparaisse soudainement dans notre paysage ?

La grande nouveauté, et partant le grand « plus », c’est l’apparition relativement récente des données humaines. Evidemment il a bien fallu des puissances de calcul et des algorithmes performants, et l’IA est le fruit de ce ménage à trois, mais sans données humaines, il n’y a simplement pas d’intelligence artificielle.

Prenons un exemple, pour qu’un algorithme batte un champion d’échecs, il ne faut pas simplement lui donner les règles du jeu, il faut surtout l’entraîner, lui faire ingurgiter des milliers de parties. Un logiciel de traduction fonctionne de la même manière, il a besoin de textes, comme un programme de reconnaissance d’images a besoin d’images, comme un logiciel de recommandation a besoin de requêtes etc. Bref sans données, pas d’apprentissage.

Et c’est tout ? Oui, mais d’un coup, on est passé comme Alice, de l’autre côté du miroir. Pour comprendre ce point, la manière dont avec ce « plus » on a changé d’espace, pour reprendre notre exemple, il faut faire un retour en arrière et ouvrir les perspectives.

Il y a bien longtemps, disons 500 ans pour fixer les idées, le monde de nos ancêtres était bien différent. Suivant la physique aristotélicienne, les pierres tombaient car elles cherchaient à rejoindre leur lieu naturel (le centre de la Terre), la fumée montait pour se conformer à sa nature aérienne, et si vous étiez malade, vous pouviez bien lire Paracelse qui vous expliquait les correspondances mystérieuses entre macrocosme et microcosme, et qui pouvait vous conseiller tel ou tel remède suivant les notions complexes de la similitude et de la ressemblance. Pour donner un seul exemple, le noyer était un arbre nuisible (ne jamais s’endormir dessous !) parce que son nom latin « nux » est rattaché au verbe qui signifie nuire, « nocere ».

De partout bruissait le même message : la nature est un grand livre qu’il s’agit de déchiffrer en comprenant les intentions cachées de la divinité. Ce monde sublunaire – donc corrompu – ne pouvait être décrit par les mathématiques, que l’on réservait au monde supralunaire, celui des étoiles (et des planètes). Bref, pour reprendre une formule d’un grand médiéviste, « expliquer ou enseigner consistait d’abord à rechercher ou à dévoiler des significations cachées ». Le monde était un monde de signes et de marques dont on pouvait percer le secret comme on le fait d’un livre, et qui renvoyait systématiquement à la notion d’intention : quel est le message du créateur ? Qu’a-t-il bien voulu dire ? Quels sont ses intentions ?

La suite est connue, à un moment qu’il est commode de placer au 16ème, la lumière fut. Ce fut le programme d’un grand nombre mais dont la figure maîtresse est celle de Galilée. Il repose sur ce qu’Alexandre Koyré a appelé la « mathématisation du monde ». Cette « mathématisation du monde » dit que le monde extérieur est mesurable, que des expériences (scientifiques) sont possibles, et que l’on peut apprendre les lois qui gouverne la nature (indépendamment de toute notion d’intention). C’est ce programme qui a ouvert la voie au développement des sciences et qui a conduit aux avancées scientifiques et technologiques que nous connaissons.

Avec cette perspective en tête, on peut proposer qu’aujourd’hui, la véritable révolution est celle de la « mathématisation des humains ». Par-delà la formule, il s’agit d’indiquer que le développement de l’IA est basé sur l’explosion des « données humaines » (issus des réseaux sociaux, des capteurs de santé, des caméras de surveillance, de nos données bancaires, et de toute la panoplie de nos interactions avec nos applications préférés) et sur leur exploitation (pour mieux comprendre les comportements individuels et collectifs, le fonctionnement de notre corps et toutes nos interactions avec le monde). Toutes ces données sont « mathématiques » au sens premier : elles se présentent comme une série de chiffres.

En retour, les problématiques posées par l’IA sont majoritairement des problématiques éthiques et sociales (les questions scientifiques et technologiques sont patentes, mais il n’y a pas à douter qu’elles seront résolues). Le champ ainsi ouvert est vaste : quid du libre arbitre, de la confiance dans les algorithmes, de l’utilisation de ces données etc.

Il est également intéressant de noter que dans les deux cas, « mathématisation du monde » ou « mathématisation des humains », le territoire gagné s’est fait au détriment des notions de volonté ou des notions d’intention. Ces notions sont vagues, mais elles marquent dans notre imaginaire le même type de territoire : une sorte de territoire de l’esprit jusqu’alors rétif à toute mathématisation.

Reprenons. Le « plus » des données humaines, associé au « plus » des ordinateurs et des algorithmes, nous a fait d’un coup basculer dans un autre espace : on est passé du paysage connu et largement étudié de la liberté individuelle, du libre arbitre, de la volonté des uns et des autres, des choix et des intentions, à celui encore peu exploré de la « mathématisation des humains », avec toutes les questions éthiques qui d’un coup nous apparaissent.

Remarquons également que l’IA ne sait rien de tout cela. Elle ne sait rien des humains, rien des concepts, et les notions de volonté, de libre-arbitre ou de liberté individuelle, lui passent toujours au-dessus de la tête. Pour autant elle est très forte (mais vraiment très forte !) pour analyser nos interactions avec le monde, pour faire des corrélations, pour étudier des bases de données immenses, pour optimiser les résultats etc.

Donc la question est la suivante : si nos données d’interaction avec le monde sont mathématisées, qu’est-ce que cela signifie ? Quels en sont les conséquences ?

Yuval Harari, le très fameux auteur de Sapiens, donne un bon exemple personnel des capacités de l’IA : il explique qu’en analysant ses propres interactions avec le monde (ses mails, ses comptes Facebook et Twitter, ses déplacements, ses battements de cœur, ses choix musicaux , ses comptes en banque, ses achats etc.), une IA future n’aurait pas eu trop de mal à prédire, avant que lui-même ne le sache, qu’il était homosexuel. Là, il faut faire attention aux mots : l’IA ne « sait » rien des homosexuels, elle ne sait même pas ce que cela veut dire, elle ne fait que comparer des interactions (les données de Yuval Harari) avec d’autres interactions (d’autres données humaines) pour produire un résultat du type : « la probabilité que Yuval Harari soit homosexuel est de 97% ».

Là on est vraiment au cœur de la question, si une IA arrive à prédire cela (et l’on a aucun doute là-dessus), la nouvelle question de taille respectable est la suivante : sommes-nous autre chose que nos interactions avec le monde ?

Avant de répondre à cette très grosse question, reprenons l’exemple de Yuval Harari sous une autre forme : supposez que vous soyez amoureux et que ce soit votre secret.

Personne n’est au courant, pas même la personne que vous aimez, c’est vraiment votre secret le mieux gardé, vous ne l’avez dit à personne, pas même à votre meilleur ami. Supposez maintenant que vos interactions avec le monde soient enregistrées et analysées par une IA bien programmée. La question est alors la suivante : l’IA pourrait-elle prédire que vous êtes amoureux ou pas ?

Ma réponse est oui à tous les coups sauf un cas, celui où vous n’êtes en fait pas amoureux du tout (ou que vous êtes vous-même une IA, ce qui revient au même).

Parce que si vous êtes vraiment amoureux (et que c’est votre secret le mieux gardé etc.), on voit mal comment les battements de votre cœur ne se modifieraient pas en présence de l’être aimé, ou que vos paroles ne trahiraient (de manière subtile) votre passion, ou encore que les films que vous regardez ou la musique que vous écoutez n’en seraient pas affectés etc. Bref, il y a là toute une série de signes et de marques, bien mathématisés, qui permettraient à une IA de conclure : « X est amoureux de Y avec une probabilité de 89% ». Et si rien de tout cela apparaît, c’est que clairement vous avez un problème avec vos sentiments : soit que vous êtes une IA (et donc que vous n’avez aucune idée de ce que signifie « être amoureux »), soit que vous n’êtes finalement pas amoureux (et que vous avez menti).

Généralisons de manière un peu brutale : si vos pensées (intimes), vos croyances (intérieures) etc. ne s’expriment pas d’une manière ou d’une autre dans votre interaction au monde, c’est qu’elles n’existent pas. Et réciproquement, si elles s’expriment (et donc si elles existent), elles produisent des données analysables (parce que mathématisables) par une IA. Et donc l’IA en question saura (éventuellement avant vous) que vous êtes, au choix : amoureux, homosexuel, croyant, agnostique etc.

Le problème, si l’on peut dire, n’est pas de s’interroger sur l’intelligence plus ou moins grande de l’IA, (elle n’est ni intelligente, ni stupide, ces mots n’ont simplement aucun sens, comme il n’y a aucun sens à se demander si un sous-marin sait nager) mais de s’interroger sur les conséquences de la « mathématisation des humains », à travers la masse de données que nous fournissons chaque jour dans nos interactions avec le monde.

Ouf ! On se trouve en face d’un problème orwellien à la puissance 10, si même nos pensées intimes et secrètes comme le fait d’être amoureux seront forcément connu d’une IA, que reste-t-il de nous pauvres mortels ?

On pourrait s’en sortir (un peu) en affirmant que l’IA ne sait pas tout et que de très nombreuses pensées intimes et non formulées échappent à cette présence scrutatrice. Par exemple à cet instant précis, j’ai une pensée magnifique (sur le paysage au dehors, en lien avec une photo sur mon bureau, ou avec la belle peinture de mon aïeul au-dessus de mon lit) et cette pensée magnifique ne concerne que moi et aucune IA ne pourra jamais connaître puisque je la garderai juste pour moi.

Certes, certes, mais ce serait un peu de la méthode Coué. Comme dans cette histoire où un type tombant d’un immeuble répète à chaque étage : « Jusqu’ici tout va bien ! Jusqu’ici tout va bien ! » On se raccroche à ce qu’on peut… ici à des pensées intimes, alors que l’on est en train de tomber.

Dans ce jeu du chamboule-tout, il faut quand même prendre la mesure de ce qu’il s’est passé. Nous sommes intiment persuadés que nous sommes uniques, très différents des autres, avec une sorte d’intimité inaccessible qui est notre domaine, notre jardin secret, absolument inconnu des autres, et que ce domaine est nôtre quel que soit les IA qui nous entourent.

C’est très faux parce que si l’ensemble de nos interactions au monde sont analysées par des algorithmes, ces derniers « sauront » ce que vous aimez, ce que vous désirez, pour qui vous votez et vos orientations sexuelles. C’est le principe du « social ranking » qui est mis actuellement en place en Chine, ou qui fait que Monsieur Facebook ou Madame Amazon connaissent probablement mieux que vous qui sont vos amis ou vos préférences en matière d’achat ou votre orientation politique. Plus les bases de données humaines sont alimentées, plus le résultat est précis. Il n’y a qu’à ce souvenir du scandale de « Cambridge Analytica ». Votre petit jardin secret s’est réduit à peau de chagrin.

Toute la question se résume au fond à une seule (gigantesque) soustraction : lorsque nous soustrayons toutes nos interactions au monde à l’ensemble de ce que nous sommes, quel est le reste ?

Les optimistes diront : « il me reste toutes mes pensées intimes et que je suis le seul à connaître parce qu’elles n’impliquent rien dans mes interactions au monde ! »

Bon, très bien, mais ça fait combien, en pourcentage de vous-même, 1%, 3%, 10% ? Et plus encore, cela change quoi de dire cela ?

De l’autre côté, si nous considérons que le reste de la soustraction est négligeable, de vastes questions vont partir à l’assaut de notre intelligence naturelle. Si nous sommes largement déterminés par nos interactions au monde et que ces interactions sont connues par une IA, deviendrons-nous aussi prévisibles qu’une machine à laver ? Pourrons-nous alors « jouer de l’humain » comme on programme un circuit électronique, ou comme on interprète un morceau de piano ? Si ces questions vous paraissent étranges, intéressez-vous aux publicités ciblées, aux messages orientées, à vos choix d’achats, aux raisons qui vous font décider, aux communications qui vous font voter… et rappelez-vous que nous ne sommes qu’au début. Et mieux encore, pourrons-nous « faire de l’humain » comme nous l’invite les chatbots actuels, mais à une puissance telle qu’ils seraient indétectables, avec en ligne de mire une rêverie de Turing devenue réalité.

Des fantasmes de science-fiction ? Peut-être.

Mais une chose est sûre : quelque soit votre propre réponse sur le reste de la soustraction, la « mathématisation des humains » est bien lancée, et les questions qu’elle pose devraient nous occuper durant les prochaines décennies.
   
     
     
     
 
Christophe de Beauvais, L'Intelligence Artificielle : quelle révolution ?
[Tarare, 2019]
Traduction à l'espagnol : Ónix Acevedo Frómeta
   
     
     
Haut de page