Interview : faut-il avoir peur de l’intelligence artificielle ?

 

Aurélie Jean
L’intelligence artificielle va-t-elle définitivement supplanter l’humain, se demande Aurélie Jean dans sa dernière chronique au Point ? En quoi les algorithmes d’aujourd’hui sont-ils différents des logiciels de l’informatique du siècle dernier ?
L’intelligence artificielle, c’est faire résoudre des problèmes par des ordinateurs. Pour cela, il faut d’abord créer un modèle sous forme mathématique. C’est ce qu’on appelle un algorithme. J’ai beau être une «  matheuse  », la calculatrice ira toujours plus vite que les opérations que je peux faire à la main. Je crée donc des algorithmes pour aller plus vite, être plus efficace. La grande différence entre Deep Blue, l’ordinateur d’IBM qui avait battu Garry Kasparov aux échecs et AlphaGo, la nouvelle championne du jeu de go conçue par Google, c’est que la machine a atteint son niveau en jouant d’abord contre elle-même avant de battre un humain. On fixe les règles de base au départ, et l’intelligence artificielle est ensuite capable «  d’apprendre  » toute seule en jouant une multitude de combinaisons contre elle-même. Cette notion de deep learning est déjà ancienne. On distingue deux niveaux d’intelligence artificielle  : la faible et la forte. Dans les modèles les plus évolués, la machine serait capable d’apprendre sans intervention humaine. Elle aurait en quelque sorte «  conscience  » de son existence. On cherche même à la doter d’une intelligence émotive. En réalité, aucune machine n’éprouvera jamais de sentiments, selon moi. Mais elle peut en exprimer, si elle a été programmée pour le faire.
Construire une machine capable de battre des champions de go ou d’échec, c’est une performance qui peut frapper les esprits, mais qui ne porte guère à conséquences. Que penser en revanche d’un programme qui remplacerait les pilotes dans un avion, ou qui prendrait le volant à notre place à bord des voitures autonomes annoncées dans un futur proche  ?
Techniquement, on sait déjà faire beaucoup de choses. On a des «  pilotes automatiques  » à bord des avions ou des métros. Mais l’exemple de la voiture autonome est intéressant, parce que même si elle marche déjà à 90%, ce sont les 10% qui restent qui posent problème. On n’a pas le droit à l’erreur. Je ne suis pas une spécialiste des transports automatiques, mais il me semble que le challenge n’est pas seulement technique. On voit bien que la question est aussi d’ordre éthique. L’IA qui pilote une voiture autonome doit-elle privilégier la sécurité des personnes à bord, ou le piéton qui traverse devant elle  ? La réponse ne peut pas venir uniquement des programmeurs. Le public doit lui aussi pouvoir donner son avis. Je plaide également pour que les scientifiques se rapprochent des parlementaires afin de co-construire la réglementation de demain. Il ne faudrait pas qu’une loi freine l’innovation ou protège faussement la population, voire qui contient des vides technologiques.
On met souvent les erreurs humaines en cause dans les accidents, mais un ordinateur aussi, ça peut «  planter  »…
Quand il y a un bug, il y a deux raisons possibles  : soit c’est que le programme a été mal codé, soit c’est qu’il rencontre un cas non pris en compte au départ. C’est ce qu’on appelle un «  biais  » de programmation. Je prends souvent l’exemple des premiers logiciels de reconnaissance faciale qui n’étaient pas capables de fonctionner correctement avec des personnes noires, simplement parce que les programmateurs étaient blancs. Dans les deux cas, il s’agit de failles humaines. Un logiciel ne peut pas être «  raciste  », ou sexiste comme cela a été dénoncé récemment dans le cas d’un programme d’IA chargé de sélectionner les CV chez Amazon. Je le dis d’autant plus ouvertement alors que je milite personnellement pour davantage d’égalité des sexes dans le monde professionnel. Ce n’est pas le programme qu’il faut incriminer. Il faut au contraire s’attacher à comprendre comment il a été écrit pour pouvoir le corriger, l’améliorer. Cela étant dit, il faut bien reconnaître que si tout le monde vise le «  zéro bug  », il y en aura toujours. Je ne vois pas comment les éviter, mais on peut faire en sorte de les repérer avant qu’ils ne fassent des dégâts. La plupart des outils informatiques que vous utilisez comportent des bugs, mais ils sont supprimés au fur et à mesures des nouvelles versions mises à jour. Quand je travaillais chez Bloomberg, on commençait à tester les nouveaux programmes parmi les 5.000 collaborateurs en interne avant des les diffuser à l’extérieur pour minimiser les risques. L’important, c’est de réagir vite.
La vitesse, cela peut aussi faire peur en cas de crash. Le grand public a pu être choqué d’apprendre que des machines réalisaient des transactions boursières à la place des traders lors de la crise de 2008…
C’est vrai que le trading haute-fréquence est automatisé. Mais cela peut-être intéressant sur des marchés qui fluctuent trop, en permettant au contraire de ré-équilibrer les échanges. Je pense même que les algorithmes peuvent prévenir les crises, même si cela n’a jamais été démontré. On peut désormais faire des prédictions grâce à l’IA, mais à la fin c’est l’humain qui décide. Tant que l’IA ne sert pas à faire de la spéculation financière, son utilisation dans le milieu bancaire et boursier ne me choque pas.
La vitesse et la puissance de calcul ne sont-elles pas en train de marquer le pas face à la montée en puissance de la data, véritable «  carburant  » de l’économie numérique  ?
Effectivement, nous générons toujours plus de données que ce que nous sommes capables d’analyser. C’était l’une de mes grandes frustrations quand j’étais en thèse  : je générais davantage de data que ce je pouvais traiter. Même si on accédait demain à des puissances de calcul encore plus puissantes que celles dont nous disposons, avec par exemple des «  ordinateurs quantiques  », on doit faire face à une croissance exponentielle des facteurs à traiter. La moralité que j’en tire, c’est qu’il faut toujours garder un œil critique sur ce qu’on fait.
La société aussi peut parfois être critique, voire effrayée par un avenir toujours plus «  connecté  » qui évoluerait vers une société de surveillance généralisée, façon cauchemar d’Orwell
Oui, les gens qui expriment ces craintes ont raison. Comme toute innovation, l’IA peut conduire à de bonnes ou de mauvaises utilisations. C’est comme le nucléaire, qui a conduit à la bombe atomique mais aussi à développer des thérapies contre le cancer. Il faut se garder de tout rejet épidermique. Développer l’esprit critique est une bonne chose. Chaque innovation peut provoquer à la fois la peur et la fascination. Mais je sens monter une méfiance envers la science qui m’attriste. Un scientifique digne de ce nom n’a pas à mon sens à être technophile ou technolâtre, il doit juste être techno-réaliste. Je constate qu’il est souvent plus facile de vendre des peurs que des rêves. Comme je me refuse à le faire, mes réponses sont souvent décevantes pour le grand public qui s’attend à une présentation dramatique.

Publicités

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s