Le défi énergétique de l’intelligence artificielle

L’intelligence artificielle est-elle dangereuse pour le climat ? Les avancées récentes de l’apprentissage automatique profond (« deep learning ») ont permis aux machines de battre les meilleurs humains au jeu de go, d’effectuer des traductions dans toutes les langues courantes ou d’analyser des images et des conversations avec des résultats spectaculaires. Mais ces progrès ont une contrepartie : la quantité d’électricité nécessaire pour entraîner et utiliser ces algorithmes ne cesse d’augmenter.

Lire l’article sur LesEchos.fr : Le défi énergétique de l’intelligence artificielle

DeepMind, explorateur de l’intelligence artificielle

Fin février, quelques semaines avant le confinement, j’ai eu la chance de passer une journée entière à Londres, pour un reportage sur l’entreprise la plus fascinante de la recherche en intelligence artificielle : DeepMind. J’avais déjà rencontré Demis Hassabis, son fondateur, à trois reprises (Séoul, Paris et Montréal), mais ce nouveau rendez-vous m’a permis d’explorer le modèle singulier de DeepMind, entre recherche fondamentale et innovation au profit d’Alphabet, propriétaire de l’entreprise depuis 2014. L’enquête a donné lieu à une publication sur 7 pages dans Les Echos Week-End.

Lire l’article sur LesEchos.fr : Comment DeepMind révolutionne l’intelligence artificielle

Intelligence artificielle : une question de confiance

La confiance est devenue un des thèmes les plus fréquemment évoqués – et âprement débattu – par les spécialistes en intelligence artificielle. En effet, et malgré des résultats spectaculaires, les outils d’intelligence artificielle basés sur l’apprentissage profond (“deep learning”) ne sont pas encore aussi fiables que les logiciels classiques, et il n’existe ni norme ni certification. Ce qui pose un problème pour les applications critiques. C’est ce que j’ai expliqué fin novembre dans une page prospective des Echos, pour laquelle j’ai eu le plaisir d’interroger le chercheur américain Gary Marcus, auteur d’un excellent livre sur le sujet.

L’article est à lire ici : Peut-on vraiment faire confiance à l’intelligence artificielle ?

Entretien : Yann Le Cun et l’intelligence des machines

C’est sans aucun doute le chercheur que j’ai le plus interviewé dans ma vie : à l’occasion de la sortie de son livre (“Quand la machine apprend”, chez Odile Jacob, j’ai eu le plaisir de rencontrer une fois de plus Yann Le Cun, responsable de la recherche en intelligence artificielle de Facebook, à son bureau de New York. L’occasion de parler avec lui des limites de l’IA, des pistes pour que les machines s’approchent réellement un jour de l’intelligence humaine, de sa passion pour la façon dont le cerveau apprend, mais aussi des dérives de la reconnaissance visuelle (qui s’appuie sur une de ses inventions) et de la crise d’image que traverse aujourd’hui Facebook.

A lire sur lesechos.fr : Yann Le Cun : « Les machines vont arriver à une intelligence de niveau humain »

Entretien : Andrew McAfee (Les Echos)

Toujours dans le cadre d’une série d’entretiens sur l’avenir du capitalisme (lire ci-dessous), “Les Echos” vient de publier mon interview d’Andrew McAfee, chercheur au Massachusetts Institute of Technology. Cofondateur de la MIT Initiative on Digital Economy avec Erik Brynjolfsson, Andrew McAfee a écrit avec lui plusieurs livres majeurs sur l’impact des nouvelles technologies pour les entreprises et la société, dont “Race Against the Machine” (non traduit en français), “Le deuxième âge de la machine” et “Des machines, des plateformes et des foules” (publiés en France chez Odile Jacob).

Je l’avais rencontré en juin dernier à Boston. L’article est paru le mercredi 28 août. Il est à lire ici : Pour Andrew McAfee, « il faut arrêter de former les travailleurs comme il y a quatre-vingts ans ! »