En 1725, Basile Bouchon invente un système de ruban perforé pour automatiser un métier à tisser. En 1728, son assistant remplace les rubans par des cartes. C'est le début de la sauvegarde et de l'automatisation par des machines programmables, le début de l'informatique.
Alan Turing démontre en 1936 que certains problèmes mathématiques ne peuvent être résolus. Pour cela, il postule qu'il existe une machine programmable capable d'effectuer toutes sortes de calculs. Cette machine portant le nom de « machine de Turing » va être à l'origine du premier ordinateur.
L'ordinateur originel, appelé ENIAC, est apparu en 1943. Il se différencie des machines car il peut faire toutes sortes de calculs et de tâches à condition d'être programmé. Dans les années 50, les progrès de l'électronique permettent l'apparition de langages de programmation.
Dans les années 1950, les progrès de l'électronique permettent de développer la première génération d'ordinateurs constitués de mémoire vive et d'un processeur. C'est la même année qu'Alan Turing publie un article intitulé « Computing Machinery and Intelligence » dans lequel il se demande si les machines peuvent imiter l'homme. C'est le début de l'intelligence artificielle.
Donner une définition de l'intelligence artificielle n'est pas simple. Yann Le Cun, prix Turing en 2018, propose la définition suivante : « l'IA est un ensemble de techniques permettant à des machines d'accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux ».
Aujourd'hui, la recherche en intelligence artificielle a permis de réaliser des progrès fulgurants en matière de robotique, de véhicules autonomes, de traitement de la parole, en compréhension du langage naturel. On en connait tous des exemples comme la reconnaissance faciale, Siri d'Apple ou encore OK Google.
Parmi ces nombreuses réalisations, beaucoup sont le fruit des progrès accomplis dans le domaine de l'apprentissage machine. Et c'est justement cet apprentissage autonome qui est le cœur de l'intelligence artificielle. Un programme peut apprendre avec supervision d'un opérateur humain qui lui donne des exemples d'entrées et de sorties. On parle de réseaux de neurones artificiels, qui sont utilisés dans les prévisions météo, par exemple.
Mais un programme peut aussi apprendre sans supervision. L'algorithme est laissé à lui-même, alors qu'on lui fournit un grand nombre de données non étiquetées comme par exemple la reconnaissance faciale de Facebook.
L'intelligence artificielle qui s'appuie sur les réseaux de neurones artificiels peut poser des questions éthiques. On lui reproche d'être opaque, de ne pas laisser voir le raisonnement qui permet aux algorithmes d'arriver au résultat final. Il est alors difficile d'avoir confiance en des décisions qui ne sont pas mesurables.