|
L’intelligence artificielle, hier et aujourd’hui L'intelligence artificielle se fonde sur l'hypothèse que le processus de pensée humaine peut être mécanisé. L'étude du raisonnement mécanique — ou « formel » — a un long historique. Les philosophes chinois, indiens et grecs ont tous développé des méthodes structurées de déduction formelle au cours du premier millénaire apr. J.-C... Leurs idées ont été développées à travers les siècles par des philosophes comme Aristote (qui a donné une analyse formelle du syllogisme), Euclide (dont les Éléments ont été un modèle de raisonnement formel), Al-Khawarizmi (auquel on doit l'algèbre et dont le nom a donné « algorithme ») et les philosophes scolastiques européens comme Guillaume d'Ockham et Duns Scot... Le philosophe majorquin Raymond Lulle (1232–1315) a conçu plusieurs machines logiques dédiées à la production de connaissance par des moyens logiques ; Lulle décrit ses machines en tant qu'entités mécaniques qui pouvaient combiner des vérités fondamentales et indéniables via de simples opérations logiques, générées par la machine grâce à des mécanismes, de manière à produire tout le savoir possible. Le travail de Lulle a une grande influence sur Leibniz, qui a redéveloppé ses idées. Au XVII siècle, Gottfried Wilhelm Leibniz, Thomas Hobbes et René Descartes ont exploré la possibilité que toute la pensée rationnelle puisse être aussi systématique que l'algèbre ou la géométrie . Dans le Léviathan de Hobbes, on retrouve la célèbre phrase : « la raison [...] n'est rien d'autre que le fait de calculer ». Leibniz imaginait un langage universel du raisonnement (sa characteristica universalis) qui assimilerait l'argumentation à un calcul, afin qu'« il n'y a[it] pas plus de besoin de se disputer entre deux philosophes qu'entre deux comptables. Car il leur suffirait de prendre leur crayon et leur ardoise en main, et de se dire l'un l'autre (avec un ami en témoin, au besoin) : Calculons ! ». Ces philosophes ont commencé à articuler les hypothèses d'un système de symboles physiques qui deviendra par la suite l'un des dogmes de la recherche en IA. Au XX siècle, l'étude de la logique mathématique a fourni l'essentiel des avancées qui ont rendu plausible l'intelligence artificielle. Les bases ont été mises en place avec des œuvres telles que Les Lois de la Pensée de Boole et Idéographie de Frege. S'appuyant sur le système de Frege, Russell et Whitehead ont présenté un traitement formel des fondements des mathématiques dans leur chef d'œuvre Principia Mathematica en 1913. Inspiré par le succès de Russell, David Hilbert a défié les mathématiciens des années 1920-1930 de répondre à cette question fondamentale : « Le raisonnement mathématique peut-il être entièrement formalisé ? » On répondit à sa question par les théorèmes d'incomplétude de Gödel, la machine de Turing et le lambda-calcul de Church. Leur réponse était surprenante à plusieurs titres. Tout d'abord, ils prouvèrent qu'il y avait, en fait, des limitations dans ce que la logique mathématique pouvait accomplir. Mais aussi (et plus important encore pour l'IA) leurs travaux ont suggéré que, sous ces conditions, toute forme de raisonnement mathématique pouvait être mécanisée. La thèse de Church impliquait qu'un appareil mécanique, manipulant des symboles aussi simples que des 0 et des 1, pouvait imiter tout processus concevable de déduction mathématique. Cette notion-clé se traduisit par la machine de Turing — une simple construction théorique qui capturait l'essence de la manipulation de symboles abstraits. Cette invention inspira une poignée de scientifiques qui commencèrent alors à discuter de la possibilité de machines pensantes. Intelligence artificielle et premiers ordinateurs Les premiers ordinateurs modernes sont les machines massives de cryptanalyse de la Seconde Guerre mondiale (telles que le Z3, l'ENIAC et le Colossus) , conçues, en ce qui concerne les deux dernières, à partir des fondements théoriques établis par Alan Turing et développés par John von Neumann. L’IA dans le monde moderne L'IA, travailleur de l'ombre Le domaine de l'intelligence artificielle n'a quasiment reçu aucun crédit pour ces réussites. Certaines de ses plus grandes innovations ont été réduites au statut d'un énième item dans la boîte à outils de l'informatique . Nick Bostrom explique : « Beaucoup d'IA de pointe a filtré dans des applications générales, sans y être officiellement rattachée car dès que quelque chose devient suffisamment utile et commun, on lui retire l'étiquette d'IA. » Beaucoup de chercheurs en intelligence artificielle dans les années quatre-vingt-dix ont volontairement appelé leurs études par d'autres noms, tels que l'informatique, les systèmes à base de connaissances, les systèmes cognitifs ou l'intelligence computationnelle. Cela peut être partiellement car ils considèrent leur domaine comme fondamentalement différent de l'IA, mais aussi car ces nouveaux noms facilitent les financements. Dans le secteur commercial au-moins, les promesses non tenues de l'hiver de l'IA continuent de hanter la recherche en intelligence artificielle, comme le New York Times le rapporte en 2005 : « Les scientifiques en informatique et les ingénieurs logiciel ont évité l'expression 'intelligence artificielle' par crainte d'être considérés comme de doux illuminés rêveurs. » Texte sous licence CC BY-SA 3.0. Contributeurs, ici. Photo : hiddenhallow - Fotolia.com. Des spécialistes de l'informatique : 75017 - ANDBUR http://www.informatique-mac-pc-paris-lille.com Voir toutes les newsletters : www.haoui.com Pour les professionnels : HaOui.fr |