L’intelligence artificielle, hier et aujourd’hui

L'intelligence artificielle se fonde sur l'hypothèse que le processus de pensée humaine peut être mécanisé. L'étude du raisonnement mécanique — ou « formel » — a un long historique. Les philosophes chinois, indiens et grecs ont tous développé des méthodes structurées de déduction formelle au cours du premier millénaire apr. J.-C...

Leurs idées ont été développées à travers les siècles par des philosophes comme Aristote (qui a donné une analyse formelle du syllogisme), Euclide (dont les Éléments ont été un modèle de raisonnement formel), Al-Khawarizmi (auquel on doit l'algèbre et dont le nom a donné « algorithme ») et les philosophes scolastiques européens comme Guillaume d'Ockham et Duns Scot...

Le philosophe majorquin Raymond Lulle (1232–1315) a conçu plusieurs machines logiques dédiées à la production de connaissance par des moyens logiques  ; Lulle décrit ses machines en tant qu'entités mécaniques qui pouvaient combiner des vérités fondamentales et indéniables via de simples opérations logiques, générées par la machine grâce à des mécanismes, de manière à produire tout le savoir possible. Le travail de Lulle a une grande influence sur Leibniz, qui a redéveloppé ses idées. 

Au XVII  siècle, Gottfried Wilhelm Leibniz, Thomas Hobbes et René Descartes ont exploré la possibilité que toute la pensée rationnelle puisse être aussi systématique que l'algèbre ou la géométrie . Dans le Léviathan de Hobbes, on retrouve la célèbre phrase : « la raison [...] n'est rien d'autre que le fait de calculer  ». Leibniz imaginait un langage universel du raisonnement (sa characteristica universalis) qui assimilerait l'argumentation à un calcul, afin qu'« il n'y a[it] pas plus de besoin de se disputer entre deux philosophes qu'entre deux comptables. Car il leur suffirait de prendre leur crayon et leur ardoise en main, et de se dire l'un l'autre (avec un ami en témoin, au besoin) : Calculons !  ». Ces philosophes ont commencé à articuler les hypothèses d'un système de symboles physiques qui deviendra par la suite l'un des dogmes de la recherche en IA.

Au XX  siècle, l'étude de la logique mathématique a fourni l'essentiel des avancées qui ont rendu plausible l'intelligence artificielle. Les bases ont été mises en place avec des œuvres telles que Les Lois de la Pensée de Boole et Idéographie de Frege. S'appuyant sur le système de Frege, Russell et Whitehead ont présenté un traitement formel des fondements des mathématiques dans leur chef d'œuvre Principia Mathematica en 1913. Inspiré par le succès de Russell, David Hilbert a défié les mathématiciens des années 1920-1930 de répondre à cette question fondamentale : « Le raisonnement mathématique peut-il être entièrement formalisé  ? » On répondit à sa question par les théorèmes d'incomplétude de Gödel, la machine de Turing et le lambda-calcul de Church. Leur réponse était surprenante à plusieurs titres. Tout d'abord, ils prouvèrent qu'il y avait, en fait, des limitations dans ce que la logique mathématique pouvait accomplir. 

Mais aussi (et plus important encore pour l'IA) leurs travaux ont suggéré que, sous ces conditions, toute forme de raisonnement mathématique pouvait être mécanisée. La thèse de Church impliquait qu'un appareil mécanique, manipulant des symboles aussi simples que des 0 et des 1, pouvait imiter tout processus concevable de déduction mathématique. Cette notion-clé se traduisit par la machine de Turing — une simple construction théorique qui capturait l'essence de la manipulation de symboles abstraits. Cette invention inspira une poignée de scientifiques qui commencèrent alors à discuter de la possibilité de machines pensantes.

Intelligence artificielle et premiers ordinateurs
Les machines à calculer sont apparues dès l'Antiquité  et ont été améliorées tout au long de l'histoire par de nombreux mathématiciens et ingénieurs, dont Leibniz. Au début du XIX  siècle, Charles Babbage conçoit la machine à calculer programmable (la Machine analytique), sans jamais la construire. À sa suite, Ada Lovelace spécule que la machine « peut composer des pièces de musique élaborées et scientifiques de toutes complexité et longueur. »

Les premiers ordinateurs modernes sont les machines massives de cryptanalyse de la Seconde Guerre mondiale (telles que le Z3, l'ENIAC et le Colossus) , conçues, en ce qui concerne les deux dernières, à partir des fondements théoriques établis par Alan Turing et développés par John von Neumann. 

L’IA dans le monde moderne
Le champ de l'intelligence artificielle, avec plus d'un demi-siècle derrière lui, a finalement réussi à atteindre certains de ses plus anciens objectifs. On a commencé à s'en servir avec succès dans le secteur technologique, même sans avoir vraiment été mise en avant. Quelques réussites sont venues avec la montée en puissance des ordinateurs et d'autres ont été obtenues en se concentrant sur des problèmes isolés spécifiques et en les approfondissant avec les plus hauts standards d'intégrité scientifique. Néanmoins, la réputation de l'IA, dans le monde des affaires au-moins, est loin d'être parfaite. En interne, on n'arrive pas à vraiment expliquer les raisons de l'échec de l'intelligence artificielle à répondre au rêve d'un niveau d'intelligence équivalent à l'homme qui a captivé l'imagination du monde dans les années 1960. Tous ces facteurs expliquent la fragmentation de l'IA en de nombreux sous-domaines concurrents dédiés à une problématique ou une voie précise, allant même parfois jusqu'à choisir un nom qui évite l'expression désormais souillée d'« intelligence artificielle  ». L'IA a du coup été à la fois plus prudente mais aussi plus fructueuse que jamais. 

L'IA, travailleur de l'ombre
Des algorithmes initialement développés par des chercheurs en intelligence artificielle commencent à faire partie de systèmes plus larges. L'IA a résolu beaucoup de problèmes très complexes  et leurs solutions ont servi à travers tout le secteur technologique , tels que l'exploration de données, la robotique industrielle, la logistique , la reconnaissance vocale , des applications bancaires , des diagnostics médicaux , la reconnaissance de formes, et le moteur de recherche de Google.

Le domaine de l'intelligence artificielle n'a quasiment reçu aucun crédit pour ces réussites. Certaines de ses plus grandes innovations ont été réduites au statut d'un énième item dans la boîte à outils de l'informatique . Nick Bostrom explique : « Beaucoup d'IA de pointe a filtré dans des applications générales, sans y être officiellement rattachée car dès que quelque chose devient suffisamment utile et commun, on lui retire l'étiquette d'IA. »

Beaucoup de chercheurs en intelligence artificielle dans les années quatre-vingt-dix ont volontairement appelé leurs études par d'autres noms, tels que l'informatique, les systèmes à base de connaissances, les systèmes cognitifs ou l'intelligence computationnelle. Cela peut être partiellement car ils considèrent leur domaine comme fondamentalement différent de l'IA, mais aussi car ces nouveaux noms facilitent les financements. Dans le secteur commercial au-moins, les promesses non tenues de l'hiver de l'IA continuent de hanter la recherche en intelligence artificielle, comme le New York Times le rapporte en 2005 : « Les scientifiques en informatique et les ingénieurs logiciel ont évité l'expression 'intelligence artificielle' par crainte d'être considérés comme de doux illuminés rêveurs. »

Texte sous licence CC BY-SA 3.0. Contributeurs, ici. Photo : hiddenhallow - Fotolia.com. 

Des spécialistes de l'informatique :

75017 - ANDBUR http://www.informatique-mac-pc-paris-lille.com
78310 - RCB INFORMATIQUE RESADIA http://www.infogerance-maintenance-informatique.com
78310 - TAKENOLOGIC http://www.depannage-maintenance-informatique-78.com
91140 - XEROBOUTIQUE SUD http://www.photocopieur-imprimante-couleur.com
91330 - ALC INFORMATIQUE (ALCI) http://www.formateur-ciel-formation.com
92100 - CONCEPTA http://www.solutions-numeriques-informatiques-92.com
93170 - APT-SYS MALLYANCE http://www.informatique-service-numerique-paris.com


Voir toutes les newsletters :
www.haoui.com
Pour les professionnels : HaOui.fr