Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Intelligence Artificielle : 700 Ans d'Histoire

1 réponse
Avatar
contact
Intelligence Artificielle : 700 Ans d'Histoire

Forbes France vous propose 700 ans d'histoire sur l'intelligence
artificielle, avec ses débuts qui remontent à 1308 quand le poète et
théologien catalan Raymond Lulle a publié un essai intitulé Ars
Generalis Ultima.


1308 – Le poète et théologien catalan Raymond Lulle publie Ars Generalis
Ultima (L'Art Général Ultime), perfectionnant sa méthode d'utilisation
de moyens mécaniques à base de papier pour concevoir des connaissances
nouvelles par combinaisons de concepts.

1666 – Le mathématicien et philosophe Gottfried Leibniz publie
Dissertatio de arte combinatoria (De l'Art combinatoire) et suit Lulle
en proposant un alphabet de la pensée humaine ; il avance la pensée
selon laquelle toutes les idées ne sont rien d'autre que des
combinaisons d'un nombre relativement petit de concepts simples.

1763 – Thomas Bayes développe un cadre de raisonnement sur la
probabilité des événements. L'inférence bayesienne deviendra une
approche de premier plan dans "l'apprentissage machine".

1854 – George Boole défend l'idée que le raisonnement logique pourrait
être mené de la même façon que la résolution d'un système d'équations.

1898 – Lors du salon de l'électricité au Madison Square Garden
fraîchement terminé, Nikola Tesla fait une démonstration du premier
navire radio-commandé du monde. Le bateau était équipé, comme Tesla
décrit, "d'un esprit emprunté."

1914 – L'ingénieur espagnol, Leonardo Torres y Quevedos présente la
première machine qui joue aux échecs. Elle est capable de faire mat avec
tour et roi contre roi isolé sans aucune intervention humaine.

1921 – L'écrivain tchèque Karel Capek introduit le mot 'robot' dans sa
pièce de théâtre "RUR" (Rossum's Universal Robot). Le terme 'robot' est
dérivé du mot 'robota' qui signifie 'travail'.

1925 – Houdina Radio Control, une entreprise américaine d'équipements
radio, fait circuler une automobile sans chauffeur et guidée par radio
dans les rues de New-York.

1927 – Sortie du film de science-fiction Metropolis. Il met en scène un
robot , double d'une jeune paysanne, qui déclenche le chaos dans Berlin
en 2026. C'est le premier robot dépeint dans un film. Il inspirera par
la suite le look Art-Déco de C-3PO dans Star Wars.

1929 – Makoto Nishimura construit Gakutensoku (mot japonais pour
"apprendre des lois de la nature"), le premier robot produit au Japon.
Il pouvait modifier ses expressions faciales et bouger les mains et la
tête, au moyen d'un mécanisme à air comprimé.

1943 – Warren S. McCulloch et Walter Pitts publient "A logical Calculus
of the Ideas Immanent in Nervous Activity" (Calcul logique des idées
immanentes dans l'activité nerveuse) dans le Bulletin de Biophysique
Mathématique. Ils y discutent de réseaux de neurones artificiels
simplifiés et de la façon de leur faire exécuter des fonctions logiques
simples. Cet article deviendra une source d'inspiration pour les
ordinateurs fondés sur les 'réseaux neuronaux' (et plus tard pour le
'deep learning') dans ce qu'ils 'imitent le cerveau', selon l'expression
consacrée.

1949 – Edmund Berkelay, dans "Giant Brains: Or Machines That Think"
("Les Cerveaux géants : ou des Machines qui pensent"), écrit :
"récemment, on a souvent entendu parler d'étranges machines géantes qui
sont capables de traiter des informations à grande vitesse et avec
talent… Ces machines ressemblent à ce que serait un cerveau s'il était
constitué d'appareils et de câbles au lieu de chair et de nerfs… Une
machine peut traiter de l'information ; elle peut calculer, conclure et
opérer des choix ; elle peut faire des calculs avec de l'information.
Par conséquent, une machine peut penser.

1949 – Donald Hebb publie "Organization of Behavior : a
Neuropsychological Theory ("L'Organisation du Comportement : une Théorie
de Neuropsychologie"). Il propose une théorie selon laquelle
l'apprentissage serait fondé sur des conjectures parmi les réseaux de
neurones et la capacité des synapses à se renforcer ou à s'affaiblir au
fil du temps.

1950 – "Programming a Computer for playing Chess" ("Programmer un
ordinateur pour jouer aux échecs"), de Claude Shannon, est le premier
article publié sur le développement d'un programme informatique de jeu
d'échecs.

1950 – Alan Turing publie "Computing Machinery et Intelligence"
("Informatique, Machines et Intelligence"). Il y propose le 'jeu de
l'imitation' qui sera appelé plus tard 'Test de Turing'.

1951 – Marvin Minsky et Dean Edmunds construisent SNARC (Stochastic
Neural Analog Reinforcement Calculator), le premier réseau neuronal
artificiel, utilisant 3000 tubes à vide pour simuler un réseau de 40
neurones.

1952 – Arthur Samuel développe le programme "Samuel Checkers-playing
Program" (jeu de dames), premier programme d'auto-apprentissage.

31 août 1955 – Le terme 'intelligence artificielle' est introduit dans
une proposition d'étude, "2 months, 10 man study of artificial
intelligence" ("2 mois, 10 hommes pour une étude sur l'intelligence
artificielle") soumise par John McCarthy (College de Darthmouth), Marvin
Minsky (Université d'Harvard), Nahaniel Rochester (IBM) et Claude
Shannon (Bell – département de recherche en téléphonie). L'atelier est
mis en place un an plus tard, en juillet et août 1956. Cette date est
généralement considérée comme la date de naissance du nouveau champ de
recherches.

Décembre 1955 – Frank Rosenblatt développe le Perceptron, le premier
réseau neuronal artificiel qui permet la reconnaissance de formes fondée
sur un réseau d'apprentissage informatique à deux couches. Le New York
Times a décrit le Perceptron comme "un embryon d'ordinateur [que la
Marine Nationale] attend de voir marcher, parler, voir, écrire, se
reproduire et d'être conscient de sa propre existence". Le New Yorker
l'a décrit comme une machine remarquable… capable de quelque chose qui
revient à penser".

1958 – John McCarthy développe le langage de programmation LISP qui
devient le langage le plus populaire dans la recherche autour de
l'intelligence artificielle.

1959 – Arthur Samuel invente le terme "machine learning" (apprentissage
machine). Il faut programmer un ordinateur pour qu'il puisse jouer aux
dames d'une meilleure façon que la personne qui a écrit le programme.

1959 – Oliver Selfridges publie "Pandemonium : a Paradigm for learning",
texte dans lequel il décrit un modèle de processus par lequel les
ordinateurs pourraient reconnaître des formes qu'on ne leur aurait pas
présentées à l'avance.

1959 – John McCarthy publie "Programs with Common Sense" ("Des
Programmes avec du Bon Sens"). Il décrit le 'Advice Taker' (le demandeur
de conseil), un programme pour résoudre des problèmes en manipulant des
phrases tout à fait formelles, avec l'objectif ultime de fabriquer des
programmes qui "apprendraient de leurs expériences tel que le font les
humains".

1961 – Le premier robot industriel, Unimate, commence son travail sur
une chaîne de montage dans une usine General Motors dans le New Jersey.

1961 – James Slagle développe SAINT (Symbolic Automatic INTegrator), un
système formel capable de réaliser des calculs d'intégrale.

1964 – Daniel Bobrow achève sa thèse de doctorat au MIT : "Natural
language input for a computer problem solving system" (communication en
langage naturel pour un système informatique de résolution de problème).
Il développe STUDENT, un programme de compréhension du langage naturel
par l'ordinateur.

1965 – Herbert Simon prédit que "dans les 20 prochaines années, les
machines seront capables de faire tout travail qu'un homme peut faire".

1965 – Hubert Dreyfus publie "Alchimie et Intelligence artificielle" et
démontre que l'esprit n'est pas comme un ordinateur, et qu'il existe des
limites au-delà desquelles l'intelligence artificielle ne pourra
évoluer.

1965 – I.J. Good écrit que la machine ultra intelligente est la dernière
invention que l'homme a besoin d'inventer, à condition qu'elle soit
suffisamment sage pour nous dire comment la garder sous contrôle.

1965 – Joseph Weizenbaum développe ELIZA, un programme interactif qui
mène un dialogue en anglais sur n'importe quel sujet. Weizenbaum, qui
voulait démontrer le côté superficiel de la communication entre l'homme
et la machine, a été surpris du nombre de personnes qui ont attribué des
sentiments humains à son programme informatique.

1965 – Edward Feigenbaum, Bruce G. Buchanan, Joshua Lederberg et Carl
Djerassi commencent à travailler sur le projet DENDRAL, à l'université
de Stanford. Premier système expert, il a automatisé le processus de
prise de décisions et les comportements de résolution de problèmes pour
la chimie organique, avec pour objectif principal d'étudier la formation
d'hypothèses et de construire des modèles pour les processus d'induction
dans la recherche empirique.

1966 – Le robot Shakey est le premier robot mobile polyvalent à pouvoir
raisonner sur ses propres actions. Dans un article du magazine Life, en

1970, Marvin Minsky l'assure avec certitude : "Dans trois à huit ans,
nous aurons une machine aussi intelligente qu'un humain dans la
moyenne".

1968 – "2001 : l'Odyssée de l'Espace" sort en salles. Il met en scène
Hal, un ordinateur doué de conscience.

1968 – Terry Winograd développe SHRDLU, le premier programme
informatique de compréhension du langage naturel.

1969 – Arthur Bryson et Yu-Chi Ho décrivent l'algorithme de
rétropropagation comme une méthode d'optimisation d'un système dynamique
à plusieurs étapes. L'algorithme d'apprentissage pour les réseaux
neuronaux à plusieurs couches a grandement contribué au succès du 'deep
learning' dans les années 2000 et 2010, une fois que la puissance de
calcul a pu atteindre un niveau suffisant pour travailler sur de grands
réseaux.

1969 – Marvin Minsky et Seymour Papert publient "Perceptrons : an
Introduction to Computational Geometry". Ils soulignent les limitent des
réseaux neuronaux simplifiés. Dans une édition complétée de 1988, ils
ont répondu aux plaintes selon lesquelles leurs conclusions de 1969
avaient causé des baisses d'investissement dans la recherche sur les
réseaux neuronaux : "Notre avis est que les progrès étaient déjà
virtuellement en pause en raison d'un manque de bonnes théories de base…
Au milieu des années 1960, on a assisté à de belles expériences sur les
perceptrons, mais aucune n'a été en mesure d'expliquer pourquoi ils
reconnaissaient certaines formes et pas d'autres".

1970 – Le premier robot anthropomorphe, WABOT-1 est construit à
l'université de Waseda au Japon. Il contenait un sytème de contrôle des
membres, un sytème de vision et un autre pour la conversation.

1972 – MYCIN est développé à l'université de Stanford. C'est le premier
système expert en charge d'identifier les bactéries responsables
d'infections graves et de recommander les bons antibiotiques.

1973 – James Lighthill fait un rapport au Conseil de la Recherche
Scientifique Britannique sur l'état de la recherche en intelligence
artificielle. Il conclut qu'"aucune des découvertes dans tous les champs
de recherche n'ont eu l'impact qu'elle promettait". Ceci conduit à une
réduction drastique des aides gouvernementale à la recherche sur l'IA.

1976 – Raj Reddy publie "Speech Recognition by Machine: A Review" (La
Reconnaissance du Langage par une Machine : où en est-on ?) qui résume
les premiers travaux sur le traitement du langage naturel.


1978 – XCON (eXpert CONfigurer) est un programme expert en configuration
d'ordinateurs qui peut sélectionner les composants en fonction des
attentes du client.

1979 – Le "Cart de Stanford" (générations de véhicules autonomes de
l'université de Stanford) parvient à traverser une pièce pleine de
chaises en 5 heures environ, et sans intervention humaine. Il devient
l'un des tout premiers véhicules autonomes.

1980 – WABOT-2 est construit à Waseda. C'est un androïde musicien
capable de communiquer avec une personne réelle, de lire une partition,
et de jouer des morceaux de difficulté moyenne sur un orgue
électronique.

1981 – Le Ministre japonais du Commerce International et de l'Industrie
accorde un budget de 850 millions de dollars (soit l'équivalent de
presque 4 milliards de francs à l'époque, soit environ 676 millions
d'euros) au projet d'ordinateurs de cinquième génération. Le projet a
pour objectif de développer des ordinateurs qui pourrait suivre des
conversations, traduire des langues, interpréter des images et raisonner
comme les humains.

1984 – Sortie du film "Electric Dreams" dont le sujet traite d'un
triangle amoureux entre un homme, une femme et un ordinateur.

1984 – Au meeting annuel de la "Fourth National Conference on Artificial
Intelligence" (quatrième conférence nationale sur l'IA), Roger Schank et
Marvin Minsky lancent une alerte sur l'arrivée d'un "hiver de l'IA",
prédisant une imminente explosion de la bulle IA (ce qui se produira
trois ans plus tard), semblable à la réduction des investissements pour
la recherche dans le domaine dans les années 1970.

1986 – Première voiture sans chauffeur, une camionnette Mercedes-Benz,
équipée de caméras et de capteurs, roule à une vitesse maximale de 88
km/h dans des rues vides.
Octobre 1986 – David Rumelhart, Geoffrey Hinton et Ronald Williams
publient "Learning Representations by back-propagating Errors"
(Apprendre des représentations par la rétropropagation des erreurs), et
décrivent une nouvelle procédure, la rétropropagation, pour des réseaux
d'unités similaires aux neurones.

1987 – La video "Knowledge Navigator" présentée à l'Educom lors de la
keynote du CEO d'Apple, John Sculley, prédit un avenir dans lequel les
applications de savoir seraient accessibles à des agents intelligents
travaillant sur des réseaux connectés à des quantités importantes
d'information numérisée.

1988 – Judea Pearl publie "Le raisonnement probabiliste dans les
systèmes intelligents". On lit de lui, lors de son Turing Award : "Judea
Pearl a créé les bases de représentation et de calcul pour le traitement
de l'information sous incertitude. On lui attribue l'invention des
réseaux Bayesiens, un formalisme mathématique pour définir des modèles
complexes de probabilité, de même que les principaux algorithmes
utilisés pour l'inférence dans ces modèles. Ce travail ne révolutionne
pas seulement le champ de l'IA, mais aussi est devenu un outil important
pour beaucoup d'autres secteurs de l'ingénierie et des sciences
naturelles".

1988 – Rollo Carpenter développe le chat-bot (robot de conversation)
Jabberwacky pour "simuler une conversation humaine d'une façon
intéressante, divertissante et drôle". C'est une première tentative de
création d'une IA en interaction avec l'humain.

1988 – Des membres du centre de recherches IBM TJ Watson publient "Une
approche statistique de la traduction". Ils annoncent le passage des
méthodes de traduction automatique fondées sur des règles à celles
fondées sur les probabilités. Plus largement, on passe à un
apprentissage machine fondé sur l'analyse statistique d'exemples connus
et non plus sur la compréhension de la tache à accomplir (le projet
Candide d'IBM qui traduisait correctement entre anglais et français
était basé sur 2,2 millions de paires de phrases, issues principalement
des procédures du parlement canadien).

1988 – Marvin Minsky et Seymour Papert produisent une version augmentée
de leur livre de 1969, "Perceptrons". Dans le prologue, "Une Vue depuis
1988", ils écrivent : "L'une des raisons pour lesquelles le progrès a
été si lent dans ce champ de recherches est que des chercheur, non
familiers de l'histoire de ce champ, ont perpétué bon nombre des mêmes
erreurs avant eux commises".

1989 – Yann LeCun et d'autres chercheurs chez AT&T Bell Labs sont
parvenus à appliquer un algorithme de rétropropagation à un réseau
neuronal multi-couche pour lui faire reconnaître des codes postaux. Vu
les limitations du matériel à l'époque, il a fallu 3 jours pour
accomplir la tache, mais c'était déjà une amélioration importante par
rapport aux débuts.

1990 – Rodney Brooks publie "Les Éléphants ne jouent pas aux Echecs". Il
y propose une nouvelle approche des systèmes intégrant une intelligence
artificielle, en particulier les robots, sur la base d'une interaction
continue avec l'environnement. "Le monde est son propre meilleur modèle…
L'astuce est de le capter de la bonne façon et suffisamment souvent".

1993 – Vernor Vinge écrit "The Coming Technological Singularity". Il
prédit que dans les 30 années à suivre, nous aurons les moyens
technologiques de créer une intelligence surhumaine. Peu après, l'ère de
l'Homme sera terminée".

1995 – Richard Wallace développe le chat-bot ALICE (Artificial
Linguistic Internet Computer Entity), inspiré d'ELIZA (voir plus haut),
mais en lui ajoutant le langage naturel via une collection
d'échantillons d'une taille sans précédent, autorisée depuis l'avènement
du Web.

1997 – Sepp Hochreiter et Jürgen Schmidhuber propose un type de réseau
neuronal récurrent (Long Short-Term Memory) utilisé aujourd'hui dans la
reconnaissance des caractères et de la voix.

1997 – Deep Blue devient le premier programme de jeu d'échecs à battre
un champion du monde en titre.

1998 – Dave Hampton et Caleb Chung créent Furby, le premier robot animal
domestique.

1998 – Yann LeCun, Yoshua Bengio et d'autres publient des articles sur
l'application des réseaux neuronaux à la reconnaissance de l'écriture
manuscrite et sur l'optimisation de la rétropropagation.

2000 – Cynthia Breazeal, du MIT, développe Kismet, un robot qui peut
reconnaître et simuler des émotions.

2000 – Asimo, robot humanoïde intelligent de Honda, est capable de
marcher aussi rapidement qu'un humain et livrer des plateaux aux clients
à table au restaurant.

2001 – IA, Intelligence Artificielle, un film de Spielberg, met en scène
David, un enfant androïde programmer pour aimer.

2004 – Le premier Grand Challenge de la DARPA, un prix pour des
véhicules autonomes, est lancé dans le désert Mojave. Aucun des
véhicules engagés ne termine les 240 km de route.

2006 – Oren Etzioni, Michele Banko et Michael Cafarella lancent le terme
de "machine reading" (lecture machine), "une compréhension autonome d'un
texte sans aucune supervision".

2006 – Geoffrey Hinton publie "Learning multiple Layers of
Representation" qui résume les idées ayant conduit aux "réseaux
neuronaux multi -couches qui contiennent des connexions haut-bas et à
leur formation à générer des données sensorielles plutôt que les
classer". C'est la nouvelle approche du deep-learning.

2007 – Fei Fei Li et ses collègues de Princetown commencent à assembler
ImageNet, une grosse base de données d'images annotées pour aider les
logiciels de reconnaissance d'objet.

2009 – Rajat Raina, Anand Madhavan et Andrew Ng publient "Large-scale
Deep Unsupervised Learning using Graphics Processors" (L'apprentissage
non supervisé à grande échelle à l'aide de processeurs graphiques ) et
affirment que les processeurs graphiques modernes dépassent largement
les capacités de calcul des processeurs multi-cœurs, et peuvent
révolutionner l'applicabilité des méthodes d'apprentissage non
supervisé.

2009 – Google entame, en secret, le développement d'une voiture sans
chauffeur. En 2014, elle deviendra la première à passer l'épreuve du
permis de conduire dans le Nevada.

2009 – Au laboratoire d'information intelligente de l'université de
Northwestern, on développe Stats Monkey, un programme qui rédige des
informations et des nouvelles de sport, sans intervention humaine.

2010 – Lancement du Challenge de reconnaissance visuelle à grande
échelle d'ImageNet (ILSVCR), un concours annuel de reconnaissance
d'objet par une IA.

2011 – Un réseau neuronal à convolution gagne le concours allemand de
reconnaissance de panneaux de signalisation avec 99,46 % de succès
(humains : 99,22%).

2011 – Watson, un ordinateur de questions / réponses participe au jeu
Jeopardy! et bat deux anciens champions.

2011 – Des chercheurs à l'IDSIA , en Suisse, font état d'un taux
d'erreur de 0,27 % dans la reconnaissance de l'écriture manuscrite par
un réseau neuronal à convolution, amélioration importante depuis les
0,25 à 0,40 % les années précédentes.

Juin 2012 – Jeff Dean et Andrew Ng relatent une expérience au cours de
laquelle ils ont montré 10 millions d'images sans indication et tirées
au hasard de Youtube à un très grand réseau neuronal et "à notre grand
amusement, l'un de nos neurones artificiels a appris à répondre sur des
images de… chats".

Octobre 2012 – Un réseau neuronal à convolution créé par des chercheurs
de l'université de Toronto atteint un taux d'erreur de seulement 16 % à
la compétition de reconnaissance d'objet d'ImageNet. C'est une nette
amélioration depuis les 25 % de l'année d'avant.

Mars 2016 – Alpha Go de Google bat le champion de Go, Lee Sedol.

Le web est une source d'information important pour l'histoire de l'IA.
Mais il existe aussi de la documentation en français.

Source :

<https://www.forbes.fr/technologie/une-tres-breve-histoire-de-lintelligence-artificielle/>

--
\ / Croire ou ne pas croire, ce n'est pas savoir,
-- o -- si j'y crois ou pas, je ne sais pas,
/ \ si je sais, inutil d'y croire ou pas.
--> Je Croix Pas, car Je Sais que c'est Faux MalgRê TouT...

1 réponse

Avatar
contact
Dieu Rê Pur / Pur Rê Méta-Maître et Dieu de l'Extrême
wrote:
1970 – Le premier robot anthropomorphe, WABOT-1 est construit à
l'université de Waseda au Japon. Il contenait un sytème de contrôle des
membres, un sytème de vision et un autre pour la conversation.

Mon année de naissance... Eric(Rê)
1981 – Le Ministre japonais du Commerce International et de l'Industrie
accorde un budget de 850 millions de dollars (soit l'équivalent de
presque 4 milliards de francs à l'époque, soit environ 676 millions
d'euros) au projet d'ordinateurs de cinquième génération. Le projet a
pour objectif de développer des ordinateurs qui pourrait suivre des
conversations, traduire des langues, interpréter des images et raisonner
comme les humains.

L'année de naissance de... Alexandra(Râ)
2001 – IA, Intelligence Artificielle, un film de Spielberg, met en scène
David, un enfant androïde programmer pour aimer.

Premiere fois que je parle sur usenet de l'homme machine, c'était un
poste du 25/5/2001 a 18h14m27s, apres ce poste j'ai commencer a entandre
des voix dire : ho un universel...
Juin 2012 – Jeff Dean et Andrew Ng relatent une expérience au cours de
laquelle ils ont montré 10 millions d'images sans indication et tirées
au hasard de Youtube à un très grand réseau neuronal et "à notre grand
amusement, l'un de nos neurones artificiels a appris à répondre sur des
images de… chats".
Octobre 2012 – Un réseau neuronal à convolution créé par des chercheurs
de l'université de Toronto atteint un taux d'erreur de seulement 16 % à
la compétition de reconnaissance d'objet d'ImageNet. C'est une nette
amélioration depuis les 25 % de l'année d'avant.

l'année ou j'ai eu ce ticket de caisse qui prouve que le monde ai sauvé,
ticket du 21/12/2012 a 00h42m57s...
TouT(00) Perdu(42) Arbre(5) Serpent(7)...
--
/ Croire ou ne pas croire, ce n'est pas savoir,
-- o -- si j'y crois ou pas, je ne sais pas,
/ si je sais, inutil d'y croire ou pas.
--> Je Croix Pas, car Je Sais que c'est Faux MalgRê TouT...