Intelligence Artificielle: objectifs&possibilités
- Définition de la notion d' Intelligence Artificielle ou IA
- Galerie : de HAL 9000 aux robots de SONY
- Les clés de l'Intelligence Artificielle
- Créer une IA : pour quelle utilité '
- Tour d'horizon : possibilités et limites actuelles de l'IA
- Les objectifs de l'autonomie d'un système d'IA
- Premières conclusions

Cet article a pour but de vous présenter la notion d'intelligence artificielle. Il est, de ce fait, plus adapté aux néophytes qu'aux connaisseurs. Le dossier fait le point sur l'IA, la définit, montre ses objectifs et ses possibilités. Il propose également un descriptif des technologies existantes dans ce domaine.
Définition de la notion d' Intelligence Artificielle ou IA
Il est difficile de donner une définition claire et précise de l'intelligence artificielle tant que l'on n'arrive pas à définir la notion d'intelligence elle-même : pourtant, c'est le cas, puisque entre autres, on n'arrive toujours pas bien aujourd'hui à la mesurer. En effet, les tests de quotient intellectuel ou QI sont loin d'être efficaces et justes. Cependant, dans un souci d'avancée, on pourrait définir l'intelligence comme le fait de posséder la conscience de soi par rapport au monde qui nous entoure ainsi qu'une certaine logique, et d'appliquer cette dernière et d'en déduire des réponses qui feront avancer de nouveau cette logique. Par logique étant défini la faculté de penser et de sortir des idées sensées, c'est-à-dire admises par la majorité des personnes utilisant ces idées et régissant la société à une époque donnée.
L'exemple peut
être facilement détourné mais reste dans la plupart des cas juste.
De toute façon, d'aucune façon on ne pourra donner de définition de
l'intelligence tant qu'on n'aura pas exactement compris ce qui se
passe dans nos têtes ; pour définir l'intelligence artificielle, il
faut donc regarder autour de nous.
Dans la vie de tous les jours, le fait de parler avec une autre personne revêt une certaine forme d'intelligence : l'intelligence artificielle peut donc être définie comme le fait de se trouver devant une entité artificielle (un ordinateur), de lui parler et de recevoir des réponses en rapport avec la question et qui auraient pu être formulé par une autre personne (même si cet ordinateur donne ces réponses par rapport à des conditions et non pas parce qu'il « pense » que c'est une bonne réponse). Un test existe d'ailleurs pour cela : le test du Turing.
Imaginé par la
personne du même nom dans la seconde moitié du 20ème siècle, il
consiste, pour simplifier, à placer une personne devant un terminal,
celle-ci devant deviner si l'entité qui répond à ces questions est un
homme ou une femme. Il a ensuite été détourné au profit de l'intelligence
artificielle pour tester les programmes simulant l'homme. Le test est
simple : placez un homme devant un ordinateur et demandez lui de
dialoguer. Il ne sait évidemment pas avec qui il dialogue, ce peut être soit
une machine, soit un autre homme (ou femme). Le but est de faire la distinction entre
ces deux entités. Si le « cobaye » n'y arrive pas, c'est gagné :
l'ordinateur aura passé le test du Turing avec succès.
Que l'on se rassure, ceci n'est encore jamais arrivé. Un des rares chatterbot (robot de discussion littéralement) les plus performants actuellement, ALICE, remporte effectivement des prix mais n'arrive pas à imiter vraiment un être humain. ALICE repose en effet sur une gigantesque base de données où toutes les questions possibles et inimaginables sont inscrites ainsi que leurs réponses respectives. Mais ce système est un cul-de-sac : non seulement, il va devenir très lourd au fil du temps mais surtout on remarque qu'Alice tourne en rond quand elle ne sait quoi répondre : en bref, elle est incapable de réellement apprendre, ce qui n'en fait pas un véritable « agent intelligent ».
Car, actuellement, on ne programme pas réellement de systèmes doués d'intelligence artificielle. En effet, la plupart des programmes actuels sont bridés, incapables de progresser. Ils ne peuvent apprendre sans que leur créateur le décide. A ce moment-là, on ne possède alors qu'une base de données inaltérable, un comble. Imaginez-vous avec une base de données dans votre entreprise de ce type : elle serait aussi inutile que l'annuaire gardé depuis 10 ans ! Complètement dépassée, désuete et inutilisable dans une industrie qui évolue aussi vite que l'informatique.
Nous possédons donc une
simili-définition de ce qu'est l'intelligence artificielle : un système
qui apprend et qui simule la vie. Reste à savoir désormais comment
mettre cela en oeuvre, d'un point de vue concepteur et utilisateur et
cela afin d'arranger les deux camps.
../..
De HAL 9000 aux robots de SONY
- HAL 9000 (pour Heuristic ALgorithmic Computer) est apparut dans le film 2001, l'odyssée de l'espace, de Stanley Kubrick et Arthur Clark. Il possédait sur Terre son double, SAL 9000 et, dans le scénario original, s'appelait Athéna et possédait une voix féminine. Dans « 2001 », HAL décida de détruire tous les membres de l'équipage car une de ses règles (faire régner une grande transparence dans l'information) entrait en paradoxe avec le but ultime de la mission (dont seul lui et les membres cryogénisés connaissaient la finalité), à savoir trouver le troisième monolithe sur Io (un satellite de Jupiter).
- Les robots de Honda, désormais très célèbres pour leur habilité et surtout par le fait qu'ils se déplacent sur deux jambes comme des humains (ce qui nécessite un centre de gravité assez haut).
- Ci-dessous, plusieurs modèles du robot chien AIBO (pour Artificial Intelligence roBOt) de SONY, du moins au plus récent. Le second, plus "agressif", et destiné principalement à la surveillance, eut un succès mitigé. Le troisième modèle, sorti il y a peu, a donc corrigé ces défauts : il a été mis à jour depuis...
- Le dernier robot sorti des laboratoires de SONY : le QRio. Haut de 35 cm, il devrait avoir plus de fonctions que les AIBO. Pas de date de sortie annoncée cependant.
- Le robot Actroïd, "une hôtesse humanoïde" qui a participé,
avec d'autres robots, à l'accueil des visiteurs durant l' Exposition
Internationale 2005 d'Aïchi au Japon.
Issue des labos de recherches de Kokoro Dreams et de l'entreprise Advanced Media, Actroid parle plusieurs langues (japonais, coréen, chinois et l'anglais) et possède plus de 40 000 phrases pour s'exprimer. "Elle" comprend et répond de manière tout à fait naturelle, avec une gestuelle proche de celle des humains.

Les clés de l'Intelligence Artificielle
Avant d'essayer de programmer quoi que ce soit en IA, il faut observer l'existant et s'en inspirer. Toutes les technologies importantes (avions, automobiles,..) ont procédé de cette façon, et il est nécessaire de les suivre dans cette voie.
L'intelligence primaire (IP) :
Les animaux peuvent être considérés comme des êtres ayant plus ou moins une intelligence primaire. Certains sont étonnants mais ne se hissent en aucun cas à notre niveau ; ils entreront aussi dans cette catégorie. Si nous analysons de visu l'IP, on constate que les animaux, en général, font la jonction entre trois constantes : - Les sons - Les images - Les odeurs.
Les deux premières constantes sont les plus importantes.
La troisième n'apporte qu'un complément d'information et ne peut être
utilisée que peu de temps avant l'action (même l'être humain a du mal a
se rappeler d'une odeur bien précise, notre vocabulaire étant trop
limité pour cela : ce facteur de souvenir entrera donc uniquement en
jeu lorsque l'odeur se manifestera). Le cumul de ces constantes n'est
pas obligatoire pour déclencher la réponse de l'animal (l'action), mais
plus il y aura de constantes en jeu, plus l'information sera vérifiée
et entraînera donc l'action adéquate. Il est même intéressant de noter
que si l'une de ces constantes entre en jeu, elle peut entraîner les
autres avec elle (un son déclenche le souvenir d'une image et donc
d'une action). On peut donc schématiser simplement l'intelligence
primaire par le schéma suivant :
La
où les actions pouvent être des mouvements, des sentiments ou tout ce
qui pourrait résulter de ces constantes. Pour comprendre facilement ce
concept, prenons un exemple concret et simple : le chien. Le chien
réagit à son maître à des sons ou des gestes, en fonction de ce qu'il a
appris. Si on dit au chien de se coucher, les constantes associées à ce
son sont des images où on voit le chien être couché, ce qui lui arrive
s'il ne le fait pas (douleur) et ce qui lui arrive s'il le fait
(récompense). Le chien réagit aussi en termes d'espace : s'il entend
une porte et qu'il n'y a pas le son de son maître avec lui, les constantes
associées au son de la porte seront l'image de cette porte, sa position
dans l'espace et la raison (probable) du déclenchement de tout cela :
son maître qui rentre à la maison. Le chien sera donc capable de
l'accueillir.
Il
y a comme cela des dizaines d'exemples et ils doivent constituer la
base d'un système d' Intelligence Artificielle. En effet, de simples associations, comme nous
venons de le voir, permettent une grande polyvalence et cachent une grande
complexité.
L'intelligence Humaine (IH) :
L'IH
est bien plus complexe que l'IP. Bien sûr, nous raisonnons en terme
d'images, de sons et d'odeurs mais le fait de posséder un langage
(complexe) et une connaissance commune (contrairement aux animaux, nous
pouvons apprendre autrement que par nous-mêmes, par notre mère, ou par
notre ADN : nous avons des encyclopédies et une histoire) nous oblige à
entrer de nouveaux paramètres, de très nombreux paramètres. Si nous
vivions à même la nature, en petits groupes, sans avoir de contact avec
une civilisation, l'IH serait probablement quasiment identique à l'IP.
Mais le fait est que nous vivons entre nous, que nous n'avons pas
besoin de chasser pour survivre et que la loi de la jungle ne
s'applique plus (dans le sens premier du terme). L'essentiel de nos
communications se fait donc avec nos semblables, ces derniers possédant
(semble-t-il) les mêmes facultés.
L'action (qui peut être un mouvement,
un sentiment, ou une réponse dans un langage complexe) ne se déclenche
donc plus par trois mais par quatre constantes, dont la plus
importante, le langage, possède des sous-catégories. Le langage est en
effet composé de mots et résulte de connaissances (sinon, il n'y aurait
pas de langage, c'est une condition sine qua none) : la
constante « Langage » sera donc activée (si elle est activable, il se
peut en effet que l'on ne comprenne pas ce qui se dit) par la relation
Mots-clés ET connaissances, ces dernières s'activant dans les deux sens
:
- D'abord dans le sens de celui qui envoie la requête (il faut qu'il sache de quoi il parle)
- Ensuite dans le sens de celui qui va formuler une réponse à cette requête
Pour
le second point, il faut qu'il aie les connaissances requises pour y
répondre : dans le cas contraire, soit l'action n'est pas activée, soit
elle entraîne une autre requête (dans le sens inverse) avant d'être
activée (« C'est à moi que tu parles ''' ») soit elle débouche sur une
réponse négative (mais cela reste une réponse correcte). La suite est
identique à l'IP mais à des degrés différents : nous ne possédons pas
la même expérience que les animaux et comme nous l'avons souligné, nous
avons l'avantage de tout savoir sur nos aïeux (et par la même, d'en
savoir plus).
../..
Pour quelle utilité '
Avant d'essayer de simuler ou de recréer une quelconque intelligence, il faut savoir ce que l'on veut imiter : nous l'avons vu dans le chapitre précédent, les clés de l'IA commencent par une certaine approche de l'IP puis de l'IH. Pourtant, dans le cas d'un chatterbot par exemple, toutes les constantes sont-elles nécessaires ' Un chatterbot se contente en effet « simplement » de répondre à des questions, pas de voir ni de sentir. Seule la constante « Son » pourra donc être utilisée mais dans ce cas, cela équivaudrait à une entrée de caractères (et si reconnaissance vocale il y a, ce ne sera pas l'IA à proprement parler qui s'en occupera mais un de ses modules : nous considérerons donc que l'IA entre véritablement en jeu lorsqu'elle reçoit une chaîne en paramètre qui équivaut à une requête).
Cela rejoint donc un exemple très utilisé en IA car libéré de toutes ces contraintes : le test du téléphone. Au téléphone, on ne voit pas notre interlocuteur, on ne le sent pas, on se contente de recevoir et d'envoyer des requêtes. Pour le chatterbot, c'est pareil : il est aveugle et ne peut sentir, tout ce qu'il peut recevoir reste une requête extérieure (clavier ou micro). Concevoir une IA avec ce « simple » cahier des charges (dans ces termes) reste donc la voie à explorer pour des applications grand public à moyen terme (car les applications gourmandes en sécurité ne tarderont pas à vouloir voir et reconnaître leur environnement et leurs utilisateurs).
Passons maintenant au point important de ce chapitre, celui qui lui donne son nom : l'utilité de l'IA. A quoi cela servirait-il de créer une autre intelligence ' Et bien, outre que cela pourrait nous donner des points de vue intéressants, les systèmes d'IA pourraient servir à résoudre des problèmes (ce qu'ils font déjà) mais surtout, ils passeraient pour une nouvelle évolution de l'espèce humaine : l'intelligence évoluée. La puissance des ordinateurs évoluant continuellement, leur capacité de stockage également, on peut espérer d'ici un siècle avoir affaire à des systèmes d'IA très performants, voire plus performants qu'un être humain dans un domaine de prédilection. Les systèmes pourraient donc aider l'homme à évoluer et à trouver des solutions que nous n'aurions pas trouvées avant des siècles. Le deuxième scénario, plus chaotique, serait de dire que les robots domineraient la race humaine pour devenir les maîtres de la Terre. Un tel scénario a peu de chances de se produire même si l'arrivée de l'IA pourra réveiller l'envie de pouvoir de certains.
L'utilité de l'IA ne se différencie donc pas des
autres inventions de l'être humain : l'aider, l'assister, être à son
service pour que ce dernier puisse évoluer (dans n'importe quel sens).
../..
Possibilités et limites actuelles de l'IA
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..
Les objectifs de l'autonomie d'un système d'IA
Pour être vraiment « intelligent » et posséder une certaine
autonomie, nous allons résumer ici les différents objectifs à remplir
pour mener à bien cette oeuvre :
- La compréhension de l'homme :
cette étape peut paraître évidente mais elle reste très importante et
surtout c'est une des plus compliquées à mettre en oeuvre (avec la
formulation de la réponse). L'entité artificielle doit comprendre le
langage naturel (comme on l'a vu plus haut) et être capable de le
transformer en un langage plus simple pour traitement.
- La connaissance et la maîtrise de son environnement :
l'entité doit savoir où elle est postée tant d'un point de vue hardware
que géographique afin qu'elle puisse agir en conséquence. Elle doit
maîtriser ce dernier en sécurisant tout ce dont elle a la charge
notamment les données, qu'elles soient externes à son système
intelligent ou interne et ceci dans un but d'auto-intégrité. Bref, elle
doit assurer des fonctions de pare-feu ou d'anti-virus et de
duplication de données via un ou plusieurs systèmes RAID.
- Appliquer la demande selon le contexte :
ceci complète l'objectif précédent. Selon le contexte où l'entité se
situe, elle doit adapter ses demandes et celles des autres : ainsi,
(par exemple) si un informaticien demande à un gros système de
faire un calcul qui prendra plus de 36 mois, l'entité devra être en
mesure de lui proposer d'attendre la prochaine génération de
microprocesseurs et ceci afin d'avoir un temps de calcul moins long
mais surtout terminé avant que celui qui aurait dû être commencé n'ai
terminé (36+X mois dans le cadre d'un lancement de calcul actuellement
alors que ce sera (36+X)/2 si on lance le calcul dans 18 mois avec la
prochaine génération). De même, le programme pourra posséder des
humeurs qui selon le degré d'agressivité ou de gentillesse du maître
d'oeuvre fera s'exécuter plus ou moins bien certaines requêtes (à déconseiller au
niveau professionnel cependant). Enfin, si l'entité se révèle trop
instable ou aux performances dégradées par un quelconque programme,
elle conseillera alors soit de fermer l'application pour regagner des
performances optimales soit d'attendre que cette application ait
terminé afin que le monotâche de cette demande couplé au monotâche de
l'application revienne au final plus rapide qu'une exécution simultanée.
- La communication entre les différents modules
pour la détection d'un problème ou d'une panne, et mettre en place une
solution de rechange : tout programme exécuté à l'intérieur du noyau
d'IA devra communiquer en temps réel avec cette dernière afin de rendre
compte de ses agissements, de ses éventuels problèmes ou des ressources
nécessaires dans un but de stabilité et de rapidité. Les nouveaux
systèmes d'exploitation pour particuliers commencent à être plus
stables via de tels mécanismes mais la communication entre programmes
d'éditeurs différents est assez difficile. En cas de problème, le
système devra mettre en place des solutions afin de défendre
l'intégrité des données : duplication des informations, fermeture des
programmes dangereux pour le système, fermeture temporaire des modules
inutiles en temps réel, etc.
On peut donc imaginer sans problème un
système d'IA qui crée un serveur local et virtuel à son lancement et
qui « écoute » les logiciels qui feraient comme lui.
- Recompilation et optimisation du code afin de rendre le système plus performant :
le système devra être capable, via de nouvelles techniques (de tris par
exemple) et au lieu de les inscrire dans sa base, de les inscrire dans son
propre code si la fonction est considérée comme importante : cependant,
le système devra être capable de revenir en arrière et de posséder un
module qui, en cas de problème grave, pourra restaurer le dernier
système considéré comme stable et fonctionnel. Ce système devra être
aussi capable de se remettre en service seul.
- Aider et rerouter l'homme dans ses tâches :
l'homme ne doit en aucun cas se trouver face à un mur lors de
l'utilisation de l'IA. Si l'IA ne reçoit aucune instruction extérieure
compréhensible mais détecte une activité vis-à-vis d'elle-même, elle
devra être capable de devancer les besoins du maître d'oeuvre et de
l'aider si celui-ci semble perdu. Cela entrera en paradoxe avec la
sécurité nécessaire car l'IA ne doit en aucun cas informer un
utilisateur extérieur hostile. Par détection on considère aussi la mise
en place de caméras que l'IA pourra commander si elle considère qu'un
humain pénètre là où elle possède une fonction et donc pourrait à terme
aider par rapport aux attitudes faciales de ce dernier.
../..
Premières conclusions
"Nul n'est prophète dans son pays".
Ce vieil adage n'a jamais autant collé à la réalité qu'avec l'intelligence artificielle. La plupart des pionniers dans ce domaine, que l'on peut considérer comme des génies, avaient affiché un fort optimisme quant à l'avenir de cette technologie. Certains scientifiques, comme Marvin Minsky, pensaient en effet créer une Intelligence Artificielle évoluée avant la fin de notre feu 20ème siècle. Certains pensaient même que cela arriverait avant la fin des années 1970. Et même si les systèmes experts ont connu de beaux succès dans les années 1980, il reste encore de gros progrès à faire.
Il est d'ailleurs intéressant de noter que nos pionniers travaillaient sur des machines très lentes en comparaison de nos systèmes actuels : les grosses bases de données et les parcours de chaînes incessants n'étaient pas véritablement à l'ordre du jour : avant d'entreprendre le codage d'un système, les informaticiens l'optimisaient pour le rendre programmable.
L'IA a longtemps été retardé par le matériel (et cela est toujours le cas dans une moindre mesure), probablement parce que le concept était visionnaire. Dans tous les cas, les plus gros progrès que fera l'IA sont encore à venir et nul doute que nous serons encore en vie pour les utiliser...
Reste a savoir en combien de temps ce dossier va etre pompe par des eleves pour les besoins d un rapport !
http://afia.lri.fr/node.php'lang=fr&node=9
http://www.dmi.usherb.ca/~proj592/2003/apprentissage/AppAuto/Accueil.htm
un apprentissage tres simpa :
http://y.20q.net:8095/btest
http://www.direct8.fr/live.html
J'en ai plus qu'assez d'entendre parler de cette "Loi de Moore" qui n'est qu'un argument marketing d'Intel. En effet, cela n'a jamais été une loi, mais bien une volonté d'évolution d'Intel. Ainsi sur les processeurs existant, quasiment aucun ne suit cette évolution, et meme Intel a du mal a s'y soumettre. de plus, le nombre de transistor n'a pas d'influence directe sur la puissance de calcul, elle reste un facteur important, certes mais sans plus.
pour finir, je suis estomacqué par le rappel de ce que certains redoutent : les robots deviendraient l'espèce dominante, et écraseraient l'homme (merci matrix et autres X-Or)
l'IA n'implique en rien une robotisation des agents intelligents, le mouvement n'étant pas une nécessité absolue. Je me pose plus de question sur la réaction de l'Homme devant une "chose" qui pourrait devenir plus intelligente que lui, ou suffisament pour qu'il se sente menacer dans son role d'espèce "dominante".
sinon l'article me semble interessant sur les notions et définitions d'intelligence que chercherait a reproduire un agent intelligent.
dommage que la fin s'apparente plus a une exposition des dernières trouvailles marketing du géant de Redmond.
Mais d'abord c'est quoi l'intelligence '
:heink:
Un parmi tant d'autre...