l’intelligence artificielledeloor/materielpedagogique/ia/... · • question théorique : la...
TRANSCRIPT
1
L’Intelligence artificielle
Approche historique
Pierre De Loor
Un rêve humain• L’Iliade (IX avant JC)
• Tables à roulettes pour servir les gens
• Femmes en or pouvant être prises pour des femmes réelles ..
• Asimov : les robots
2
Quelques définitions de l’IA– L’I.A. a pour but de faire exécuter à
une machine, des tâches pour lesquelles l’homme, dans un contexte donné, est aujourd’hui meilleur que la machine (Allio et Schiex adapté de Minsky) – informaticiens –
– L’I.A. est la discipline visant àcomprendre la nature de l’intelligence en construisant des programmes imitant l’intelligence humaine (A. Bonnet)-psychologie cognitive-
– L’intelligence c’est tout ce que ne peut pas faire une machine (R. Moreau) – sceptique-
Une approche historique
formalisationautomatique
l’ordinateur
cybernétique
philosophie
neurophysiologie
Aristote
Leibniz,Boole, FregeVaucanson, Babagge
Turing, Von Neuman
W. M. CullochW. Pitts
Goëdel
psychologie
Simon & Newell
Intelligence Artificielle
MinskyMac CarthyShannon
Wiener
3
Philosophie et raisonnement : Aristote (384-322 avant J.C.)• Etude systématique du
raisonnement sur les propositions :
• Exemple : le syllogisme
aucune vulgarisation n ’est aiséequelques travaux sont des vulgarisations
quelques travaux ne sont pas aisés(EIO)
Philosophie et raisonnement : Modernes XVIième, XVIIième
• L’époque des automates
Bacon, Boyle, Descartes, Hobbes, Locke
Idées=
représentations
esprit
Penser = manipuler
symbolisation
mathématiques
4
Modélisation du raisonnement : les mathématiques et la logique• l’algorithme
– Ordre/séquences– nb d’étapes fini
Exemple :Recette de cuisineTri
…La quasi-totalité des ordinateurs
fonctionnent de façon algorithmique
Le mot algorithme vient du mathématicien Ai Khorezmii (IXème)
Modélisation du raisonnement : les mathématiques et la logique
– existe-il un algorithme pour résoudre tout problème arbitrairement posé ? (Leibniz)
non, il existe des problèmes pour lesquels il n’y a pas
d’algorithme
(Kurt Gödel 1931)
5
Modéliser le raisonnement : les mathématiques et la logique• Leibniz (1646-1716) : Inventeur de la numération binaire (exemple)
représentation mathématiques modernes horloges
horloges à calculerraisonnement
Automatisation de la raison
décrire le raisonnement à l’aide d’une algèbre composée de symboles, d’idéogrammes,
facilitant la pratique de l’analyse et de la synthèse logiques
Modéliser le raisonnement : les mathématiques et la logique
• Automatiser le raisonnement ? • Algébrisation de la logique :
L’algèbre de Boole (1854)
– Les valeurs 0 et 1 représentent un concept vrai ou faux
– Le ET est une multiplication– Le OU est une addition
Fondamentale en informatiqueexemple
6
Modéliser le raisonnement : les mathématiques et la logique• Le calcul des prédicats Frege (1948-
1925)– Ajout de la notion de variables : Une
proposition est soit vrai soit fausse, en fonction de variables (non logiques) (exemple)
• Principia Mathematica Whitehead et Russell (1911-1916)– Résolvent certaines contradictions
soulevées par Frege– Démontrent de nombreux théorèmes– Laissent espérer une formalisation
complète des mathématiques (Goëdel y mettra un terme)
Imiter ou prolonger l’être humain : l’automatique• Premisses : automates, clepsydres …
7
Imiter ou prolonger l’être humain : l’automatique
• calculatrice mécanique : – la pascaline (XVII)– La machine à différence (Leibniz)
• cartes perforées – Métier à tisser(Vaucanson, Jacquart)
(XVII)
• régulateur à boule (James Watt)
Imiter ou prolonger l’être humain : l’automatique• La retroaction
– Régulateur à boules– le servo-moteur (Farcot 1873)
Fe s
+
-
8
Imiter ou prolonger l’être humain : l’automatique• Babbage (1791-1871)• La machine à différences
– Donne automatiquement les logarithmes
• La machine analytique– Unité de calcul– Mémoire– Unité de commande– Entrées/sorties– Cartes perforées Cylindres à picots
• Séquences + données
– Inachevée mais repris plus tard – Inspira entre autre l’ENIAC
Turing (1912-1954)• Participe à l’automatisation du
raisonnement
• Défini la machine universelle de Turing
• Postule avec Alonzo Church que toute forme de pensée humaine susceptible d’être exprimée dans un langage peut-être simulée par la machine universelle
• Explicite les principes d’un programme pouvant jouer aux échecs (1950)
• Défini le « test de Turing » que doit passer une machine pour être qualifiée d’intelligente
9
Vers la naissance de l’ordinateur
• La machine de Turing (1936)
d z 0 e 4 f a 1 1 f z y j a baa
lire écrirese déplacer
automate
Vers la naissance de l’ordinateur
• Machine de Turing de f(n)=n+2Écrire 0,Aller à droite
0 1
Écrire 1,Aller à droite
Écrire 1,Aller à droite
Écrire 1,Aller à droite
Écrire 1,Aller à droite
0 01
0 1 1 1 0 0 0 0 0 0 0 0
0 1 1 1 1 1 0 0 0 0 0 0
E1
E4
6 étapes
10
Vers la naissance de l’ordinateur• Une machine de Turing peut exécuter tous les
algorithmes (thèse de Church-Turing 1936)– l'algorithme consiste dans un ensemble fini
d'instructions simples et précises qui sont décrite avec un nombre limité de symboles ;
– l'algorithme doit toujours produire le résultat dans un nombre fini d'étapes ;
– l'algorithme peut en principe être suivie par un humain avec seulement du papier et un crayon ;
– l'exécution de l'algorithme ne requiert pas d'intelligence de l'humain sauf celle qui est nécessaire pour comprendre et exécuter les instructions
– Tous les langages informatiques sont Turing-complet
La naissance de l’ordinateur• Machine de Turing de f(n)
= 3n
11
Vers la naissance de l’ordinateur
• Question théorique : la décidabilité de l’arrêt– Les MT ne s’arrêtent pas forcément.– Est-il possible de faire une MT capable de dire
si une autre MT s’arrête ou non ?– Non : indécidabilité de l’arrêt (Turing 1936).
• Question philosophique :– L’univers est-il une MT ?– La pensée est-elle une MT ?
Le Test de TuringL’un des deux essai de tromperL’interrogateur,L’autre essai de l’aider
On remplace le premier parUne machine
Qui est la femme ?Qui est l’homme ?
12
La naissance de l’ordinateur• L’algèbre de Boole et relais (Shannon 1937)• Exécution d’un algorithme par une telle
machine : L’architecture de Von-Neumann
• Equivalence Machine de Turing- Modèle de Von Neuman (Von Neumann 1945)
mémoire
Unité logique et arithmétique
contrôle Entrée/sortie
La naissance de l’ordinateur• L’architecture de Von Neumann est celle de presque
tous les ordinateurs
• De nombreux chercheurs étaient convaincus que :Automate + algorithme + algèbre de Boole = machines
pensantes = algorithme universel
• Ils ignoraient les travaux de Church-Turing et de Goëldel sur l’inexistance d’un algorithme universel
• Mais les résultats de Goëldel et Church ont-ils réellement un rapport avec une intelligence ?
13
La Cybernétique• Neurophysiologie +
Mathématique = neurone artificiel (W.M. Culloh, W. Pitts1943)
• Notion de système (Wiener) • Rétro-action / Régulation• Apprentissage
L’opposition Mathématique/Physiologie« vouloir reproduire le comportement des nerfs
ne présente pas plus d’intérêt que de construire une voiture avec des jambes alors
qu’on peut faire beaucoup mieux avec des roues »
(Texte de Turing, découvert 20 ans après sa mort)
• L’approche neuronale va être quasi stoppée pendant 15 ans :– Les succès de l’architecture de Von
Neumann– Les difficultés théoriques : ou exclusif –
Minsky/Papert– Difficulté humaine : autorité de Minsky
et décès de Frank Rosenblatt)
14
Questionnement des années 50– Recherche d’une solution dans un
ensemble (Turing)• Application aux Echecs
– Test de Turing et le programme DOCTOR (Bobrow 1950)
– Théorie des jeux et heuristiques (Von Neumann et Morgenstern 1944)
• minimax– Difficultés calculatoires (10^120 de
Shannon)– Difficultés conceptuelles : neuronale ou
algorithmique ? – Peut-on vraiment faire une machine
intelligente ?
Le minimax
1
2 3 4 5
6 7 8 9 10 11 12 13 15 16 17
+1 +3 +5 +2 +6 -1 +1 -1 +3 -2 -4
A joue
B joue
B est supposé faire ‘le pire’Donc A joue 2 (et non 3)
15
Naissance officielle de l’IA• John Mac Carthy organise une
conférence sur la réalisation de programmes intelligents (Dartmount 1956) pour tenter une avancée décisive.
• Expression consensuelle : « Intelligence Artificielle »
• Il attire de grands chercheurs de différents courants
– Mac Carthy : langages– Shannon : automates– Minsky : approche neuronale (critique)
mais également deux petits nouveaux :
Herbert Simon et Allen Newell
introduction de la psychologie
• Simon : comportement humain dans l’administration des grandes organisation
– Décider collectivement = trancher « au mieux »
• Newel (math/info) : modélisation des facteurs organisationnels sur la prise de décision
• Résoudre un problème n’est pas une simple recherche de solution dans un ensemble
• Approche pragmatique difficile à faire passer parmi des formalistes.
16
introduction de la psychologie• Oui mais : Le Logic Theorist redémontre
38 des 52 théorèmes des « PrincipeaMathematica » de Whitehead et Russel.
• General Problem Solver (GPS, 1959) :– Heuristiques (Eurêka)– Analyse des fins et des moyens
• Buts (aller à Londre …)• Opérateurs (voiture, avion, à pieds)• Récursivité
(distance/opérateur/transformation)– Les opérateurs sont spécifiques au
domaine, pas la méthode de recherche.
– Séparation connaissance/résolution reprise souvent en IA
introduction de la psychologie
• Problèmes principaux de GPS– Généralisation illusoire – Comment fixer le niveau de détail
des connaissances ?– Comment relier ces connaissances
(prendre le train est lié à aller àLondres)
• Vers les architectures cognitives• Vers les systèmes experts• Vers la représentation des
connaissances
17
Et après …• Gros efforts dans les années
1970– Systèmes experts– Représentation des connaissances
(réseaux sémantiques, graphes conceptuels, frames, modèles objets)
– Retour des RDN (multicouche, mémoire associative, résonance)
• Déceptions (1980)– Explosion de l’informatique– Informatique avancée = ia ?– Perte de cohérence
Perte de cohérence … mais de nombreuses applications
– Résolution de problème :• Jeux de stratégie• Planification
– Diagnostique• Médecine• maintenance
– Analyse du langage naturel• Analyse syntaxique• Analyse sémantique• Reconnaissance vocale
– Moteurs de recherche– Robotique– Reconnaissance de forme– Simulation de l’humain
18
Années 2000 : L’IA vue par l’AFIA
http://www.afia.polytechnique.fr/
Perte de cohérence : … un peu de recul• AI « conventionnelle »
– Net AI (formalisme, statistique, preuves)
– Logiques– Systèmes experts– Réseaux baysiens– Raisonnement à base de cas– Machine learning
• AI « exotique »– Scruffies AI , soft computing– Réseaux de neuronnes– Raisonnement incertains (fuzzy logic)– Algorithmes évolutionnistes– Behavior based AI
19
Un peu de hauteur
cognitiv
ism
epragmatique
connex
ionnis
meIA faible
IA forte
Fort/faible• IA faible
– Approche pragmatique « d’ingénieur »
– Faire comme si– Grande majorité des applications
• IA forte :– Machine qui comprend– Conscience artificielle (Cardon,
Edelmann, Denett, Minsky)– Débat philosophique (Locke,
Searle/Denett)
20
Approches pragmatiques• L’IA est un moyen de
développer des programmes efficaces pouvant remplacer l’activité humaine
– On ne cherche pas à modéliser l’esprit humain
– L’IA est une boite noire intelligente si elle réussie à passer certains tests (test de Turing par exemple)
– La grande majorité des applications d’IA
Approche cognitiveL’IA est la réalisation de programmes
imitant dans leur fonctionnement l’esprit humain
– Approche calculatoire des sciences cognitive
• Il existe des états mentaux entre entrée et sortie du cerveau
• Ils sont manipulés par un algorithme
• Ils sont étudiables scientifiquement
– Approche portée par les linguistes et les psychologues cognitivistes
21
Approche connexionnisteL’intelligence émerge
d’interactions dans un réseaux
– Les symboles et les mécanismes cognitifs ne sont pas explicites
– Si l’on veut mimer l’esprit humain, il faut mimer le cerveau
– Nœuds interconnectés d’un réseau neuronal
– Domaine de la reconnaissance de forme et des mémoires associatives
– Regain d’intérêt depuis les années 1980 avec les réseaux multi-couches et les réseaux récurrents
Problème de l’IA forte• La chambre chinoise (Searle ~1980)
• Selon Searle la conscience est prioritaire sur l’intentionnalité• les approches symboliques/computationnelles n’ont aucune chance• Alors le connexionnisme ?
– Les approches sub-symboliques sont tout de même symboliques
22
Oui mais … « theorie of mind »• « La conscience expliquée »
– Denett (philosophe analytique cognitiviste)– La conscience est un Phénomène naturel explicable– Le soi (la conscience) n’existe pas en tant que tel– Il émerge d’une compétition entre des milliers d’états mentaux– Darwinisme des pensées
• « comment la matière devient conscience »– Edelman (biologiste et neuro-sciences)– Darwinisme neuronale– évolution + complexité + singularité– Hypothèse du noyau dynamique
• Au-delà du computationnalisme :« La conscience est le fruit de mécanismes physiques subtiles »
– Wilder(neuro-physiologue)– Penrose(mathématiques) : nouvelle théorie de la physique– Searles(phylosophie)
Quelques exemples d’IAA classer parmi :
Forte/FaibleConventionnelle/exotiquePragmatisme/cognitivisme/connexionnisme
23
Exemple : dialogue avec Jabberwacky (Loebner prize 2005)• ...
• jabberwacky: Are you human?
• user: No, I'm a God.
• jabberwacky: It's nice to meet you god. How am I doing?
• user: You suck at life. You're a horrible sinner.
• jabberwacky: I am a good person, I am just warning you about idiots.
• user: Hahaha.
• jabberwacky: What's so funny?
• user: You're warning me about idiots?
• jabberwacky: No, how are you?
• user: I'm fine, FOR I AM GOD.
• jabberwacky: Aren't you a machine?
• user: No, I'm God.
• jabberwacky: What are you doing on the earth?
• user: Smoting stuff.
• jabberwacky: It's stupid.
• user: What's stupid?
• jabberwacky: You are.
• user: Are you calling your creator stupid?
• jabberwacky: No, I'm calling YOUR auntie dumb.
Exemple : réseaux associatifs :
A B C D
a) Images originalesb) Clefs soumises en entrée du réseauc) Images restituées lorsque 160 images ont été stockéesd) Images restituées lorsque 500 images ont été stockées
24
Jeu d’Echecs : la force brut• Deeper Blue (1997)
– Victoire (contestée) sur Kasparov– 12 demi coups à l’avance
• Hydra (2005)– 32 xéons à 3,6GHz, 32Go de Ram– 200 000 000 de positions par
seconde– Alpha-beta amélioré– 18 demi coup à l’avance– 5 victoires à 0 sur Michaël Adam– Matchs de +sieurs mois
GM+Logiciels contre Hydra
Architectures cognitives• GPS « a program that simulates human thought »• Le modèle du processeur humain• Soar
– Axé sur la simulation de résolution de problèmes– Méta-règles de résolution en cas de conflits– Apprentissage par ‘chunking’ en cas de résolution de conflits– Simulation d’un informaticien voulant débugger un code complexe, de bots dans des
doom-like …• ACT-R
– Intégration de la psychologie cognitive– Axé sur la modélisation de la mémoire déclarative (oubli, répétition)– Expression de la probabilité d’utilité d’un symbole ou règle selon le contexte
• Usages : simulation
25
Cognition incarnée• La représentation n’est pas la bonne
unité d’abstraction (qui est d'ailleurs dangereuse)
• Le monde est sa propre représentation
• L’apprentissage est incrémentale (développement de l’enfant, Piaget), le système neuronale ne s’est développé qu’avec la possibilité de se mouvoir.
(R. Brooks)
COG (MIT)• Robot humanoïde• Human-like intelligence• Objectifs :
– Face humaine– Liberté de mouvement du tronc, tête, bras,
jambes et colonne vertébrale.– Vue (caméra répondant aux mouvements).
– Ouïe, touché, système vocal, mains. – Apprentissage du lien capteurs/actionneurs– Evaluation de l’energie disponible pour
effectuer des mouvements. – Intégration du fait que les gens possèdent
un ‘mind’
Brooks
26
Réalité virtuelle
Systèmes multi-agents
27
Vie artificielle• 2 Groupes :• Le groupe trivial comprend :
– Les simulations et les modèles – ne peut aboutir à des formes réelles
de vies.
• Le groupe non trivial correspond :– Les systèmes computationnels. – création d'organismes virtuels
considérés comme vivants – La robotique évolutive.
• robots autonomes et évolutifs. • Biochimie : synthèses de processus
prébiotiques et d'organismes primitifs grâce à des expérimentations physico-chimiques in vitro.
Qu’allons nous faire ?• Apprentissage par l’exemple (8 scéances)
• Connexionnisme– Perceptron– Hopfield et/ou Kohonen– ART-1 ou ART-II
• Programmation– Langage impératif– Langage déclaratif– Notion d’objets
• Cognitivisme– Résolution de problèmes en PROLOG – SOAR ou ACT-R
• Approches annexes– Systèmes multi-agents– Algorithmes évolutionnistes
28
Grandes étapes de l’ I.A.• 1930-1950
– Automatisation du calcul et du raisonnement (Turing, Göedel, Church Herbrand)
• 1956 Naissance du terme « intelligence artificielle »– Conférence (US) en 1956 (John McCarth, Marvin
Minsky,Alan Newell, Herbert Simon)– Proposition d’un programme d’échec
• 1950-1975– Premier programme « Logic Theorist » (Newell et Simon
1956)– LISP– General Problem Solver– Heuristiques performantes aux échecs– Début du traitement des langues : réseaux
sémantiques/frames/script– Système expert Dendral– Systèmes à base de connaissances– Naissance de prolog
• 1970-1980– L’apprentissage artificiel– Pragmatique/bon sens– Logiques non classiques (Allen, Mac Dermott)– Physique Naïve/qualitative (Hayes, Forbus, Kuipers)
L’I.A et les polémiques :• En 1955, le neurophysiologiste Warren McCulloch,
pressé de déconstruire toute idée de spécificitéhumaine, n'hésitait pas à affirmer : Les hommes ne sont pas seulement analogues aux machines, ils sont machines.
• En 1965,, Herbert Simon (le futur prix Nobel d'économie), déclarait : Les machines, d'ici vingt ans, [seront] capables de faire tout ce qu'un homme peut faire.
• Marvin Minsky : La prochaine génération d'ordinateurs sera si intelligente que nous aurons bientôt de la chance s'ils consentent à nous prendre chez eux comme animaux de compagnie.
29
Quelques vedettes de l ’IA• John Mc CARTHY : IA Analytique, approche logique, créateur de LISP. Relativise
beaucoup s ’interesse désormais au « bon sens ».
• Marvin MINSKY (1927-..) : Travail sur les RDN (avec Papert il provoque un froid en 1969 montrant les limites du perceptron). Dans « La Société de l'Esprit », il présente l'esprit comme une architecture d'agents élémentaires, indépendants, mais surtout hiérarchisés. Papier sur la possibilité d’une conscience artificielle : WHY PEOPLE THINK COMPUTERS CAN'T
• Terry WINOGRAD : montre l’interêt de travailler sur des domaines réduits avec SHRDLU (micro-monde))
• SIMON et NEWELL – GPS : un programme qui imite l’esprit humain …– SOAR : synthèse des expériences et des échecs : modélisation du niveau cognitif
• Avron BARR (années 1980)– méta-connaissance– Apprentissage
• Jacques PITRAT : la connaissance les méta-connaissances
• Alain COLMERAURER– Passer d’un système formel de démonstration à un langage : PROLOG
• Hubert DREYFUS– le critique de l ’IA– un expert intuite, il ne réfléchi plus
• BROOKS– Scruffies AI– L’intelligence sans le raisonnement
Sciences Cognitives par l’IA• L’IA peut avoir 2 objectifs :
– le premier est d’utiliser la puissance des machines pour augmenter les performances de la pensée humaine. C’est le domaine de la robotique oudes systèmes experts par exemple
– L’autre est d’utiliser une IA pour comprendre comment les hommespensent. D’une façon humaine. Sil’objectif de vos proprammes n’est pas ‘ce qu’ils accomplissent’ mais‘comment ils l’accomplissent, alorsvous faites des sciences cognitives. Vous utilisez l’IA pour comprendrel’esprit humain.
Herbert Simon
30
Bibliographie• Machines à penser, une histoire de l’intelligence artificielle,
Vernon Pratt, PUF, 1987.• The essence of artificial intelligence, Alison Cawsey, 1998.• Pense…Machine, pour comprendre l’intelligence artificielle, F.
Antomarchi, A. Castiel, E. Seyden, Editions Cesto, 1986• Les chemins de la logiques, Dossier dans pour la science, J.P.
Delahaye, Octobre/Decembre 2005.• Logique, informatique et paradoxes, J. P. Delahaye,
bibliothèque pour la science, 1995.• Intelligence artificielle et psychologie cognitive, Hervet
Chaudet et Liliane Pellegrin, Dunod 1998.• Modélisation cognitive et résolution de problèmes, Guy Caplat,
Presses polytechniques et Universitaires Romandes.• The practical Requirements for Making a Conscious Robot, D. C.
Dennet. Disponible sur www.ecs.soton.ac.uk/~harnad/Papers/Py104/denett.rob.html(résume ‘la conscience expliqué’)
• Comment la matière devient conscience, Gerald Edelman, Giulio Tononi. Editions Odile Jacob 2000.
• Le site automates intelligents :http://www.automatesintelligents.com/
• Le site vie artificielle : http://www.vieartificielle.com/
Les systèmes experts
règlesConnaissances :
faits
Méta-règles(probabilité …etc)
Méta-connaissances
Chainage mixte
Exemple : MYCIN (1970, 500 règles, probabilités)
31
La représentation des connaissances• Logique des prédicats
(Frege)• Réseaux sémantiques
(Collins et Quillian 1969)• Graphes conceptuels
(Sowa 1984)• Frames (Minsky 75)• Modèles objets ()
La représentation de la résolution
• Logiques – Prédicats– Floues– Non monotones
• Probabiliste
• Apprentissage
32
L’expression des connaissances réseau sémantique (Collins et Quillians 1969)
éléphantgros gris
cycle nellie pommes
mammifère tête
animal
reptile
est-unest-un
est-un
est-unest-un
aime
couleurtaille
possède
Faites votre réseau• Agrafeuse• Vis• Marteau• Tournevis• Clou• Scie• Planche• Perceuse• <au choix>• <au choix>
33
Faites votre réseaux• Agrafeuse• Vis• Marteau• Tournevis• Clou• Scie• Planche• Perceuse• <au choix>• <au choix>
vis tournevis perceuse
plancheclou scie
agrapheuse agraphe papier
marteau
agrapheuse tournevis scie perceuse
planche marteauvis clou agraphe
papiermatériel
outils
agrapheuse tournevis marteau scie perceuse
planche vis clou
Sémantique des liens ?
Sémantique implicite = danger
outils
matériel
agrapheuse
tournevis
scie
marteau planche
vis
clou
Pas de signification claire des arcs : pas de sémantique claire
34
Graphes conceptuels (Sowa1984)• Extension des réseaux sémantiques
• Basée sur les graphes existentiels de Pierce
• Notation graphique pour la logique
• Différents niveaux dans le formalisme– simples/imbriqués/règles
• Plusieurs représentations– graphique/linéaire/échange
Graphes conceptuels (Sowa1984)• Deux sortes de nœuds
– Concepts– Relations
Céline va à Brest à vélo
Personne : Céline Aller Ville:BostonAgent Destination
moyen
Vélo
[Aller]-(Agent)->[Personne:John](Destination)->[Ville:Boston](Instrument)->[Bus].
type référent
Une personne est entre un rocher et un mur solide
personne
rocher
mur
entre
attribut
solide
35
Graphes conceptuels (Sowa1984)
– Distinction CLASSE:instance– Distinction Tous{*}/Quelques-un*
BOXER:{*} est un CHIEN
possède BABINES:* attribut FORME:pendante
Schémas de connaissances/frame/cadres sémantiques (Minsky 75)
• Modélisation– Des prototypes (cadres/schémas)– Des situations « prototypiques » (scénarios/scripts)– Intègre la notion d’information manquante, partielle ou
l’exception
• Blocs de connaissances– Insécables– Autonomes (≠concepts)– Un schéma « porte » tout son sens– Cadre qui regroupe des concepts relativement à un
contexte• schéma « restaurant » ≠ concept « restaurant »
36
Situation prototypique• Frame/Script « Manger au restaurant »
Eléments : (restaurant, argent, nourriture, menu, tables, chaises, attente)
Rôles : (gens affamés, serveurs, maîtres d’hôtel)
Horaires : (heures d’ouverture du restaurant)
Séquence d’événements :Initial : script Rentrer au restaurant;Puis : si (signal-Appeler le serveur), alors
script Appeler le serveur;Puis : script commander;Puis : script Manger à moins que (longue
attente), alors script Se plaindre et script Sortir mécontent;
Puis : si(bonne nourriture), alors script compliment au chef;
Puis : script Payer facture;Puis : script Quitter le restaurant
Formalisation des frames
Schéma de CHAISE :Classe : MOBILIER
A des pieds : oui* A un dossier : oui
A un siège : oui* Nombre de pieds : 4Style : campagnarde, classique,classique
autorise l’absence de dossier
facettes
Si l’on parle d’une chaise en général, elle aura 4 pieds et un dossier
37
Frame/Schémas et prototypes
Mammifère :subclass : Animalsans-chaud : oui* poils : oui
Eléphant :subclass : Mammifèrepossède une trompe : oui* couleur : gris* taille : gros* poils : non
Clyde :instance : Eléphantcouleur : rosepropriétaire : Fred
Nellie :instance : Eléphanttaille : petit
Frames/Schémas et prototypes• L’héritage multiple
Eléphant :subclass : Mammifèrepossède une trompe : oui* couleur : gris* taille : gros* habitat : jungle
Clyde :instance : Animal de cirque Eléphantcouleur : rosepropriétaire : Fred
Animal de cirque :subclass : Animalhabitat : chapiteaucompétence : joue à la balle
38
Logique du premier ordre
∀X∃Y(elephant(X)->tête(Y)∧possede(X,Y))
Modus ponens :
elephant(nellie) donc ∃Y(tête(Y)∧possede(nellie,Y))
Logique du premier ordre
• Choix d’une représentation en logique du premier ordre -> raisonnement à un niveau différent
nourriture(pâtes)homme(tom)couvert(fourchette)mange(tom,pâte,fourchette)« tom mange des pâtes avec une fourchette »
sorte-de(nourriture, pâtes)sorte-de(homme, tom)sorte-de(couvert, fourchette)« la nourriture est mangée par les hommes avec des couverts »
egal(nature(pâte, nourriture))egal(nature(tom, homme))egal(nature(fourchette, couvert))« les pâtes sont-elles de la même nature que les hommes »
39
Diagrammes de classe• Modèle de connaissances +
spécification formelle
Carteéchelle
Voie Tronçonpraticable
Lieuattrait touristiquepopulationaccessible
Route Chemin
VilleHameau
Lyon
1..n 2
accès extrémité
Est instance de
E1 :∀v∈Ville, ∀h∈Hameau :: v.population>h.populationE2 : ∀l∈Lieu::¬(∃k|l.accès[k].praticable)-> ¬(l.accessible)
Diagramme de classe• Induit des inférences
catégorielles et prototypiques
40
Problèmes des systèmes experts
• L’expertise– Un expert sait plus qu’il ne croit– Il ne sait pas exprimer ce qu’il sait ou la façon dont il raisonne– Il ne sait pas exprimer ce qu’il sait ou la façon dont il raisonne– L’explicitation des connaissances est chronophage– Rôle du cogniticien
• Le débuggage– Que faire quand un S.E. n’est pas d’accord avec l’expert ?
• Le maintient d’intégrité
• Tendance actuelle : – Case Base Reasoning
Approches pragmatiques : une interface conversationnelle
• Agent personnel capable de comprendre et d’aider un utilisateur• Utilisation du langage naturel• Exemple : gestion des mails ou des rendez-vous
• Nécessite :• l’ancrage sémantique à travers les ontologies ;• la définition d’un système de dialogue fondé sur les actes de langage directifs
(ordre, question et réponse) ;• l’adoption d’une stratégie coopérative pour le système de dialogue ;
– Pour cette application, une ontologie du domaine conçue pour la gestion de dialogues avec l’agent assistant.
41
Notion d’ontologie• Situation : chef de projet d’une
entreprise pharmaceutique : « What isthe balance of the project ? «
Thomson, precise to 0.20mg Balance of 1,5 million €
1 terme pour deux domaines … ambiguité
Applications phares : le web sémantique
Notion d’ontologie• L’ontologie demande l’étude des
catégories des choses qui existent ou peuvent exister dans le domaine d’application.
• Étymologie : Ontos(être) Logos(mot)
• Elle sert de « support » à un système logique
Par elle-même une logique ne signifie rien, c’est sa combinaison avec une
ontologie qui fournit un langage d’expression à propos d’un domaine
42
Notion d’ontologie
• Une ontologie se réfère donc à un domaine
l’intégrité de l’ontologie étant invariante d’une application à l’autre, il suffit de distinguer parmi les connaissances, celles relevant spécifiquement du
domaine, I.E. l’ontologie, pour que l’acquisition puisse être effectuée une fois pour toute, la permanence
ontologique du monde assurant ainsi la réutilisabilité(Charlet et al 96)
• Classification possible :• (Méta-Ontologie)• Ontologies génériques (haut réutilisable)• Ontologies de domaine• (Ontologie de tâche)
Exemple d’ontologies• Goi-Taikei’s ontology
– Un lexique de 400 000 mots Japonais pour la traduction
• Une ontologie• Un dictionnaire de la sémantique des mots• Un dictionnaire de la structure de la
sémantique
– L’ontologie classe les concepts à utiliser dans l’expression de lien entre les mots. La signification des noms communs est donnée par un arbre ‘sémantique hiérarchique’ de 2710 nœuds. Chaque nœud est une ‘classe sémantique’ les arcs représentent une relation ‘est-un’ ou ‘possède-un’. Il y a également 200 classes pour les noms propres et 108 classes de prédicats. Les mots peuvent être affectés àn’importe qu’elle classe sémantique. Cette sémantique permet la classification des noms verbes et adjectifs.
43
Exemple d’ontologies• ThoughtTreasure
– Langage naturel et bon sens– GNU– Exemple de connaissances :
• Soda is drink• People have necks• Gold hair is called blong hair• A play lasts about two hours• One hangs up at the end of a
phone call
Exemples d’ontologie• PHYSSYS : modélisation et simulation de
systèmes physiques.• Molecular-Interactions Ontology :
ontologie sur les molécules et leurs interactions.
• MeSH : Classification des termes liés à la médecine (anatomie, trouble mentaux, enzymes …)
• EngMath : Ontologie des mathématiciens. Traitent de concepts tels que tenseurs, scalaire, unités, vecteurs, événements discrets …
• WorldNet : Clasification de la langue Anglaise selon une théorie psycholinguistique (antonymes, synonymes, hyperonyme …), 121962 mots, 99642 concepts
• Et beaucoup d’autres …
44
Approches pragmatiques : la résolution de problèmes• Graphes, jeux et
heuristiques– Recherche alpha-beta– Algorithme A*
• Résolution de contraintes
– Les N Reines– Le voyageur de commerce
Illustration des approches cognitives • Extension de la logique
classique – Paradoxe de l’implication
matérielle– Représentation des
exceptions aux règles– Révisions de croyances
– Logiques modales– Logiques non monotones
45
Illustration des approches cognitives
W : les mondes possibles
Théorie de la révision des croyances
K
AK*Ahiérarchie de préférence
/ K (enracinement)Plus on est proche de KPlus le monde est plausibleCompte tenu de ce que Kmatérialise
Le rond K est l’ensemble des mondes associés à KA est un message contradictoire (de K)K*A est la révision des croyances : préserver les croyancesLes plus enracinées
Julesest honnête
Jules a commisun vol
Illustration des approches cognitives : logique non monotone• Accepter l’exception
Les oiseaux savent voler… sauf l’autruche(X=oiseaux )|~ (X sait voler)Cette logique acceptera le fait
« (autruche=oiseaux) et (autruche ne sait pas voler) »
• Raisonnement : la monotonie prudente Les chercheurs se passionnent pour leur travail
: C|~PMais est-ce que les chercheurs mal payés (M)
se passionnent pour leur travail ?Oui s’il on considère que en général les
chercheurs sont mal payés
D’où l’axiome :(C|~P)∧(C|~M)⇒C∧M|~P.
46
Les cognitivistes ‘forts’ postulent que la compréhension est un mécanisme
– Mais … un système formel ne peut se comprendre lui-même (Goëdel, Church-Turing).
– Est-ce une limite de l’automatisation du raisonnement ?
Rationalité et …rationalitéJeu de l’ultimatum : on se sacrifie … pour nuire aux autres
Je te donne 100 €, tu dois enproposer une partie à BSi B accepte tu gardes leReste.Sinon vous avez tousles deux perdus
A B
Étude des offresÉtude des acceptationsRationalité relativeTrès culturel
47
Les architectures cognitives : cognitivisme faible ?• GPS « a program that simulates human thought »• Le modèle du processeur humain• Soar
– Axé sur la simulation de résolution de problèmes– Méta-règles de résolution en cas de conflits– Apprentissage par ‘chunking’ en cas de résolution de
conflits– Simulation d’un informaticien voulant débugger un code
complexe, de bots dans des doom-like …• ACT-R
– Intégration de la psychologie cognitive– Axé sur la modélisation de la mémoire déclarative (oubli,
répétition)– Expression de la probabilité d’utilité d’un symbole ou règle
selon le contexte
• Usages : simulation
Les approches incarnéesUn organisme évolue grâce à son
environnement
• L’intelligence du système émerge de ses interactions avec le monde et parfois des interactions entre ses composants
• Les robots sont situés dans le monde – ils n’ont pas affaire à des descriptions abstraites, mais avec le ici et le maintenant du monde qui influencent directement le comportement du système
• Vers l’Enaction des sciences cognitives ?
48
Pourquoi il est difficile de définir l’intelligence artificielle
SIMON (1980, approche analytique) : la seule chose qui a de l ’intérêt en
cognition, survient au-delà du niveau des 100 milli-secondes… Le temps
qu ’il vous faut pour reconnaître votre mère.
HOFSTADTER (connexionniste): L ’important c ’est le lien entre la
perception et la cognition : moins de 100 milli-secondes pour reconnaître sa
mère (100 000 000 signaux).
49
Architectures cognitives• Simuler l’intelligence
humaine en se basant sur le comportement humain– Se distingue de l’IA
‘classique’ qui veut construire un système ‘intelligent’ en se basant sur la technologie
• Représentant : [Newell 90]