sistemas expertos
TRANSCRIPT
Instituto Tecnológico Superior De Coatzacoalcos
Asignatura:
Tecnologías Innovadoras
Trabajo A Entregar:
Cuestionario
Nombre Del Alumno:
Ana Mariela Ramírez Santiago.
Grado: 9° Grupo: B
N° De Control: M11081182
Instructor:
Ing. Lizbeth Hernández Olán
Coatzacoalcos, ver a 19/12/2015
Contenido
DENDRAL...........................................................................................................................4
XCon....................................................................................................................................6
PROLOG.............................................................................................................................7
Dipmeter Advisor...............................................................................................................8
CONCLUSION.........................................................................................................................10
BIBLIOGRAFIA........................................................................................................................11
Introducción
En este trabajo vamos a ver ejemplos de un sistema experto, dicho sistema es
MYCIN XCON, PROLOG, DIPMETER ADVISOR. Veremos cuál es su
objetivo, como trabaja para concluir con un ejemplo real de aplicación.
Un sistema experto es un conjunto de programas que, sobre una base de
conocimientos, posee información de uno o más expertos en un área
específica. Se puede entender como una rama de la inteligencia artificial,
donde el poder de resolución de un problema en un programa de computadora
viene del conocimiento de un dominio específico. Estos sistemas imitan las
actividades de un humano para resolver problemas de distinta índole. También
se dice que un sistema experto se basa en el conocimiento declarativo (hechos
sobre objetos, situaciones) y el conocimiento de control (información sobre el
seguimiento de una acción).
Los mencionados sistemas expertos, son llamados así porque emulan el
comportamiento de un experto en un dominio concreto y en ocasiones son
usados por éstos. Con los sistemas expertos se busca una mejor calidad y
rapidez en las respuestas dando así lugar a una mejora de la productividad del
experto.
DENDRAL
Orígenes
El proyector DENDRAL tuvo sus orígenes en 1965, cuando Feighembaum, tras
instalarse en la Universidad de Stanford, comenzó a trabajar con el profesor
Joshua Lederberg, especializado en Química Molecular. Ambos investigadores,
compartían la misma inquietud: la posibilidad de usar los ordenadores para
modelar el pensamiento científico
DENDRAL
Es un sistema experto que permite resolver la cuestión planteada
anteriormente a través de un proceso de búsqueda de generación y prueba
jerárquica que se divide en tres partes funcionales: plan, generación y prueba.
Su base de conocimientos se desglosa en dos conjuntos de reglas
correspondientes a cada una de las fases de desarrollo del sistema.
Fases de diseño
J. Lederber, en, realiza la descripción autobiográfica del desarrollo de este
sistema. A lo largo de este documento se distinguen dos fases de diseño bien
diferenciadas que se detallan a continuación.
Primera Fase Consistía en calcular todos los compuestos que podían dan lugar
al número másico de la molécula inicial, teniendo en cuenta el número má- sico
de cada uno de los átomos en los que se dividía el compuesto y las
restricciones de valencia. Estas restricciones permitieron podar el árbol de
posibles soluciones rápidamente, reduciendo el coste computacional de la
búsqueda exhaustiva que se estaba realizando.
Segunda Fase Intentaba modelar el procedimiento inferencial del experto
químico para encontrar la estructura molecular de la combinación que se
consideraba solución: representar dicha estructura en forma de grafo.
META-DENDRAL y GENOA META-DENDRAL
Es un sistema de auto-aprendizaje que permitía inducir sus propias reglas a
partir de la introspección de datos de entrada procedentes de la fragmentación
del espectrómetro másico de moléculas cuya estructura es conocida.
DENDRAL y posteriormente su mejora META-DENDRAL tan sólo fueron
usados por investigadores y universidades. La versión más reciente del
generador de estructuras interactivo, GENOA, ha sido autorizada para uso
comercial; aunque su uso principalmente está limitado a la investigación
académica.
XCon
El programa R1 (luego llamado XCON, por Configurador Experto) era un
sistema de producción basado en reglas escrito en OPS5 por John P.
McDermott de CMU en 1978 para asistir a los pedidos de los sistemas de
computadores VAX de DEC (Digital Equipment Corporation) seleccionando los
componentes del sistema de acuerdo a los requerimientos del cliente. El
desarrollo de XCON siguió a dos fracasos de escribir un sistema experto para
esta tarea en FORTRAN y BASIC.
XCON se usó por primera vez en la planta de DEC en Salem, New Hampshire.
Este tenía alrededor de 2500 reglas. Para 1986, había procesado 80000
órdenes y alcanzaba un 95-98% de precisión. Se estimaba que le ahorraba a
DEC 25 millones de dólares al año reduciendo la necesidad de dar a los
clientes componentes gratuitos cuando los técnicos cometían errores,
aumentando la velocidad del proceso de ensamblaje e incrementando la
satisfacción del cliente.
MYCIN
Objetivo
MYCIN como ya hemos dicho es un SE (desarrollado entre 1972 y 1980,
Universidad de Stanford) para la realización de diagnósticos. Iniciado por Ed
Feigenbaum y posteriormente desarrollados por E.Shortliffe y sus
colaboradores. Su función es la de aconsejar a los médicos en la investigación
y determinación de diagnósticos en el campo de las enfermedades infecciosas
de la sangre. El sistema diagnosticaba la causa de la infección usando el
conocimiento relativo a la infección de los microorganismos con historiales de
pacientes, síntomas y los resultados de los test de laboratorio. Desde el
principio, en el proyecto se habían impuesto una serie de obligaciones:
1. Tenía que ser funcional (esto implicaba competencia y consistencia). El área
de uso era elegido según una necesidad demostrada. (Por ejemplo, a principios
de los 70 a una cuarta parte de la población de USA se le recetaba penicilina,
el 90 % de esas prescripciones eran innecesarias).
2. El programa tenía que ser diseñado con un énfasis de cumplir el rol de un
médico y como una utilidad para un medico, a pesar de reemplazar sus propios
procesos de razonamiento.
3. El programa debía albergar una cantidad ingente de información técnica.
4 .El sistema tenía que interactuar mediante diálogos, tenía que dar una
explicación concreta de su razonamiento para llegar a la solución propuesta.
5. Velocidad, accesibidad y facilidad de uso.
PROLOG
El Prolog (o PROLOG), proveniente del francés PROgrammation en LOGique,1
es un lenguaje para programar artefactos electrónicos mediante el paradigma
lógico con técnicas de producción final interpretada. Es bastante conocido en el
área de la Ingeniería Informática para investigación en Inteligencia Artificial.
Los programas en Prolog se componen de cláusulas de Horn que constituyen
reglas del tipo "modus ponendo ponens", es decir, "Si es verdad el
antecedente, entonces es verdad el consecuente". No obstante, la forma de
escribir las cláusulas de Horn es al contrario de lo habitual. Primero se escribe
el consecuente y luego el antecedente. El antecedente puede ser una
conjunción de condiciones que se denomina secuencia de objetivos. Cada
objetivo se separa con una coma y puede considerarse similar a una
instrucción o llamada a procedimiento de los lenguajes imperativos. En Prolog
no existen instrucciones de control. Su ejecución se basa en dos conceptos: la
unificación y el backtracking.
Gracias a la unificación, cada objetivo determina un subconjunto de cláusulas
susceptibles de ser ejecutadas. Cada una de ellas se denomina punto de
elección. Prolog selecciona el primer punto de elección y sigue ejecutando el
programa hasta determinar si el objetivo es verdadero o falso.
En caso de ser falso entra en juego el backtracking, que consiste en deshacer
todo lo ejecutado situando el programa en el mismo estado en el que estaba
justo antes de llegar al punto de elección. Entonces se toma el siguiente punto
de elección que estaba pendiente y se repite de nuevo el proceso. Todos los
objetivos terminan su ejecución bien en éxito ("verdadero"), bien en fracaso
("falso").
Dipmeter Advisor
Dipmeter Advisor (Asesor) fue un sistema experto temprano desarrollado en
1980 por Schlumberger Doll Research para auxiliar en el análisis de los datos
recolectados durante la exploración petrolera.
El Asesor no era simplemente un motor de inferencias y una base de
conocimientos de 90 reglas, sino que era una estación de trabajo completa,
corriendo sobre una máquina Dolphin Lisp de Xerox (o, en general, en un
procesador de información científica de la serie 1100 de Xerox) y escrito en
INTERLISP-D, con una capa de reconocimiento de patrones que era
alimentada por una interfaz gráfica de usuario basada en menús. Fue
desarrollado por un grupo de gente, incluyendo a Reid G. Smith, James D.
Baker y Robert L. Young.
Era principalmente influyente, no por un gran salto técnico, sino porque era
bastante exitoso para las divisiones petroleras de Schlumberger y porque fue
una de las poco historia exitosas dentro de la burbuja de la Inteligencia Artificial
en recibir amplia publicidad.
Las reglas de Inteligencia Artificial de Dipmeter Advisor eran principalmente
derivadas de AI Gilreath, un ingeniero de interpretación de Schlumberger que
desarrolló el método de los patrones rojo, verde, azul de la interpretación
dipmeter. Desafortunadamente este método tenía aplicaciones limitadas en
entornos geológicos más complejos fuera de la costa del Golfo, y el Dipmeter
Advisor era principalmente usado dentro de Schlumberger más como una
herramienta de visualización gráfica para asistir en la interpretación de
científicos geológicos entrenados, que como una herramienta de inteligencia
artificial para ser usada por intérpretes novatos. Sin embargo, la herramienta
fue un acercamiento pionero a las estaciones de trabajo con interpretación
gráfica de la información geológica.
CONCLUSION
El reto de crear maquinas cuyo comportamiento asimile el de los humanos, con
capacidad para tomar propias decisiones y obtener conclusiones comienza a
ser tenido en cuenta a partir del desarrollo de la informática. Concretamente, la
inteligencia artificial (IA) es una rama de la ciencia de la computación. Paralelo
al desarrollo de la informática, comienza el desarrollo de la inteligencia artificial.
La IA comprende el estudio y creación de sistemas computarizados que
manifiestan cierta forma de inteligencia: sistemas que aprenden nuevos
conceptos y tareas, que pueden razonar y derivar conclusiones útiles acerca
del mundo que nos rodea, sistemas que pueden comprender un lenguaje
natural o percibir y entender una escena visual, y sistemas que realizan otro
tipo de actividades que requieren de inteligencia humana
La IA es una ciencia que trata de la comprensión de la inteligencia y del diseño
de máquinas inteligentes, es decir, el estudio y la simulación de las actividades
intelectuales del hombre (manipulación, razonamiento, percepción, aprendizaje,
creación).
La IA es el estudio de las computaciones que permiten percibir, razonar y
actuar. Es un campo de estudio que busca explicar y emular el comportamiento
inteligente en términos de procesos computacionales.
Estudia las representaciones y procedimientos que automáticamente resuelven
problemas usualmente resueltos por humanos.
A pesar de la diversidad de conceptos propuestos para la IA, en general todos
coinciden en que la IA trata de alcanzar inteligencia a través de la computación.
Toda computación, requiere de una representación de cierta entidad y de un
proceso para su manipulación.
BIBLIOGRAFIA
EXTRAIDO DE PAGINAS WEB:
http://www.it.uc3m.es/jvillena/irc/practicas/estudios/DENDRAL.pdf
http://www.it.uc3m.es/jvillena/irc/practicas/estudios/MYCIN.pdf
https://es.wikipedia.org/wiki/Prolog