Visto y Leído

[Sobre Biblioteconomía y Documentación, Recuperación de Información, Lógica, Inteligencia Artificial]

¡Importante! esta página hace uso de estilos recogidos en la especificación CSS2, no soportados por el navegador que está utilizando. Por favor, lea esta recomendación al respecto.

Sobre este sitio

Selección de artículos, ensayos, noticias, entrevistas, reseñas, y otro tipo de textos, publicados en medios impresos y digitales, sobre Biblioteconomía y Documentación, Recuperación de Información, Lógica, Inteligencia Artificial, y áreas afines del conocimiento, sin descartar la inclusión ocasional de textos relativos a la actualidad política y social.

Archivo de anotaciones

Guardado por meses.

Enlaces a otros sitios

Temáticas afines

Política, sociedad

Fuera de contexto

Lecturas recomendadas

De Jacques Derrida, en Derrida en castellano:

Varios

Esta página traducida:

Traducción al catalán, internostrum; traducción al portugués, universia.

Búsqueda con Google
 

Búsqueda con Yahoo!
 

Búsqueda con AlltheWeb

Agregue este sitio a su lector de "feeds" (sindicación mediante el sistema Atom).

En esta página:

Sistemas Expertos

Autor: J. Velarde Lombraña, Universidad de Oviedo
Fuente: Diccionario Crítico de Ciencias Sociales
Tema: sistemas expertos, representación del conocimiento, inteligencia artificial
URL documento: http://www.ucm.es/...

Desde que, en 1977, se presenta el famoso sistema experto MYCIN, han sido construidos otros muchos, con aplicación en múltiples áreas de conocimiento. El campo en el que primero se han desarrollado y han tenido éxito los sistemas expertos es el de la Medicina (DENDRAL, MYCIN, TEIRESIAS, EMYCIN, CADUCEUS, PUFF, ONCOCIN, etc.). Mas ello no es de extrañar, habida cuenta de que los conocimientos médicos están sumamente estructurados, y la conexión de síntomas y resultados de test con diagnósticos y toma de remedios viene descrita detalladamente en la bibliografía médica. Otro campo que también ha atraído a los investigadores es el de las finanzas (XCON, XSEL, ISA, IDT, NTC, etc.). Y sin olvidar las importantes aplicaciones en el campo militar (en EE.UU.) por parte de la SCI (Strategic Computing Initiative). A finales de los años 70 los sistemas expertos se expandieron rápidamente por otros dominios: la Ingeniería, las Manufacturas, la Geología, la Biología molecular, el lenguaje natural, etc. En la actualidad existen miles de ellos y decenas de miles de proyectos en fase de desarrollo, por lo que el diseño de sistemas expertos ha acaparado una de las áreas de investigación centrales de la Inteligencia Artificial (I.A.): la Ingeniería del conocimiento, denominación acuñada por Feigenbaum (1977). En dicha área los trabajos se encaminan al diseño de sistemas expertos, i.e., sistemas basados para la "toma de decisiones", no en datos (Data-Based Systems), sino en conocimiento (Knowledge-Based Systems).

Dado que los sistemas expertos son criaturas muy jóvenes, no está aún bien definida su naturaleza. Así han ido apareciendo diversas caracterizaciones (Stefik (1982); Kastner y Hong (1984); Holroyd (1985); Konopasek y Jayaraman (1984); Zimmermann (1987); Buchanan y Smith (1988); etc.). Su estructura fundamental es la organización del conocimiento en dos partes o subsistemas: (A) El conocimiento-base, adquirido, organizado y representado adecuadamente, contiene datos de hechos sobre un dominio o problema particular y conocimiento, en forma de reglas codificadas, para extraer inferencias de la base de datos. (B) La mecánica inferencial: contiene conocimiento general acerca de cómo usar el conocimiento-base para extraer nuevo conocimiento; es un mecanismo rápido que aplica sistemáticamente las reglas a los hechos para obtener soluciones, resolver problemas, etc.

Ambos sistemas (conocimiento-base y mecánica inferencial), según el esquema conceptual propuesto por Feigenbaum y otros, pueden configurarse por separado y utilizarse en la confección de otros sistemas expertos. Así, por ejemplo, el sistema experto MYCIN ha sido, por así decir, desmantelado en su conocimiento-base: su dominio de conocimiento (infecciones sanguíneas y meningitis) ha sido sustituido por otro (enfermedades pulmonares); pero se ha conservado su sistema inferencial, obteniendo así el sistema experto PUFF. Ambos sistemas expertos tienen en común el software, empaquetado aparte, EMYCIN, que contiene el sistema del manejo del conocimiento-base y el sistema inferencial (W. van Melle, 1980).

Según esto, las principales tareas de quienes trabajan en el diseño de sistemas expertos son: la adquisición, la representación y el manejo del conocimiento.

Representación del conocimiento

A partir de los años 70 la representación del conocimiento acapara la atención de los investigadores en I.A., y ello debido a que fue apareciendo cada vez más claro cómo las técnicas para programar el razonamiento (la búsqueda, la recursividad, etc.) -en las que se había puesto el énfasis en los años 50 y 60- resultaban relativamente sencillas en comparación con la tarea de configurar un conocimiento básico, organizado adecuadamente y útil para resolver los problemas cotidianos. Varias han sido las técnicas desarrolladas en I.A. para la representación del conocimiento. Las cuatro más frecuentemente utilizadas son:

(1) El cálculo de predicados; es la forma "clásica" de representar el conocimiento en I.A. Contiene enunciados traducidos a fórmulas bien formadas o axiomas. El investigador más influyente que sigue esta dirección es Nils Nilsson. Esta técnica resulta adecuada para almacenar conocimiento acerca de una estructura de datos; por ejemplo, la estructura de las relaciones de parentesco entre los trobiandeses descritas por Levi-Strauss. A esta técnica se adecua el lenguaje de programación Prolog, cuya sintaxis establece las conexiones lógicas con objeto de encontrar instancias de una o varias variables que satisfagan las funciones (propiedades o relaciones) establecidas. A su vez caben diferentes sintaxis para las implementaciones de Prolog. Así, por ejemplo, la sintaxis "de Edimburgo" o DEC 10, o la sintaxis para versiones de micro-computadores confeccionada en el Imperial College de Londres. La ventaja de este tipo de representación de conocimiento es que éste resulta, de esa forma, sumamente conciso y claro; cabe garantizar su consistencia y la corrección de la deducción de nuevo conocimiento; la derivación de nuevos hechos a partir de los anteriores puede ser mecanizada, ya que el orden de las líneas del programa no afecta a los valores resultantes. La desventaja reside también ahí: a diferencia de la representación procedimental, exige la "estaticidad" de la estructura, y, por consiguiente, resulta válida para una porción bastante reducida del conocimiento.

(2) Las redes semánticas. Una red semántica es una colección de conceptos (objetos, situaciones, nociones) y relaciones entre conceptos junto con una interpretación. Los nudos representan los conceptos, y los hilos representan relaciones binarias entre esos nudos. Las redes semánticas constituyen un buen método para representar conocimiento acerca de propiedades de inclusión entre clases, de pertenencia de individuos a clases. Esta técnica es utilizada, por ejemplo, en los programas PROSPECTOR, SPHINX y ARIES. Un refinamiento de esta técnica consiste en crear un software que pueda construir automáticamente tales estructuras a partir de ejemplificaciones de un concepto. Mas, aun cuando la estructuración de los datos con redes semánticas proporcionan una metodología adecuada para representar ciertos ámbitos de conocimiento, con todo, resulta sumamente simple y débil en comparación con las estructuraciones de datos en el conocimiento humano, en donde para un concepto ordinario podemos tener millones de lazos expresando las mismas o similares asociaciones.

(3) Los armazones (frames). Técnica similar a la anterior. Un armazón es una red de nudos organizados en una jerarquía: los nudos superiores representan conceptos generales; los nudos inferiores, las instancias específicas de esos conceptos; y los enlaces asociados con un concepto particular son llamados "ranuras" (slots). Las ranuras pueden quedar rellenas, bien con un valor, bien prescribiendo otro armazón que supla el valor, bien asignando un procedimiento para computar un valor (en caso de que resulte necesario). El armazón constituye, pues, una generalización de la idea de relación, por cuanto que las ranuras asociadas a un objeto pueden ser consideradas como relaciones, pero no simples: los rellenos de ellas no son atómicos; pueden ser estructuras simples o complejas o un procedimiento (proceso operatorio). Y, finalmente, tampoco queda determinado (no se conoce) de antemano cuántas ranuras tendrá asociadas el objeto en consideración. El iniciador de esta técnica es Minsky. La idea directriz de los "armazones" (o "esquemas") es que la descripción (la representación) adecuada del conocimiento de un objeto exige la introducción de una estructura de datos asociada a dicho objeto; estructura que incluye información, no sólo de tipo declarativo, sino también de tipo procedimental (operacional) y de tipo inclusivo. Y, en este sentido, la técnica de los armazones constituye una unificación (parcial) de las redes semánticas y de las representaciones procedimentales (u operacionales). Un ejemplo de lenguaje que utiliza armazones es el programa FRL (Frame Representation Language). Hayes ha señalado, sin embargo, que toda posible construcción con armazones es representable en la lógica de primer orden.

Otra técnica similar a la de los armazones es la de los "guiones" (scripts), iniciada por Schank y Abelson. Los guiones constituyen estructuras que describen secuencias de acontecimientos dentro de un contexto. Son secuencias estereotipadas de acciones que definen situaciones perfectamente conocidas y que no sufren cambios significativos una vez almacenadas. En tanto que los armazones resultan apropiados para representar conocimiento acerca de objetos, los guiones representan mejor el conocimiento de acontecimientos, y resultan así muy útiles para la representación a nivel general del significado propio de la comprensión y el entendimiento de historias escritas en lenguaje natural. El guión, como el armazón se compone de ranuras y de estipulaciones para rellenarlas. La estructura resultante es un todo interdependiente, en el que los contenidos de una ranura pueden influir sobre los de otra. Y, también como en los armazones, la comprensión (el entendimiento) se produce cuando quedan rellenas todas las ranuras. Los guiones exigen la fijeza de las secuencias de acciones, y de ahí que cada guión viene estructurado de acuerdo con el rol particularmente asumido, y que constituye el estereotipo de la actuación. Utilizan la técnica de los guiones o "planes" los programas SAM, PAM y TALESPIN.

(4) Reglas generatrices. Las técnicas que se han impuesto, por sus muchas ventajas, en la representación del conocimiento son las de tipo procedimental, según las cuales se reduce el conocimiento-base a unos pocos elementos primitivos más unas reglas generatrices (o de producción) de la forma: "si A, entonces B", en donde las variables A y B pueden ser interpretadas de múltiples maneras: si son satisfechas ciertas condiciones, entonces se obtienen tales consecuencias; si es verdadero tal enunciado, entonces cabe inferir tal otro; si se da tal caso, entonces resulta apropiada tal acción, etc. El antecedente, A, puede ser complejo: una combinación de reglas, por ejemplo, que producen (generan) el mismo consecuente, B. Ejemplo de este tipo de representación del conocimiento del lenguaje es la propuesta por Chomsky para describir (representar) formalmente la estructura sintáctica del lenguaje mediante reglas generatrices (o de producción). Así: Orac. SN + SV constituye una auténtica regla de producción: el conocimiento de que una oración contiene un sintagma nominal y un sintagma verbal viene representado en el programa por las llamadas correspondientes a las rutinas encargadas de procesar los sintagmas nominales y los verbales, etc.

Estas técnicas tienen su origen en la idea germinal, inicialmente desarrollada independientemente por Post (años 20), Church y Turing (años 30), de reducir los sistemas (en este caso, de conocimiento) a unos pocos elementos primitivos, a partir de los cuales, mediante un conjunto (también restringido) de reglas, cabe obtener los demás elementos del sistema. Newell y Simon introdujeron este modelo como parte de su trabajo en el programa General Problem Solver (1963). La noción más rica en I. A. derivada de la idea germinal citada es la de recursividad, en virtud de la cual un pequeño conjunto de elementos (ideas, conceptos, definiciones, etc.) es suficiente para lograr ciertas formas de conocimiento o para alcanzar la solución de un problema, i.e., el enunciado de un problema puede ser usado como una parte, a veces la más importante, de la solución del problema. Como simple ejemplo considérese la definición recursiva de factorial de un número, expresando n! el factorial de n. Si definimos recursivamente:

(1) 1! = 1
(2) n! = n × (n - 1)! ,

entonces, efectivamente, utilizamos el concepto de factorial en su propia definición: utilizamos parte del definiendum en el definitum. Y precisamente en esta autorreferencia consiste la recursividad. Mas no por ello la definición resulta circular, por cuanto que no hay regressus in infinitum: hay un punto de escape, una parte no recursiva de la definición, que en este caso es el factorial de 1. El aspecto positivo, en cambio, reside en que procedimientos o conceptos complejos pueden ser expresados de manera simple. De ahí la importancia que tuvo la incorporación de la arquitectura de computador tipo Von Neumann (con una única unidad central de procesamiento con acceso a sus programas desde la misma memoria que contiene los datos a manipular) en los famosos computadores EDSAC y BINAC.

La mecánica inferencial

La llamada mecánica inferencial cubre un conjunto de nociones -deducción, inferencia, planificación, búsqueda, razonamiento (del sentido común), prueba, etc.- que, cual funciones, se aplican al conocimiento-base (como argumento) generando nuevo conocimiento.

Puesto que tales nociones pertenecen, específicamente, al dominio de la Lógica (entendida ésta en sentido amplio: no restringida a la lógica clásica bivalente), el estudio de la lógica, sus modalidades y técnicas, resulta imprescindible en el diseño de sistemas expertos. En los trabajos, a este respecto, primerizos la mecánica inferencial se basaba en la lógica clásica bivalente. Pero a medida que fueron ampliándose los campos de aplicación, a medida que se dominaban otros tipos de conocimiento, se refinaban las técnicas lógicas y se introducían otras lógicas: no-monotónicas, intuicionistas, difusas, etc.

La mecánica inferencial, aunque diferenciable del conocimiento-base, está estrechamente vinculada con él; vinculación que varía en función del tipo de conocimiento y de la manera en que esté organizado en la base. Como ya hemos señalado, el conocimiento de tipo procedimental es el más abundante en la conducta inteligente, y, como ocurre en la mayoría de los programas más relevantes, suele venir organizado en forma de reglas de producción. En este sentido, las técnicas de inferencia o estrategias de búsqueda más usuales en los sistemas expertos han sido extraídas de la lógica clásica bivalente, si bien últimamente, como luego veremos, han ido adquiriendo gran auge las técnicas extraídas de lógicas "no-clásicas". Entre las primeras están las siguientes:

Encadenamiento hacia adelante y hacia atrás

La llamada "técnica de encadenamiento hacia adelante" consiste en aplicar al conocimiento-base (organizado en forma de reglas de producción), junto con otro conocimiento disponible, el esquema inferencial modus ponens. Esta estrategia se denomina "encadenamiento hacia adelante" o "razonamiento de datos dirigidos", porque comienza con los datos conocidos y aplica el modus ponens sucesivamente hasta obtener los resultados que se siguen. Las reglas se aplican "en paralelo", i.e., en cualquier iteración una regla toma los datos cuales eran al principio del ciclo, por lo tanto el conocimiento-base y el sistema no dependen del orden en el que las reglas son establecidas, almacenadas o procesadas. Esta técnica suele utilizarse cuando la cantidad de datos es potencialmente muy grande, y resulta de interés algún conocimiento específico tomado en consideración (caso típico en los problemas de diagnóstico; MYCIN, por ejemplo). Esta técnica se corresponde con el método clásico en Lógica de la demostración de un teorema en un sistema axiomático. Dado el sistema axiomático (el conocimiento-base), la estrategia consiste en, dado un teorema (un objetivo), partir de él y tratar de encadenarlo (demostrarlo) en el sistema.

La técnica del "encadenamiento hacia atrás" consiste en tratar de probar un dato (o conocimiento) engarzándolo en las reglas-base con el esquema de inferencia modus ponens, i.e., tomando al dato como un consecuente y buscando en el conocimiento-base el correspondiente antecedente, a través de los pasos correspondientes.

Estas dos formas de inferencia se corresponden con los dos métodos lógicos clásicos conocidos por varios nombres: método resolutivo / método compositivo; análisis / síntesis, etc. La distinción se basa en la relación direccional entre objetivos y datos. Y ambas formas pueden combinarse en el razonamiento. Cabe partir de un supuesto inicial, inferir una conclusión mediante un razonamiento hacia adelante y luego establecer un encadenamiento hacia atrás hasta encontrar los datos que confirman esa conclusión. A su vez, dentro de cada uno de estos tipos de razonamiento cabe distinguir "estrategias de solución", como las llamadas "búsqueda en profundidad" y "búsqueda a lo ancho".

Método de resolución

Otra técnica lógica de extracción de nuevo conocimiento a partir del conocimiento-base, aunque no ya válida para los sistemas de reglas de producción, es la llamada "de resolución", desarrollada por Robinson para la prueba de teoremas del cálculo de predicados y sometida, luego, a abundantes refinamientos, que la convierten en útil, además, para la recuperación de información, para la programación automática y para el razonamiento "del sentido común". El método de resolución es, en esencia, el método de las "tablas de verdad" de Beth o de "árbol" de Smullyan, con reglas (de inferencia) de resolución, en vez de con reglas "semánticas".

El conocimiento ordinario

Los sistemas basados en conocimiento (sistemas expertos) organizan éste en la base -haciendo estimación de los datos, estableciendo estructuras y reglas generatrices- y utilizan técnicas lógicas para, a partir del conocimiento-base, obtener (o generar) otros conocimientos (conclusiones, decisiones, etc.). La organización del conocimiento-base y la ulterior manipulación (técnicas inferenciales) están estrechamente unidas; dependen, además, del tipo de conocimiento tomado en consideración, y en función de ello diseña el ingeniero su sistema experto. Como más arriba hemos señalado, los primeros sistemas estaban diseñados para ser expertos en áreas de conocimiento especializado: de la Medicina (MYCIN), de la Geología (PROSPECTOR), de la Química (DENDRAL), de las finanzas (Plan Power), etc. Y actualmente tales artefactos "inteligentes" funcionan bien en tareas especializadas, dentro de dominios de conocimiento bien definidos, y los juicios de los sistemas expertos rivalizan con los de los expertos humanos en áreas bien definidas de destreza. Esa es la "primera era" de los sistemas expertos. Pero los investigadores, dentro de la Ingeniería del Conocimiento, han emprendido la tarea de codificar el conocimiento "del sentido común", de alcanzar la naturalidad en las relaciones hombre - máquina (relaciones dadas en lenguaje natural), de entender y expresar con utilidad los detalles de la lógica y de la representación del conocimiento "del sentido común",... Tal es la "segunda era" de los sistemas expertos (Feigenbaum, 1990). Y, tanto por lo que hace a la representación del conocimiento, como por lo que respecta al sistema inferencial, exige técnicas nuevas respecto de las utilizadas en los dominios de conocimiento especializado, preciso, sin vaguedad y sin incertidumbre. Así, las técnicas convencionales de representación del conocimiento, basadas en el uso del cálculo de predicados, fracasan en la representación del conocimiento del sentido común, debido a que los predicados, en la mayoría de las proposiciones que lo expresan, no poseen denotaciones precisas, sino ambiguas. Y la toma de decisiones en un dominio incierto no puede seguir reglas fijas (de la lógica clásica bivalente) aplicadas a la información (premisas) imprecisa de que se dispone en la base.

El desarrollo de modelos de representación y manejo de conocimiento exige tomar en consideración la incertidumbre y la vaguedad, que constituyen las dos formas más importantes de ignorancia parcial. Para tratar con la ignorancia dentro de los sistemas basados en conocimiento se han diseñado varios modelos basados en las teorías matemáticas o lógicas ya firmemente asentadas. Y los métodos utilizado suelen venir agrupados por los tratadistas en dos amplias clases: (A) Métodos numéricos: los probabilísticos (inferencia bayesiana, probabilidad subjetiva, creencia racional), la teoría de la evidencia (Dempster y Shafer), etc. Y (B) Métodos no-numéricos ("simbólicos" o "lógicos"): lógicas no-monotónicas, lógicas difusas, teoría de los acoplamientos de Cohen, etc.

Los sistemas expertos de la "segunda generación" tratan de acabar con la rigidez en los conceptos, reglas, etc. propia de los de la "primera generación" y de alcanzar la "naturalidad" propia de los agentes humanos, de manera que la interacción entre la máquina y el usuario sea en lenguaje humano (natural). Los investigadores han emprendido la ardua tarea de desentrañar la composición y lógica del conocimiento ordinario (o "del sentido común") y lo están codificando. No se discute (se acepta) que una máquina puede exhibir inteligencia; se ensayan técnicas diversas con el propósito de domeñar el conocimiento ordinario. Pero los primeros diseños según directrices deductivistas se han topado con el problema de la selección que señala Minsky (el frame-problem):

"Incluso si formulamos restricciones sobre la relevancia, los sistemas logísticos tienen un problema al usarlas. En un sistema logístico, todos los axiomas son necesariamente "permisivos" -todos ellos sirven para que se extraigan nuevas inferencias. Cada axioma añadido significa más teoremas; ninguna puede desaparecer. Sencillamente, no hay ningún modo directo de añadir a un tal sistema información acerca de los tipos de conclusiones que no deberían extraerse... Si intentamos cambiar esto, añadiendo axiomas sobre la relevancia, produciremos todavía todos los teoremas innecesarios más los engorrosos enunciados acerca de su irrelevancia".

El frame-problem resulta de una característica esencial de la lógica clásica: la monotonicidad. Los sistemas de lógica clásica son monotónicos (unidireccionales en sentido creciente o decreciente), i.e., añadiendo más axiomas al sistema aumentamos el número de teoremas que pueden ser demostrados. Pero determinados e importantes razonamientos humanos de sentido común son no-monotónicos; se necesita, pues, un sistema que realmente "ignore" la mayor parte de lo que conoce y opere con una porción bien escogida de su conocimiento en un momento dado. Para alcanzar tales objetivos se han propuesto las lógicas no-monotónicas, bajo diversas modalidades: la lógica no-monotónica de Drew McDermott y John Doyle; la lógica del razonamiento por defecto de Ray Reiter; el sistema de circunscripción de John McCarthy; la lógica temporal de McDermott; la lógica intuicionista de Clarke y Gabbay; la lógica epistémica de R. C. Moore; la teoría de los acoplamientos de P. R. Cohen, etc.

En un sistema de lógica no-monotónica las conclusiones lógicas de una teoría dada pueden quedar invalidadas al añadir nuevo conocimiento al sistema, i.e., las conclusiones están sujetas a remoción en virtud del aumento de premisas. Así, por ejemplo, cuando llega a materializarse una contradicción, la conclusión puede ser recompuesta; o bien se extrae una conclusión plausible a partir de la evidencia parcial en ausencia de evidencia de lo contrario. Las críticas a la formalización (al "logicismo") pierden, entonces, la referencia, y con ello, su sentido, puesto que una cosa es que haya dominios (asuntos) no reducibles al formalismo (lógica) del cálculo de predicados de primer orden clásico, y otra bien distinta, que tal dominio o asunto no tenga lógica alguna. Y como alternativa a la lógica clásica bivalente se han desarrollado otros varios sistemas de lógica que se han mostrado muy adecuados para el tratamiento del conocimiento ordinario (del sentido común). Entre ellos ocupan un lugar destacado los sistemas "difusos" o "borrosos", que tienen su origen en la teoría de los conjuntos difusos desarrollada por L. A. Zadeh (1965).

Mediante estos modelos de lógica difusa resulta posible tratar de manera sistemática la imprecisión inherente en los enunciados más usuales en los procesos del pensamiento y del razonamiento humanos. Y, puesto que el conocimiento-base de un sistema experto es un almacén de conocimiento humano, los sistemas difusos resultan más apropiados que los sistemas de conceptos rígidos para el almacenaje de esa porción de conocimiento vago e impreciso.

En segundo lugar, la lógica difusa constituye, además, un modelo de sistema inferencial, que permite extraer inferencias (llegar a respuestas) a partir de conocimiento (de cuestiones) difusas. En el caso de los sistemas expertos, la incertidumbre de información (o conocimiento) en la base acarrea incertidumbre en las conclusiones, y, por tanto, la mecánica inferencial ha de ser equipada con medios computacionales capaces de analizar la transmisión de incertidumbre de premisas a conclusión y asociar ésta con alguna medida de incertidumbre que sea entendible e interpretable adecuadamente por el usuario.

Los proyectos de sistemas expertos basados en modelos difusos crece, no ya por años, sino por meses. A ese rápido crecimiento están contribuyendo en gran medida los japoneses, dotando a sus productos competitivos de tecnología fuzzy. En el área de la Ingeniería del Conocimiento ha comenzado la construcción de computadores difusos, i.e., computadores que aceptan información (en forma lingüística) difusa, la organizan en la base del conocimiento y realizan razonamientos aproximados para obtener nueva información difusa en centésimas de segundo. En este tipo de computadores, llamados "de la sexta generación", están trabajando intensamente los japoneses, entre los que destaca Takeshi Yamakawa, en la actualidad ingeniero de Electrónica en la Universidad de Kumamoto, y pionero en la construcción de chips difusos y de sistemas hardware de lógica difusa.Los sistemas diseñados por Yamakawa aceptan información lingüística, y realizan inferencias de razonamiento aproximado con gran rapidez (más de 10 millones de inferencias lógicas difusas por segundo). Y sus circuitos eléctricos difusos han servido para la construcción de controladores de lógica difusa con aplicaciones biomédicas, ortodónticas, etc.

Bibliografía

BREWKA, G. (1992), Nonmonotonic Reasoning: Logical Foundations of Commonsense. Cambridge Univ. Press, Cambridge.

BUCHANAN, B. G. y SMITH, R. G. (1988), "Fundamentals of expert systems", en Ann. Rev. Comput. Science, 3, págs. 23-58.

FEIGENBAUM, E. (1977), "The art of artificial intelligence: themes and case studies of knowledge engineering", en Proceedings of the Fith International Joint Conference on Artificial Intelligence. MIT Press, Cambridge, Mass., págs. 1014-1029.

GUPTA, M. M. y YAMAKAWA, T. (eds.) (1988), Fuzzy Computing. Theory, Hardware, and Applications. North-Holland, Amsterdam.

HAYES-ROTH, F., WATERMAN, D. A. y LENAT, D. B. (1983), Building Expert Systems. Addison-Wesley, Reading, Mass.

HOROYD, P. et al. (1985), "Developing expert systems for management aplications", en Omega, 13, págs.1-11.

KASTNER, J. K. y HONG, S. J. (1984), "A review of expert systems", en European Journal of Operations Research, 18, págs. 285-292.

KONOPASEK, M. y JAYARAMAN, S. (1984), "Expert systems for personal computers", en Byte, págs. 137-154.

KURZWEIL, R. (ed.) (1990), The Age of Intelligent Machines. MIT Press, Cambridge, Mass.

STEFIK, M. et al. (1982), "The organization of expert systems", en Artificial Intelligence, 18, págs. 135-175.

YAGER, R. R. y ZADEH L. A. (eds.) (1992), An Introduction to Fuzzy Logic Applications in Intelligent Systems. Kluwer, Dordrecht.

ZIMMERMANN, H. J. (1987), Fuzzy Sets, Decision Making, and Expert Systems. Kluwer, Dordrecht.

[12.1.04] [0 comentarios] [#] [lista]


Visto y Leído,

Publicación: Blogger | Estadísticas: eXTReMe Tracking

Se recomienda ver este sitio con Mozilla 1+, Firefox 0.8+ ó Netscape 7+. Si no queda más remedio, con IE 6+. Si lo desea, comunique cualquier problema al respecto. También será bien recibida cualquier sugerencia sobre el contenido. La fuente de letra preferente es Georgia.