Página principal

Indice introducción


Descargar 99.02 Kb.
Fecha de conversión18.07.2016
Tamaño99.02 Kb.

Historia de la Inteligencia Artificial Cristina Planell Pérez – José Manuel Pérez Sevilla

INDICE
1. Introducción ............................................... 2

2. Prehistoris de la IA...................................... 3

2.1. Construcción de autómatas........................... 3

2.2. Automatización del razonamiento................. 6

2.3. Cibernética.................................................... 7

3. El nacimiento de la IA................................. 8

4. Periodo 1956 - 1969.................................... 10

5. Periodo 1970 - 1979.................................... 20

6. Alos 80 y principios de los 90...................... 23

7. Areas de Aplicación de la IA........................ 25


8. Estado del arte............................................ 25

9. Conclusiones............................................... 28

10. Bibliografía................................................. 29
1. INTRODUCCIÓN

Según dice Pamela McCorduck, probablemente la primera historiadora de la inteligencia artificial :


nuestra historia está llena de intentos –estúpidos, fastidiosos, cómicos, honestos, legendarios y reales – para obtener inteligencias artificiales, para reproducir aquello que nosotros somos en esencia”

[MacCorduck, 1979:3]


Muchos de estos intentos pertenecen más bien a los precedentes de la ciencia ficción que no a una disciplina científica y tecnológica como la inteligencia artificial. Hasta en textos de voluntad no especulativa se habla de “precedentes” como los autómatas mecánicos, los robots de Karel Capec y de otros.

Gran parte de la labor realizada en Informática ha sido pragmática, basada en el deseo de producir programas que realicen tareas útiles. Así se ha ido desarrollando una nueva forma de considerar la inteligencia y el conocimiento, de preguntarse sobre su naturaleza, su adquisición, almacenamiento, modificación y, especialmente, su utilización. Podríamos decir, pues, resumiendo, que la IA se ocupa tanto de la comprensión de los principios como de la producción de modelos informáticos del comportamiento inteligente.

Las posibilidades desde luego son asombrosas, pero no hay que dejar volar la imaginación más de lo necesario. Las "máquinas pensantes" puede que lleguen a existir alguna vez, pero no están a la vuelta de la esquina. La Inteligencia Artificial es una ciencia nueva que debe andar mucho camino todavía. De lo que podemos estar seguros es de que los primeros pasos están siendo prometedores.

2. PREHISTORIA DE LA INTELIGENCIA ARTIFICIAL

La prehistoria de la inteligencia artificial abarca desde los primeros tiempos de nuestra civilización hasta mediados del siglo XX. En este período se producen hechos que podemos agrupar en dos líneas:



  • una de ellas directamente relacionada con la construcción de autómatas que simulaban desde el punto de vista externo el comportamiento humano o animal, y que solían funcionar en ayuda de su amo

  • la otra línea, referente a la información y automatización del razonamiento lógico y matemático.


2.1 Construcción de autómatas

Es muy cierto que muchas veces la inteligencia se ha asociado a los aparatos mecánicos complejos, como es el caso de los autómatas. Y evidentemente, mucho antes de que surgieran la inteligencia artificial como una disciplina autónoma, hubo una gran cantidad de consideraciones casi filosóficas sobre la posibilidad de reproducir el ser humano mediante máquinas.

El nacimiento de la Inteligencia Artificial, y el concepto de máquinas inteligentes, debe ser buscado en la mitología griega. Los artefactos inteligentes aparecen en la literatura desde entonces.

La primera mención de los autómatas aparece en la Ilíada escrita en el siglo VIII a.C (canto XVIII), donde leemos que Vulcano fabricaba "veinte trípodes que debían permanecer arrimados a la pared del bien construido palacio y tenían ruedas de oro en los pies para que de propio impulso pudieran entrar donde los dioses se congregaban y volver a la casa" (V.368-384) y que era ayudado en su cojera por "dos estatuas de oro semejantes a vivientes jóvenes, pues tenían inteligencia, voz y fuerza" (V. 410-4234).

P
Golem
or su parte, la tradición judía creó el mito del "golem" (1580), figura humanoide hecha de arcilla a la que un rabino podía dar vida propia, convirtiéndola en un perfecto criado (que, en leyendas posteriores, llega a escapar del control de su amo). Hay que decir, sin embargo, que se requería la intervención divina para conseguir estos espectaculares resultados.

Al llegar el racionalista siglo XVIII, las cosas fueron diferentes. Descartes (1596-1650) había defendido la tesis del "animal-máquina": los seres vivos, salvo el hombre, son meros mecanismos. La Mettrie, en 1747, va más allá con su escandaloso "L' homme machine": también el hombre y su comportamiento inteligente son explicables en términos exclusivamente mecánicos.



C
PATO de Vaucanson (1738)


iertamente existían admirables mecanismos, por ejemplo, los de: el flautista (1737) que movía realmente los dedos para producir una melodía, o el pato (1738) capaz de nadar, batir alas, comer y expulsar excrementos simulados. No por casualidad Vaucanson fue, antes de Jacquard, el inventor del telar automático de tarjetas perforadas.

El español Torres Quevedo construyó dos versiones de lo que, sin duda, constituye su más llamativo invento: el jugador ajedrecista. Se trata de un autómata jugador de final de partidas de ajedrez: juega el rey y torre blancos (máquina) contra el rey negro (jugador humano). El resultado (victoria de las blancas) del juego está determinado algorítmicamente. Para simplificar el diseño, el autómata lograba siempre el jaque mate, si bien no por el camino más corto. El primer jugador fue construido en 1912 y expuesto en París en 1914, ocasionando gran sensación. Disponía de un brazo mecánico para mover las piezas, y de sensores eléctricos en el tablero para conocer su ubicación. El segundo jugador, de 1920, fue construido por su hijo Gonzalo, y en él el movimiento de las piezas se consigue mediante imanes dispuestos bajo el tablero. Ambos ingenios eran de naturaleza electromecánica, y se citan como precursores de la Inteligencia Artificial. Ciertamente, constituyeron el primer intento exitoso de construir un autómata que jugase realmente a un juego humano, lo que se venía intentando desde el siglo XVIII.



En 1929 se presentaba en Francia el "Philidog", que seguía el rayo luminoso de una linterna y ladraba si la intensidad luminosa era excesiva.


El escritor Karel Kapek difunde en los años 20 una palabra destinada a tener un gran éxito: "robot". En su obra “R.U.R."(Rossum's Universal Robots) aparecen unos seres creados para realizar las tareas que el hombre no quiere hacer, que acaban siendo más poderosos que el mismo hombre, llegando a poner en peligro su existencia. Sin embargo, hasta la llegada de los ordenadores electrónicos no dispusieron los científicos y técnicos de una herramienta que permitiera la ejecución de tareas más complejas por parte de dispositivos mecánicos, que hiciera posible, por así decir, la construcción de robots.
2.2 Automatización del razonamiento

La segunda de las líneas es la automatización del razonamiento, y por tanto, la obtención de una formalización.


Encontramos en primer lugar a Ramon Llull y su "Ars Magna", donde describe una gramática universal para cristianos, musulmanes y hebreos, es decir, “un método científico” de discusión. Esta ciencia universal consiste en que los místicos de las tres religiones del libro aceptan que Dios tiene unos atributos, que hay un cierto número de "nombres de Dios", Llull los describió y creó unas tablas que permitían que cada término pudiese combinarse con los demás, puesto que todos eran equivalentes y creó una gramática universal con una lógica binaria, combinatoria.
También encontramos a Leibniz que buscó un álgebra universal que permitiera deducir todas las verdades, y así "si surgieran controversias no habría necesidad de mayor disputa entre dos filósofos que entre dos contables, pues bastaría que, tomando en sus manos el lápiz, se sentaran frente a sus pizarras y se dijeran (con un amigo como testigo): calculemos", como antecesores de los sistemas formales y de la lógica que tan buen papel juegan en la moderna inteligencia artificial.
Los estudios matemáticos de Rusell y Hilbert de comienzos de siglo permitieron por primer a vez reducir el razonamiento (o un tipos de razonamiento) a la manipulación abstracta de cadenas de símbolos, idea de gran fecundidad en los mecanismos de la inferencia simbólica de la inteligencia artificial y también en los sistemas de representación del conocimiento.
Las teorías de la computabilidad y de los autómatas proporcionan el vínculo entre la formalización del razonamiento y las máquinas que estaban a punto de surgir tras la Segunda Guerra Mundial. En este ambiente, no es extraño que la aparición de las primeras máquinas electrónicas de cómputo fuera seguida inmediatamente por los intentos de aplicarlas a lo que hoy llamamos IA.
2.3 CIBERNÉRTICA

Un último elemento importante que citaremos en la prehistoria de la IA, es la cibernética. En los primeros años de la informática era habitual hablar de “cerebros electrónicos” y, de hecho, este era uno de los objetivos lejanos que resultaban más del gusto de los pioneros como Von Neumann.


Más solidez han tenido las ideas que provenían de la cibernética. La nueva visión, fruto de la inspiración de Norbert Wiener, quedó publicada a partir de 1948 en su famoso libro “Cibernetics” y, más adelante, el mismo Wiener analizó las relaciones de la cibernética con la sociedad.
Cibernética es un término que ya había sido utilizado en el año 1834 por el francés Ampère, pero fue redefinido por Wiener como “el campo de la teoría del control y la comunicación, tanto en las máquinas como en los animales”. En paralelo a la construcción de los primeros ordenadores electrónicos, la cibernética introdrujo nuevos conceptos como los de la retro-alimentación (feedback), el control y los sistemas auto-organizados.
La cibernética influyó en muchos campos debido a su naturaleza fundamentalmente interdisciplinar, ligando entre sí la fisiología neuronal, la teoría de la información de Shannon, la lógica matemática y la naciente tecnología informática. De esta forma, las ideas de los creadores de la cibernética llegaron a ser parte del espíritu del tiempo, e influyeron fuertemente en los primeros investigadores de la IA.

3. EL NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL

Ambiciosos y optimistas se mostraban los pioneros de la IA durante los primeros años de la era informática. Pero el fracaso de la mayoría de sus proyectos mostró que los problemas que intentaban resolver eran demasiados complicados, tanto teórica como tecnológicamente.

En Julio de 1945 Vannevar Bush publicó “As We May Think” una visión del futuro en donde los ordenadores asistían a los humanos en muchas actividades.

En 1950 Alan Turing presentó un artículo sobre el tema de la IA, titulado “Inteligencia y Funcionamiento de Máquinas”. En este trabajo propone un "Test de Turing" para determinar el carácter inteligente o no de una máquina. El test parte del juego donde un interrogador tiene que descubrir el sexo de dos participantes A y B situados en otra habitación, cuando, aunque los dos dicen ser mujeres, en verdad son un hombre y una mujer. En la propuesta original de Turing, se trataba de sustituir a la mujer por un ordenador, y que el interrogador descubriera quien era la máquina de los dos participantes, aunque los dos decían ser personas. Este objetivo había que cumplirlo incluso sabiendo que los participantes no estaban obligados a decir la verdad y que, por ejemplo, la máquina podía decidir dar un resultado erróneo en una multiplicación o decir el resultado lo suficientemente más tarde después de haberlo obtenido, para engañar al interlocutor sobre su propia habilidad calculista. En la hipótesis optimista del mismo Turing, más o menos alrededor del año 2000 se podría disponer de ordenadores suficientemente potentes para conseguir que un interrogador normal no tuviera más del 70% de posibilidades de realizar la identificación correcta a los cinco minutos del comienzo de las preguntas. Hay que decir que la predicción de Turing parece, ahora mismo, muy optimista.

Posteriormente, en 1955 fue creado un lenguaje de procesamiento (búsqueda heurística) por Allen Newell, J. C. Shaw y Herbert Simon que fue considerado como el primer lenguaje especializado de la Inteligencia Artificial, era el IPL-II (Information Proccessing Language-II).

En el verano del 1956 tuvo lugar la “Conferencia del Dalmouth” a Hanover (New Hampshire) sobre IA, organizada por John McCarthy (Stanford), Marvin Minsky (MIT), Allen Newel y Herbert Simon, con el patrocinio de la fundación Rockefeller, reunió a todos los que trabajaban en el recién estrenado campo de la Inteligencia Artificial. A la Dartmouth Conference, Newell y Simon ya disponían de un programa pro-IA, el “Logic Theorist” que reolvía problemas de búsqueda heurística, junto con los principios matemáticos de Whitehead y Rusell. Gracias a esta conferencia se crearon diferentes grupos de estudio de especialidades en diversas universidades como el Instituto Tecnológico de Masachussets, MIT (Minsky), Stanford (McCarthy) y Carnegie-Mellon (Newell y Simon).

Destaquemos también que a mediados de los años 50 John McCarthy y posteriormente el MIT, diseñaron el lenguaje LISP (List Processing).

De todas formas, la Conferencia del Dalmouth acuñaba la expresión "Inteligencia Artificial" y predecía que al cabo de 25 años los ordenadores harían todo el trabajo de los seres humanos, y en 1958 Newell y Simon aseguraban que en 1968 un ordenador sería campeón mundial de ajedrez y habría demostrado algún teorema importante de las matemáticas.



4. PERIODO 1956 - 1969

En este periodo la Inteligencia Artificial es una actividad académica poco conocida fuera de los círculos especializados. Durante estos años la Inteligencia Artificial se caracteriza por una ambición exagerada en los objetivos que se pretenden lograr, agravándose este hecho por las limitaciones reales del hardware y del software de la época. Esto abocaría en una gran decepción al final de este periodo, debido a la dificultad de obtener resultados y a la constatación teórica de la imposibilidad de obtenerlos en ciertos casos. Aun así en esta época se realizaron con éxito varios proyectos menos ambiciosos que supusieron un avance en el campo de la Inteligencia Artificial(LISP, SAINT, juego de damas, ELIZA, Student, etc.).

Los proyectos mas ambiciosos de esta época fueron el intento del General Problem Solver(GPS), el Perceptron, la Traducción Automática y la resolución generalizada de problemas matemáticos.


Logic Theorist. 1956. El Logic Teorist fue programado por Alan Newell, Herbert Simon y J.C. Shaw y buscaba las demostraciones de Teoremas Lógicos. Un teorema lógico tiene la siguiente forma: supuesto que o bien X o bien Y es verdadera, y supuesto que Y es de hecho falsa, entonces X es verdadera. El Logic Theorist encontró la demostración de 38 de los 52 teoremas presentes en el capitulo II de los "Principia Mathematica" de Bertrand Russell y Alfred North Whitehead. Sirvió como base para el GPS.
General Problem Solver(GPS). El Solucionador General de Problemas fue llevado a cabo por Alan Newell, Herbert Simon y J.C. Shaw. La filosofía de GPS era que las técnicas para solucionar un problema pueden separarse del conocimiento específico sobre el problema. Se trata de un programa que solo resuelve problemas en un microcosmos formalizado. El programa es capaz de resolver problemas como el de las Torres de Hanoi. Exactamente del tipo puzzle en los que descrito el objetivo y la posición final, y dado un listado de los medios disponibles, GPS puede realizar los ensayos necesarios hasta encontrar la manera de usar los medios para alcanzar el objetivo(análisis medios-fines). También utiliza la teoría de la retroalimentación de Wiener.
Perceptrón. Proyecto iniciado en el 1958 por Frank Rosenblatt. Su intención era ilustrar algunas propiedades fundamentales de los sistemas inteligentes en general, sin entrar en mayores detalles con respecto a condiciones específicas y desconocidas para organismos biológicos concretos. Rosenblatt creía que la conectividad existente en las redes biológicas tiene un elevado porcentaje de aleatoriedad y que la herramienta de análisis más apropiada era la teoría de probabilidades. El Perceptrón que desarrollo Rosenbatt imitaba el funcionamiento del ojo humano, el fotoperceptrón como se le llamó era un dispositivo que respondía a señales ópticas.

El Perceptrón era inicialmente un dispositivo de aprendizaje, en su configuración inicial no estaba en capacidad de distinguir patrones de entrada muy complejos, sin embargo mediante un proceso de aprendizaje era capaz de adquirir esta capacidad.

Mediante estas investigaciones se pudo demostrar que el Perceptrón era capaz de clasificar patrones correctamente, en lo que Rosenblatt denominaba un entorno diferenciado, en el cual cada clase estaba formada por patrones similares. El Perceptrón también era capaz de responder de manera congruente frente a patrones aleatorios, pero su precisión iba disminuyendo a medida que aumentaba el número de patrones que intentaba aprender.

En 1969 Marvin Minsky y Seymour Papert publicaron su libro: "Perceptrons: An introduction to Computational Geometry"[], el cual para muchos significó el final de las redes neuronales. En el se presentaba un análisis detallado del Perceptrón, en términos de sus capacidades y limitaciones, en especial en cuanto a las restricciones que existen para los problemas que una red tipo Perceptrón puede resolver; la mayor desventaja de este tipo de redes es su incapacidad para solucionar problemas que no sean linealmente separables.



A pesar de esta limitación, el Perceptrón es aún hoy una red de gran importancia, pues con base en su estructura se han desarrollado otros modelos de red neuronal como la red Adaline y las redes multicapa.
LISP(LISt Procesing). En 1958 John McCarthy anunció el desarrollo del lenguaje de programación LISP (LISt Procesing), este fue considerado desde aquel momento como lenguaje de programación de los investigadores de I.A. El LISP es un lenguaje declarativo funcional.
SAINT(Symbolic Automatic INTegrator). Programa desarrollado por J. Slagle en 1961. Con el que se inicia la automatización de la integración simbólica.
GTP(Geometry Theorem Prover) [Demostrador de Teoremas Geométricos]. Programa desarrollado por Herbert Gelernter y auspiciado por IBM para resolver problemas de geometría elemental. Se inicio en el 1958. Gelernter trabajó durante tres años, escribiendo y desarrollando las veinte mil introducciones que componían el GPS, pero además tuvo que diseñar un nuevo lenguaje de programación. GPS funcionaba de atrás hacia delante (backward), primero exponemos el teorema a demostrar y el programa empieza a construir cadenas de resultados intermedios que conducen al fin, a teoremas conocidos o a axiomas.

Programa para jugar a las damas. Programa creado por Arthur Samuel en 1962 y al igual que el proyecto GTP fue auspiciado por IBM. El programa era capaz de aprender por si solo. Aprendía de la experiencia teniendo en cuenta sus errores y éxitos pasados para determinar su juego en partidas posteriores. Alex Bernstein, consiguió también un resultado similar para el ajedrez. Tras hacerse eco la prensa de estos logros, se creo un escándalo entre los periodistas y accionistas de IBM en general al considerar que se estaba gastando el dinero de investigación en unos objetivos tan frívolos. Con lo que IBM no siguió aportando fondos para investigaciones en el campo de la IA.



"Arthur Samuel (standing), IBM investigator of machines that learn, watches a checker game between a human player and an electronic player- a large computer. The computer is about to win this game and type out: "Sorry, you lose."


Fracaso de la Traducción Automática, La CIA y otros organismos militares, tras ser conocedores de la utilización, por parte del ejercito británico, de ordenadores en la Segunda Guerra Mundial para descifrar códigos secretos enemigos; pensaron que la traducción automática no seria más difícil, así podrían leer casi en el acto cualquier publicación del mundo, escrita en cualquier idioma. Después de gastar veinte años de investigación y casi veinticinco millones de dólares en proyectos de este tipo la NRC (Consejo Nacional de Investigación, de EE.UU.) puso fin a este tipo de investigaciones en todo los Estados Unidos. Este hecho hizo que se paralizasen todas las investigaciones con inversión pública respecto a I.A., el ALPAC (Automated Language Processing Advisory Committee) [Comité de Seguimiento del Procesamiento Automático del Lenguaje] arrolló a todos los laboratorios en los que se realizaban proyectos sobre investigación lingüística, afortunadamente, los centros de investigación más importantes (MIT, Carnegie Mellon y Stanford) se salvaron por no tener entre manos ningún proyecto asociado a la rama de la Traducción Automática.

Se reconocen las dificultades: concepción errónea de los proyectos, mal conocimiento del lenguaje, técnicas informáticas inadecuadas, etc. Sin embargo, posteriormente comienzan a vislumbrarse importantes avances tanto en lingüística teórica como en ciencia informática.

Como anécdota señalamos el resultado que se obtuvo al traducir primero del ingles al ruso, y el resultado se tradujo de nuevo al ingles:

- Original en ingles: El espíritu es fuerte, pero la carne es débil.

- Resultado después de traducir al ruso y luego al ingles: El vodka es bueno,

pero el filete está podrido.


Micromundos de Bloques. El proyecto de los Micromundos fue ideado por Marvin Minsky y Seymour Paper en 1963. Tras desistir de sus intentos previos en visión artificial ante la dificultad que suponía realizar un proyecto de tal magnitud, en los que se intentaba conectar una cámara de televisión a un ordenador y hacer que la cámara describiera lo que veía. Minsky opto por llevarla a cabo en un plano más reducido, los Micromundos de Bloques.
Los micromundos no eran otra cosa que "representaciones" de laboratorio de la vida real, con un aditivo muy especial, el sujeto que interaccionaría con la realidad sería un ordenador con forma de robot o de simple programa. Se crearon programas capaces de tratar con objetos geométricos (SHRDLU), robots que manejaban cubos (Shakey) y diferentes programas que "entendían" el ingles para sacar de las frases una determinada información (SIR y STUDENT).
Finalmente en 1969 el proyecto de los Micromundos también fracaso, pues su "sencillez" no tenia visos de ampliarse y cambiar el prefijo "micro" por uno con un significado más extenso. ARPA (Advanced Research Proyect Agency) dejo de subvencionar el proyecto tras acabarse los plazos fijados y ver que no se había logrado ni un 25% de lo prometido.


STUDENT y SIR. 1964. Daniel Bobrow presentó como tesis doctoral a su profesor, Marvin Minsky, un programa llamado STUDENT, este era capaz de entender enunciados de problemas algebraicos escritos en inglés y responder a sus preguntas. Los problemas característicos que podía solucionar STUDENT son similares al siguiente: "El tío de Guillermo es dos veces más viejo que el padre de Guillermo. Dentro de dos años, el padre de Guillermo será tres veces más viejo que Guillermo .La suma de sus edades es 92. Averiguar la edad de Guillermo".

A su vez, Bertram Raphael diseña SIR (Semantic Information Retrieval) [Recuperación de información semántica], este programa comprendía oraciones sencillas en inglés que describían situaciones acerca de pertenencias y relaciones parecidas. Por ejemplo, una conversación con SIR podría ser (de hecho lo es) la siguiente:


Persona> Todo muchacho es una persona

SIR> Entiendo

Persona> Un dedo es una parte de la mano

SIR> Entiendo

Persona> Cada persona tiene dos manos

SIR> Esta oración es ambigua, reformúlela, por favor.

Persona> Hay dos manos en cada persona

SIR> Entiendo

Persona>¿Cuántos dedos tiene Juan?

SIR> Esta oración es ambigua.

Persona> Juan es un muchacho

SIR> Entiendo

Persona>¿Cuántos dedos tiene Juan?

SIR> Esta oración es ambigua, pero supongo que (TIENE) significa (TIENE COMO PARTES). ¿Cuántos dedos hay en cada mano?

Persona> Cada mano tiene cinco dedos

SIR> Entiendo

Persona> Cuántos dedos tiene Juan?

SIR> La respuesta es 10.

Estos dos programas, SIR y ESTUDENT funcionan mediante la "comparación de patrones", es decir, cuando el programa detecta que unas palabras clave están colocadas de una forma especial, toma la información necesaria de donde el patrón le aconseja.




ELIZA (o DOCTOR). Hacia 1965, Weizenbaum trabajaba en el MIT, intentando que los ordenadores hablaran en inglés con la gente. Pensó que los programas existentes como STUDENT se basaban en dominios limitados, y los dominios que describían esos programas estaban ligados a la propia estructura del programa. Y dado que Weizenbaum se dio cuenta de que no podría conseguir ese fin en tan poco tiempo, pensó en crear un programa con unas cuantas ideas que se le habían ocurrido. Una de esas ideas era que el conocimiento sobre los dominios se encontrase en módulos ajenos al propio programa, así cambiar de tema seria tan fácil como cambiar de módulo. Uno de esos módulos, y el más famoso, fue el que imitaba a un psicoanalista rogeriano (el psicoanalista Carl Rogers ponía en funcionamiento una terapia que consistía simplemente en animar a los pacientes a hablar de sus problemas, respondiendo a sus preguntas con otras preguntas). El programa en cuestión recibió el nombre de ELIZA (ahora todo un mito de la historia de la I.A.). Aunque a simple vista ELIZA parece estar hablando animadamente con la persona que le cuenta sus problemas, la verdad es muy diferente. ELIZA hace creer a su interlocutor que se está hablando con "un ser" que razona y entiendo, realmente todo ello se logra mediante trucos como repetir frases cambiando "yo" por "tu", o echar mano a una frase del principio cuando el "hilo" se acaba transformándola en pregunta. Otro truco utilizado por este programa es insertas frases como "ya veo" o "háblame más acerca de esto". Algo con lo que contaba a su favor ELIZA era que el planteamiento de las conversaciones seguirían siempre un patrón común de los psicoanálisis rogelianos ¿en que otra conversación no iba a resultar extraño escuchar frases como esta "háblame algo más acerca de los coches rojos con motas verdes que apartan cerca de tu casa"?. A continuación se muestra un ejemplo de una conversación con ELIZA:

PERSONA> Todos los hombres son iguales.

ELIZA>¿De que forma?

PERSONA> Siempre nos están fastidiando de una forma u otra.

ELIZA>¿Se te ocurre algún ejemplo específico?

PERSONA> Sí, mi novio me hizo venir aquí.

ELIZA> Tu novio te hizo venir aquí

PERSONA> Dice que me paso deprimida la mayor parte del tiempo.

ELIZA> Siento enterarme de que estas deprimida

PERSONA> Es verdad. No soy feliz.

ELIZA>¿Crees que venir aquí te ayudará a ser feliz?

PERSONA> Necesito alguna ayuda, eso sí es verdad.

ELIZA>¿Qué significa para ti obtener alguna ayuda?

PERSONA> Quizá pueda aprender a sobrellevar a mi madre.

ELIZA> Háblame algo más acerca de tu familia.

PERSONA> Mi madre se preocupa por mí.

ELIZA>¿Quién más se preocupa por ti en tu familia?

PERSONA> Mi padre

ELIZA> Tu padre

PERSONA> En algunas cosas te pareces a mi padre

ELIZA>¿Qué parecido ves?

PERSONA> No eres muy agresivo, pero creo que no quieres que yo me dé cuenta de eso.

ELIZA>¿Por qué piensas que yo no soy muy agresivo?

PERSONA> Tú no discutes conmigo.

ELIZA>¿Por que crees que yo no discuto contigo?

PERSONA> Me tienes miedo

ELIZA>¿Te gusta creer que te tengo miedo?

PERSONA> Mi padre tiene el miedo a todo el mundo.

ELIZA>¿Que más se te ocurre cuando piensas en tu padre?

PERSONA> En matones.

ELIZA> ¿Tiene eso que ver con el hecho de que tu novio te hizo venir aquí?
A más de una persona, le parecía que el programa seria capaz de superar el Test de Turing, pero realmente esto no es así, ya que la prueba de Turing debía de enfrentar a dos partes, una persona y un ordenador, ambas debían de comportarse de forma normal y habría que averiguar quien era la persona y quien el ordenador, este hecho quedaría al descubierto en cuanto ELIZA dijese (por ejemplo): "Cuéntame algo más acerca de tus gusto por las películas en versión original", en una conversación normal no se utilizan esas expresiones.


SHAKEY. 1969. Un equipo de investigación de Stanford tuvo la atrevida idea de poner ruedas a su robot, enseguida el ejercito (norteamericano) se mostró interesado por el proyecto, subvencionándolo por medio del ARPA (Avanced Research Proyects Agency), la idea de este era convertir al robot de Stanford en un espía mecánico, capaz de infiltrarse en las líneas enemigas para conseguir información. Pero la apariencia del robot no parecía capaz ni de cruzar la esquina: una caja cuadrada, con una cámara de televisión (de las del 69), un telémetro y una antena de radio. De todas formas el proyecto siguió adelante, y el robot fue bautizado como Shakey [Temblón]. El mundo de Shakey era un Micromundo de Bloques de tamaño natural, compuesto de siete habitaciones conectadas entre sí por ocho puertas, habiendo en las habitaciones cubos que Shakey podía manipular, apilando y transportándolos de un lado a otro. Todo ello siguiendo las instrucciones (en inglés) que le transmitían mediante un teclado. Finalmente el fracaso de los Micromundos afecto a este proyecto ya que ARPA dejo de subvencionarlo.


DENDRAL. El primer sistema experto. También en 1965 se inicia la investigación en la universidad de Stanford de sistemas expertos en el programa Heuristic Programming Project.

En 1965 Feigenbaum entra a formar parte del departamento de informática de Stanford. Allí conoció a Joshua Lederberg, el cual quería averiguar cual era la estructura de las moléculas orgánicas completas. Si se quiere estudiar un compuesto químico, lo primero que tenemos que hacer es averiguar su fórmula química. El método habitual de análisis consiste en dividir el problema en partes más pequeñas. El problema de Lederberg era que había demasiadas combinaciones. Cada fragmento podía corresponder a varias subestructuras, pero solo una estructura molecular global se ajustaba a todas las restricciones del problema. El descubrimiento de esa estructura global exigía buscar en un árbol las posibilidades. Fue por esta razón por la que pusieron al programa el nombre de DENDRAL, que significa en griego "árbol". Antes de DENDRAL los químicos solo tenían una forma de resolver el problema, y esta era tomar unas hipótesis relevantes como soluciones posibles, y someterlas a prueba comparándolas con los datos. La realización DENDRAL duró más de diez años (desde 1965).




Conclusión de este periodo:

Desde el principio de esta joven ciencia, la gran mayoría de los propósitos y objetivos eran anunciados con años de antelación como grandes éxitos, es más se llegaba a anunciar con un plazo de meses, conceptos, como la Visión Artificial, de una dificultad máxima, cuando aún no se había puesto la primera letra sobre el papel. Este hecho, el de subestimar la dificultad de los proyectos, ha hecho mucho mal a la Inteligencia Artificial desde sus comienzos, la razón no es otra que la "desacreditaron" a la cual ha tenido que ser sometida por los medios de comunicación y científicos rivales (rivales o no partidarios de la I.A.), hasta el punto de perder subvenciones millonarias por los excesos de optimismo.



5. PERIODO 1970 - 1979

Los problemas debidos al exceso de optimismo y ambición sufridos en el periodo anterior, llevaron a un replanteamiento de los objetivos a perseguir y se paso a tratar problemas mas concretos. Como hecho mas destacado es el nacimiento de los sistemas expertos y la recuperación que trajo dentro del campo de la Inteligencia Artificial, ya que supuso el regreso de las inversiones. Los sistemas expertos o sistemas de producción con reglas tratan problemas restringidos o un entorno limitado. Dos de los sistemas expertos mas populares son el MYCIN y el PROSPECTOR, de los que hablaremos a continuación.


En este periodo, también se inicia la institucionalización de la comunidad científica que trabaja en el campo de la Inteligencia Artificial con el Primer Congreso Internacional de Inteligencia Artificial. Poco después, en el año 1970, aparece el primer numero de la revista especializada Artificial Intelligence.

Otra de las diferencias con el periodo anterior es que la Inteligencia Artificial se extiende de los ámbitos académicos a los centros de investigación y a las universidades, donde las aplicaciones ya no son tan teóricas y además de tratar problemas matemáticos y demostraciones de teoremas se realizan aplicaciones mas experimentales, como los sistemas expertos y la programación lógica.


Dentro de la programación lógica se logra uno de los avances mas destacables con la aparición en 1972 del Lenguaje PROLOG.
1976. MYCIN. Desarrollado por Eduard Feigenbaum, Bruce Buchanan en la universidad de Stanford y documentado por Edward Shortliffe. MYCIN se trataba de un sistema experto para el diagnóstico de enfermedades infecciosas. Desde los resultados de análisis de sangre, cultivos bacterianos y demás datos, el programa era capaz de determinar, o en lo menos, sugerir el microorganismo que estaba causando la infección. Después de llegar a una conclusión, MYCIN prescribía una medicación que se adaptaba perfectamente a las características del sujeto, tales como el peso corporal de este. Después del reconocido éxito que tuvo MYCIN entre la comunidad científica de I.A. e investigadores de medicina, los autores del programa pusieron a disposición de otros investigadores una versión de MYCIN que contenía el motor "inferencial" de este para que fueran los propios usuarios los que insertasen al programa información respecto al tema a tratar; se podría decir que esta versión "adaptada" del original MYCIN, era el primer entorno de desarrollo de sistemas expertos.
PROSPECTOR. Documentado por P. E. Hart(1978) y R.Duda(1979). Era un sistema experto para evaluar los yacimientos de minerales, en particular cobre y Uranio.
PROLOG(PROgramimg LOGic). Desarrollado en 1972 por la Universidad de Marseille bajo la dirección de Alan Colmerauer. Prolog se basa en la definición y después en la resolución de formulas lógicas. Prolog al igual que LISP es un lenguaje declarativo, ya que el programa consiste en una lista de hechos y reglas en lugar de una serie de comandos.
XCON(eXpert CONfigurer) [Configurador Experto]. 1979. John McDermott. XCON es el primer sistema experto con aplicaciones en el mundo real fuera de los ámbitos académicos y de los laboratorios de investigación.

DEC iba a lanzar al mercado una nueva serie de ordenadores, los llamados VAX. Dado que todos los ordenadores tenían configuraciones distintas entre sí, la VAX estaba previendo el enorme cuello de botella que se iba a formar, cuando los ordenadores tuviesen fallos de configuración y hubiese que arreglar este problema uno por uno, con el consiguiente gasto de tiempo y dinero que eso suponía. Los directivos de la DEC contrataron a John McDertmott. Con el cometido de realizar un sistema experto que configurase todos los ordenadores que saliesen de la DEC. El informe de viabilidad de McDermontt expuso resultados prometedores, y en diciembre de 1978 se empezó a trabajar en el proyecto. En abril de 1979 el equipo de investigación que lo había diseñado (con McDermott a la cabeza), pensó que ya estaba preparado para salir y "conocer el mundo", fue entonces cuando se hizo una prueba real, esperando resolver positivamente un 95% de las configuraciones, este porcentaje tal alto anhelado por McDermontt y compañía se quedó en un 20% al ser contrastado con la realidad; XCON volvió al laboratorio, donde fue revisado y a finales de ese mismo año (1979) funcionó con resultados positivos en la DEC. En 1980 XCON se instauró totalmente en DEC. Y en 1984, el XCOM había crecido hasta multiplicarse por diez. En 1986 la compañía había invertido más de cincuenta años/hombre en el programa, pero se estaba recuperando con creces de su inversión al ahorrarse cuarenta millones de dólares al año.


Conclusión de este periodo

Como conclusión a este periodo hay que destacar la revolución que se inicio con los sistemas expertos. El éxito de XCON, MYCIN y PROSPECTOR convenció a las más importantes empresas a invertir en sistemas expertos. Incluso para los más conservadores y los radicales Anti-I.A., algo se hacia evidente, mientras que los costes de desarrollo de los sistemas expertos se hacían cada vez más bajos, el salario de los expertos humanos se hacia más alto. La formación de un futuro experto costaba mucho dinero y años de esfuerzo, mientras que una vez creado un sistema experto podía ser copiado y distribuido tantas veces como necesario fuese. Además, el sistema experto nunca se cansa, no necesita dormir, no se distrae, no se va a la competencia, ni se pone enfermo, ni se jubila, ni pide aumento de sueldo...


6. AÑOS OCHENTA Y PRINCIPIOS DE LOS 90

Este periodo viene marcado por el éxito de los sistemas expertos y durante los años ochenta aparecen empresas y proyectos especializados en ofrecer soluciones comercializables basados en las técnicas de la IA. La IA se consolidó en cada vez más empresas que desarrollaron las "máquinas lisp" ( ordenadores que ejecutaban programas en LISP con la misma rapidez de un ordenador central ) y los SHELLS ( herramientas de desarrollo de sistemas expertos). Ejemplos de sistemas expertos que se comercializaron en esta época son el DELTA, de la General Electric Company, que ayudaba a los mecánicos en la reparación y en el diagnostico de locomotoras diesel; el Aldo en Disco para la reparación de calderas hidroestáticas giratorias usadas para la eliminación de bacterias y el EURISKO capaz de perfeccionar su propio cuerpo de leyes heurísticas por inducción.


Cada vez más el mantener la base de datos de reglas de los sistemas expertos actualizada era mas costoso. El XCON llego a tener 10.000 reglas con lo que Dec tenia que gastar anualmente 2 millones de dólares en el mantenimiento de la Base de Conocimientos. Actualmente este mantenimiento supone una de las actividades más importantes de la IA.
El Ministerio de Industria y Comercio Internacional de Japón impulsa desde 1979 un proyecto(Quinta generación de ordenadores) conjunto de varias empresas que pretendía desarrollar una nueva generación de ordenadores adaptados a las necesidades que se preveían para la década de los 90 y que basarían su funcionamiento en técnicas de la Inteligencia Artificial.
Finalmente el proyecto finalizo en 1992, pero aunque se obtuvieron ciertos avances en procesamiento paralelo, procesamiento del lenguaje natural, programación lógica y en el tratamiento de la información, no supuso ninguna revolución ni ningún gran cambio ni ventaja tecnológica. Seguidamente Japón se lanzo a otro nuevo proyecto Real World Computing (RWC) Project, cuyas vías de investigación, son las redes neuronales, los computadores ópticos y la facilidad de uso de los ordenadores.
Por aquel entonces, el proyecto japonés sirvió para estimular la inversión en Inteligencia Artificial de otros países. Sobretodo a raiz de la publicación del libro The Fifth Generation de Feigenbaum y McCorduck en 1983 que advertía del “peligro” de una superioridad del Japón en el futuro de la informática a través del dominio de las técnicas de la IA.
En 1980 se crea el sistema experto matemático MAPLE. Mas tarde en 1988 se crea otro sistema experto matemático importante el Mathematica. Ambos sistemas permiten trabajar directamente, es decir sin tediosas programaciones, con expresiones simbólicas como polinomios, derivadas, integrales indefinidas, matrices, tensores, grupos, funciones especiales, y métodos altamente sofisticados.
En 1982 se fundo el ECCAI(European Coordinating Committee for Artificial Intelligence).
En 1985 la Nasa desarrolla CLIPS, es un generador de sistemas expertos que está codificado en lenguaje C, y que implementa un lenguaje propio para desarrollar sistemas expertos. Como principal característica se puede citar que cuenta con tres paradigmas de programación: orientado a reglas, procedural y orientado a objetos. También en este mismo año se programa un juego de Ajedrez HiTech que alcanza el nivel de un Gran Maestro.
A partir de 1986 se recuperan los viejos esquemas del Perceptron en la Redes Neuronales.
1987 supuso el fin de las “maquinas LISP”, debido a la aparición de los microordenadores de Apple e IBM con potencia parecida a las maquinas LISP, y la programación en C del software utilizado en IA para los nuevos microordenadores.
En 1989 se constituye el Centro de Inteligencia Artificial (CIA), en España, más tarde, se formaría la Asociación Española Para la Inteligencia Artificial (AEPIA).



7. Areas de Aplicación de la IA

Lenguaje Natural

Habla

Ingeniería del conocimiento



Robótica

Visión artificial

Reconocimiento de formas

Sistemas expertos

Aprendizaje

Razonamiento de sentido común

Juegos

Matemáticas



8. Estado del Arte

Uno de los hechos más populares que cualquiera conoce sobre la Inteligencia Artificial es la victoria de Deep Blue sobre Kasparov en 1997. Pero recientemente en la industria japonesa han aparecido diversos Robots que han servido para ejemplificar el estado actual de la IA. Primero fue Honda con ASIMO, un robot con forma humanoide capaz de andar y subir escalras. SONY ha comercializado con éxito una serie de robots-perro, el AIBO Artificial Intelligence RoBOt (Robot de Inteligencia Artificial).


Al robot se le han programado emociones e instintos. Actúa de modo que intentara satisfacer sus deseos originados en sus instintos. Si se los satisface, aumentarán sus niveles de alegría, en caso contrario, se pondrá triste o furioso. Como todo ser viviente, Aibo aprenderá a lograr lo que "desea". En ocasiones, moverá sus patas con furia o mostrará otras señales de bronca si no recibe de su amo la atención que requiere. De este modo, la manera en que el amo responde a las expresiones de emotividad de Aibo influirá en su personalidad y "crecimiento". El robot, tiene reconocimiento de voz, hasta 40 voces y puede recordar el nombre que se le dé y responder. Es capaz de expresar emociones.





CPU

64-bit RISC processor. Clock speed 384 MHz

Components

Body, Head, Tail, Leg x 4, "Removable"

Program Storage Medium

Memory Stick for AIBO

Movable Parts

Mouth: 1 degree of freedom
Head: 3 degrees of freedom
Legs: 3 degrees of freedom x 4 legs
Ears: 1 degree of freedom x 2 ears
Tail: 2 degrees of freedom
Total: 20 degrees of freedom

Input/Output

PC Card slot Type2 In/Out
Memory Stick slot In/Out
AC IN Power Supply connector Input

Image Input

CMOS Image sensor

Audio Input

Miniature Microphones

Audio Output

Miniature Speaker

LCD Display

Time, Volume, Battery condition

Built-in Sensors

Temperature Sensor
Infrared Distance Sensor
Acceleration Sensor
Pressure Sensors (Head, the Back, Chin & Legs)
Vibration Sensor

Built-in Clock

Date & Time

Power Consumption

Approx. 9W (tentative) Standard operation in autonomous mode

Operating Time

Approx. 1.5Hours (tentative) Standard operation in autonomous mode

Charging Time

Approx. 2 hours ( with a supplied AC Power Adaptor and the "Lithium Ion Battery pack" ERA-201B1)

Dimensions(W/H/D)
(not including ears and tail)

Approx. 152 x 281 x 250 mm (Approx. 5.98 x 11.06 x 9.84 inches)

Weights(including a battery and a memory stick)

Approx. 1.5kg (Approx.3.3lb)

Color

Gold/Silver/Black

Supplied Accessories

AC Adapter, Lithium Ion Battery Pack ERA-201B1(1), Ball, Documentation, etc

Operating Temperature

41 F to 95 F (5C to 35C)

Operating Humidity

10% to 80%

Que otras aplicaciones y logros hay de la Inteligencia Artificial que directa o indirectamente nos afectan:


  • Programas de reconocimiento de voz para reservar billetes de avión para un vuelo.

  • Sistemas expertos que controlan el correcto funcionamiento de un transbordador espacial.

  • Sistemas expertos de diagnostico de enfermedades.

  • Protección de fraudes en tarjetas de crédito y cuentas a través de sistemas de redes neuronales o sistemas expertos.

  • Detección de pequeñas anomalías invisibles al ojo humano en radiografias.

  • Sistemas de mensajería de voz.

  • En el mundo de los videojuegos. Rivales con comportamiento logico.

  • Traducción automática de documentos. (GOOGLE)



9. Conclusiones

¿Qué consideramos como inteligente?

¿Es posible conseguir un ordenador que sea inteligente?

10. Bibliografía



Historia de la Inteligencia Artificial, http://members.fortunecity.com/jon_alava/

Inteligencia Artificial: Éxitos, fracasos y filosofía,

http://web1.cti.unav.es/asignaturas/ia/programa97.html.



Notas sobre un Curso de Redes Neuronales, http://148.231.177.35/Ascencio/rn/
Laboratorio de Inteligencia Artificial del MIT, http://www.ai.mit.edu/

Red Científica, http://www.redcientifica.com/
La traducción por ordenador,

http://sirio.deusto.es/abaitua/konzeptu/ta1.htm



Apuntes de la Asignatura de Historia de la Informática.
Apuntes de la Asignatura ISEPI
Kit de desarrollo de software OPEN-R, es una herramienta de desarrollo de software que permite a los programadores expandir la funcionalidad de los robots AIBO, que se exhibe mediante entrada en los sensores y el movimiento de las coyunturas. http://www.aibo.com/openr/
Dr. Abuse, programa al estilo de ELIZA. descarga gratuita:

http://members.fortunecity.com/jon_alava/descarga/programas/DrAbuse610R.exe


Para que Eliza te psicoanalice: http://chayden.net/eliza/Eliza.shtml







La base de datos está protegida por derechos de autor ©espanito.com 2016
enviar mensaje