Tuesday, December 18, 2007

Programa de conducta

El intérprete toma una decisión preliminar (objetivo). En el interprete se forma una idea incompleta de la acción a llevar a cabo (objetivo difuso). El intérprete propone un posible camino. Una vez que el intérprete le pasa la señal al razonador (receptor) este seguirá funcionando en paralelo captando e interpretando nuevas señales.

El intérprete y el razonador acceden a la misma zona de memoria con fines diferentes. El primero captando la información (interpretando el problema) el segundo tratando de resolverlo. La memoria actúa de forma dinámica y es capaz de activarse de forma tal que sus zonas estén a la disposición de ambos, aunque el sentido de cada uno sea diferente.

Puede suceder un desvió de objetivo, desde lo que predefinió el interprete, pasando por el reactor (primer desvío) hasta llegar al efector que puede cambiar el objetivo, llevar a cabo otra acción diferente a la prevista por el interprete y a la propuesta por el reactor. Ej.: en lugar de hablar con el jefe hablar con otro trabajador para que este sea el que se lo diga.

El "no poder". Si se decide a no actuar a nivel del efector es que la señal enviada por el reactor no se corresponde con la realidad (no es posible llevar a cabo ese plan por existir obstáculos no previstos por el razonador (reactor). El efector es quien se tiene que enfrentar a la realidad. El efector compara la realidad (posibilidad) con sus patrones de conducta (experiencia anterior en la ejecución).

Experiencia manual (ejecución), intelectual (razonamiento) y emocional (sentimientos).

Se forma la estructura del conocimientos forma de FRAME, si tuvo solución a este nivel, se incluyen los nuevos conocimientos; sino, se pasa a la siguiente fase.

Si el conocimiento no estaba disponible para el intérprete, la estructura queda hueca y se aplica el procedimiento de la creatividad para llenarla. En el reactivo es donde se aplica la emotividad y la combinación de los conocimientos con la emotividad, con la energía producida por la necesidad es lo que logra la creatividad. Se reacciona, creando solución general a problemas generales.

La creación es un generador de estructura de conocimientos de carácter general o particular ante motivaciones internas o externas de carácter general.

El proceso creativo implica una fase anterior de "rastreo general", algo así como trazar un camino que sirva de orientación (intuición) el cual deja una huella a seguir.

Las imágenes representan acciones. Graban una respuesta dada, modelo físico, en forma de representación grafica (iconos) de actos (actuante de la realidad).

Para poder medir la posibilidad de una acción se requiere de una representación grafica lo mas exacta posible (modelo del mundo) para simula la actuación del ser en ese universo.

Una acción no esta compuesta de solo meros planes, sino de una conducta que se va adquiriendo y conformando la personalidad, el carácter y el temperamento del individuo.

Reacciones: reflexivas, activas y emotivas.

Niveles de conducta: acciones condicionadas (hábitos), acciones incondicionadas (acciones).

Conducta: Una acción no solo es un plan, sino una serie de reglas que se van adquiriendo y conformando su carácter a través de su personalidad.

Las acciones habituales dejan de ser reflexivas para convertirse en hábitos (no requieren del pensamiento) su reacción es controlada por un proceso inferior del pensamiento.

Existen actos controlados por un mecanismo del pensamiento no reflexivo (subconsciente). No existirán también pensamientos reflexivos y emociones de bajo nivel (hábitos)?

Hábitos: activos, reflexivos y emotivo

Nivel de conducta:

Acciones condicionadas (hábitos)

Acciones incondicionadas (acciones)

Reacción externa: emotiva, activa, reflexiva.

Reacción interna ante una sensación: reflexiva, activa y emotiva.

Acción interna ‑ reacción interna

Acción interna ‑ reacción externa

Acción externa ‑ reacción interna

Acción externa ‑ reacción externa

Razón: aprendizaje, manipulación de símbolos, representación del conocimiento, justificaciones.

Emoción: carga emotiva, redes semánticas, contexto (estados: ira, miedo, etc.).

Conducta: simulación de l realidad, patrones de conducta, nivel de actuación(o no actuación): desplazamientos, auto castigo, justificaciones.

Las diferentes motivaciones que le llegan al ser del mundo exterior es lo que lo hace constantemente desviarse de su objetivo y trazarse otros subjetivos los cuales crean otras otras retroacciones orientadoras. Las retroacciones actúan como motivaciones internas.

Thursday, December 21, 2006

La Cibernética y el nacimiento de la Inteligencia Artificial

En nuestros dias la Cibernética no debe verse ni como una ciencia, ni como una disciplina; sino como un movimiento de ideas, que trató de romper con la estrechez de conocimientos propios de cada disciplina. El movimiento cibernético permitió que científicos de ramas muy diferentes se agruparan en colectivos de investigación y por primera vez, matemáticos, fisiólogos y especialistas en electrónica se integraran en equipos multidisciplinarios. Su creador Norbert Wiener después de estar años trabajando en las teorías matemáticas y de agregar alguna fórmulas más al gran aparato matemático, comenzó a trabajar en cuestiones técnicas como el control de los disparos de la artillería antiaérea y la transmisión más eficiente de mensajes codificados a través de sistemas de comunicaciones. Escribió un libro sobre cibernética y el control en los animales y las máquinas que se convirtió en un éxito. Las condiciones estaban dadas para una nueva revolución dentro de la ciencia.

La cibernética se basa en el estudio de las máquinas (objetos artificiales) y su aplicación, lo que promovió una nueva revolución científica sobre la base de la interrelación de los humanos con las máquinas a un ritmo tecnológico de crecimiento jamás visto y de carácter impredecible. Este ritmo ya se hace sentir y podemos afirmar, por ejemplo, que un hombre del siglo XVI pudiese muy bien, haber vivido sin mucho sobresalto en el siglo XVII en cambio uno del siglo XIX tendría grandes problemas para adaptarse al XX y todo indica que esta aceleración seguirá aumentando, lo cual hará que una persona en su vejez tenga que vivir en un mundo totalmente diferente al de su infancia.

Con la cibernética el concepto de máquina ha ido cambiando a lo largo de los años. Luego de aquellas primeras máquinas mecánicas donde se pretendía reemplazar completa o parcialmente el trabajo físico del hombre y de los animales, han seguido otras, cuyo fin, es la mecanización del trabajo intelectual. Hoy las máquinas realizan funciones que antes se consideraban propias del intelecto humano. Pero quizás el aporte más importante de la cibernética fue fundamentarse sobre las analogías, de ahí su característica de ciencia exógena, la cual está dada por la interrelación con otras ramas del conocimiento y su asimilación interna, pero sobre todo por la propuesta de teorías generales que expliquen fenómenos propios de las otras ciencias. Por ejemplo, la cibernética ha preferido basarse en la teoría de los modelos, que hace más hincapié en la representación funcional de los organismos que en su estructura en el sentido vertical o jerárquico . Esto, unido a la búsqueda de analogías entre los fenómenos y no a la reducción de uno en otro la llevó a convertirse en una ideología científica para la comprensión del mundo.




Otro de los aportes de la cibernética, es la utilización del aparato matemático, que hasta ese momento era de uso casi exclusivo de la física y como la cibernética a su vez era una disciplina común a varios sectores de investigación, trajo como consecuencia que ramas como la psicología, la sociología y la biología, pudieran de alguna manera formalizar sus teorías, y aún fue más lejos, ya que les proporcionó métodos de experimentación mediante la creación de máquinas que permitieran estudiar conductas, reacciones, reflejos, aprendizaje, etc.

Cuando los cibernéticos intentaban modelar la estructura de un objeto, más que la estructura lo que tenían en cuenta era la reproducción de su funcionamiento sobre otra estructura y se aspiraba a que ese modelo u objeto artificial exhibiera una conducta similar a la del original. Digo similar porque en realidad la conducta mostrada por los modelos siempre ha estado supeditada a la interpretación del investigador. Estos intentos de modelación llevaron a los científicos a la construcción de máquinas con conducta como las tortugas de Grey Walter y los zorros de Albert Ducrocq, que no eran más que pequeñas máquinas dotadas de movimiento y que se orientaban por la luz, otras se orientaban por el sonido o poseían alguna forma de radar. Pero lo más interesante era la interpretación que se le daba al comportamiento de estos ciberanimalitos. Para Grey Walter las tortugas podían pasar de un comportamiento flemático a otro irascible. Para Ducrocq, sus zorros eran capaces de manifestar sentimientos de afecto entre si. Sé que esto a los racionalistas les puede parecer infantil, pero ¿no es interesante por no decir válido que el ser humano siga recurriendo a su fantasía para interpretar los fenómenos y que mantenga viva, en estos tiempos de determinismo científico, su capacidad de "sorprenderse"?.



Hoy nadie habla de las experiencias emocionales con tortugas, zorros, ratones... Las ideas eran demasiado simples: cualquier aparato podía mostrar alguna forma de conducta humana. Ese era el gran sueño de los cibernéticos: reproducir la vida en todas sus manifestaciones y no sólo la inteligencia, como pretende en estos tiempos la Inteligencia Artificial. Y es que la Cibernética no basó su investigación sobre la base de que la máquina sustituiría al hombre, ya que siempre vio a ambos como sistemas con analogías funcionales, que a la vez que tenían grandes diferencias por ser organismos con estructura y organización propias poseian a su vez, muchas similitudes; De ahi que los ciberneticos le dieran, siempre, mayor importancia a la influencia de la estructura sobre la mente, pero ambos vistos como un sistema capaz de funcionar como un todo.

Vivimos en un mundo de crisis tanto social como espiritual, y el hombre desesperado vuelve sus ojos a la ciencia y espera de ella la solución a los grandes problemas que lo agobian y ve en la ideologia cibernética un nuevo enfoque. Veamos algunos de los problemas que se están retomando: El sistema educativo, la salud (las prótesis), la muerte, la creatividad, la producción de bienes de consumo, el desarrollo, la comprensión de la mente humana, la felicidad, la evolución (convergencia hombres y máquinas), nuevas formas de organización social (posthumanidad), mejoramiento humano (conexión hombre máquinas)





Es por eso que la Cibernética al pasar de los años se ha ido transformando en una de las ideologías de la ciencias más influyentes, y al igual que la Física y la Biología, engendra grandes promesas y para muchos se convierte en la nueva salvadora del mundo, gracias a que ha aportado una de las metáforas más ricas y poderosas: la llamada metáfora computacional o cibernética, que ofrece una nueva óptica de la sociedad y abre las puertas hacia una nueva era post-industrial. Hoy en día son muchos los que piensan que la máquina sustituirá al hombre, o los que creen que la mente humana se puede simular a través de una computadora, o los que sueñan con crear una vida artificial.


Nacimiento de la Inteligencia Artificial:

La Inteligencia Artificial (IA) nace en un congreso celebrado en 1956, cuando un grupo de científicos reunidos en el Colegio de Dartmouth, convocados por el investigador John McCarthy del Instituto Tecnológico de Massachusetts (MIT), discutieron acerca del potencial de la computadora para simular la inteligencia humana y sentaron las bases de trabajo para las investigaciones en la IA. En ella participaron cuatro de los que mas tarde influirían grandemente en el desarrollo de la IA, McCarthy, Marvin Minsky, Allen Newell y Herbert Simon.

La IA surge como una reacción ante la Cibernética. Los pioneros del nuevo enfoque investigativo, se proponen la creación de una ciencia en si misma, sustentada sobre sus propias leyes, y se plantearon como objetivo principal el desarrollo de programas por computadoras capaces de exhibir una conducta inteligente. Muchos investigadores estaban convencidos de que los complicados procesos que componen la inteligencia serian desentrañados, que podrían elaborarse modelos matemáticos que los representaran y las computadoras podrían emular dichos procesos eficazmente.

La IA continuó con los intentos cibernéticos de formalizar sus teorías y con la creación de un aparato matemático propio. A nivel experimental se propuso la utilización de las computadoras como laboratorio donde poder comprobar la eficacia de sus hipótesis. Pero en su afán de convertirse en una ciencia endógena, no dependiente de leyes externas, abandonó la analogía como método de investigación y tuvo inexorablemente que recurrir al reduccionismo que en su versión fuerte fue el intento de reproducir la mente humana en una computadora.

Monday, November 06, 2006

Las profecias de Ray Kurzweil



Ray Kurzweil, quien con su libro: “La era de las máquinas espirituales” ha conmocionado al mundo científico con sus profecías. Ha diferencia de los otros que eran científicos teóricos o experimentales (quiero decir que no desarrollan aplicaciones prácticas o comerciales) y en muchos casos escritores de ciencia ficción. Kurzweil es un científico eminentemente práctico y ha sido el creador de algunos ingenios como el Reconocimiento Óptico de Caracteres (OCR; el actual programa “TextBridge” de Xerox está basado en su patente), dispositivos para interfaces informáticas dirigidas a ciegos y sordos, así como programas de composición musical como el Kurzweil250. Además de haber recibido ocho doctorados honoris causa, el puesto de asesor de dos presidentes y el galardón al Mejor Inventor del Año (Best Inventor Award, 1988).


El reduccionismo siempre estará en la mente de todo científico, de ahí toma la idea de la ingeniería inversa y su aplicación a los procesos de la mente. Y dice: Un ordenador es más rápido que el cerebro humano en algunas cosas, pero lo difícil es que tenga la riqueza, sutileza y profundidad de nuestro pensamiento y afirma que para lograrlo será clave el software de la inteligencia, basado en la ingeniería inversa, que copia el funcionamiento del cerebro humano, ya que nuestros circuitos cerebrales son tridimensionales y se basan en unas complejísimas conexiones. Asume que escaneando el cerebro podremos crear una réplica, y usando circuitos artificiales tridimensionales de nanotubos (tubos microscópicos) podremos imitar su funcionamiento y crear una inteligencia artificial avanzada. El profesor norteamericano Andreas Nowatzyk ya trabaja en un proyecto para copiar el cerebro de un ratón. Es un primer paso para lo que vendrá luego.

También es quien más resalta las posibilidades de la tecnología y repite junto a Vingen que no hay limites al desarrollo tecnológico. La tecnología supone una ruptura con la lenta evolución biológica y la entrada en un proceso más rápido. Muchos científicos tienen una perspectiva lineal y ven el futuro como un calco retocado del pasado. Eso es un error. Estamos en una fase de crecimiento exponencial en la que confluyen la informática, la biotecnología, la física cuántica, la nanotecnología... Este siglo será equivalente a 20.000 años de desarrollo lineal.

Kurzweil considera que no se debe catalogar el desarrollo de las computadoras con el estado actual de la PC y afirma: en la tecnología informática la situación dista mucho de ser estática. Es cierto, hoy están haciendo su aparición ordenadores con una capacidad que hace veinte o treinta años se consideraba imposible y no se puede olvidar que en 1997, un ordenador superó a Kasparov, al menos en ajedrez. Se hicieron entonces muchos comentarios sobre que existían comportamientos humanos mucho más difíciles de imitar que el luego del ajedrez. Es verdad. En muchos campos -por ejemplo, el de escribir un libro sobre ordenadores-, la capacidad de los ordenadores es aún ínfima. Pero como los ordenadores continúen adquiriendo capacidad a una velocidad de tasa exponencial, nos ocurrirá en esos otros campos lo mismo que a Kasparov con el ajedrez.

Al igual que Minsky esta inconforme con su cerebro y considera que las neuronas, aunque son creaciones maravillosas, ellos no las habrían construido tal como son, pues gran parte de su complejidad se dedica a mantener sus propios procesos vitales, no su capacidad para manejar información. Y coincide, con los otros transhumanistas, en que las neuronas son extremadamente lentas; los circuitos electrónicos son por lo menos un millón de veces más rápidos.

También se muestra inconforme con su cuerpo a lo que dice: La inteligencia es la capacidad de resolver problemas con la ayuda de recursos limitados, incluido el tiempo. Los problemas que debemos resolver suelen estar relacionados con nuestro cuerpo: protegerlo, alimentarlo, vestirlo, satisfacer sus necesidades y deseos. Dedicamos gran parte de nuestro pensamiento a nuestro cuerpo: una inteligencia humana carente de cuerpo se deprimiría enseguida.

A lo que agrega: Gracias a la nanotecnología, podremos colocar minúsculos robots en el cerebro para mejorar su capacidad. Construiremos entidades no biológicas con copias del cerebro humano y tendremos personas con miles de robots microscópicos en el cerebro, lo que aumentará su habilidad para pensar y para vivir en una realidad virtual. Y aspira en que el 2030 se puedan enviar al cerebro humano billones de nanobots que permitirán comunicar sin cables con decenas de millones de puntos distintos del cerebro. De este modo podremos combinar nuestra inteligencia biológica con la no biológica. Acabaremos viendo entes totalmente no biológicos, con copias de cerebros humanos derivadas de la ingeniería inversa y seres humanos biológicos cuya inteligencia habrá sido mejorada gracias a los billones de nanobots que tendrán en el cerebro y que también podrán existir en la realidad virtual. Llegados a ese punto, ya no podremos distinguir entre humanos y máquinas.

Kurzweil que es el mas tecnologo de todos, pone gran énfasis en la nanotecnologia y a diferencia de Minsky que no la cree viable hasta dentro de 100 años, él considera en llegara en el 2020. Considera que la aplicación clave de la nanotecnología, dentro de 20 años, serán los nanorobots o nanobots. Dentro de nuestros cuerpos y cerebros, los nanobots nos permitirán alargar la vida destruyendo las células patógenas y de cáncer, reparando los errores del ADN, destruyendo toxinas y desechos, y revirtiendo el proceso de envejecimiento. Los nanobots son robots basados en la informática lo suficientemente pequeños para viajar por nuestro sistema circulatorio.

También aspira a que la nanotecnologia nos lleve mas allá de los limites de la biología para mejorar nuestras capacidades físicas y mentales por factores de muchos miles e incluso millones y que finalmente reemplazaremos nuestros frágiles cuerpos “versión 1.0” por una versión 2.0 tremendamente mejorada.

Entre sus numerosas importantes predicciones se encuentran escáner el cerebro para luego instalarlo en otro medio no biológico, así como lograr la inmersión total virtual. Y cree que los entornos de realidad virtual integrarán todos los sentidos y a la vez serán capaces de mejorar la inteligencia; se podrá pensar más rápido, tener pensamientos más complejos y telecargar el conocimiento, y sueña con que estos entornos de realidad virtual entre el 2030 y el 2040 compitan con los entornos reales y, según él, los entes no biológicos podrán tener cuerpos parecidos a los humanos y además, gracias a la nanotecnologia, también podrán tenerlos en la realidad

Y considera al igual que los transhumanistas (de los cuales hablaremos después). que la humanidad no es el fin de la evolución sino el principio. A lo que dice:

“Se ha visto la evolución como un drama de mil millones de años que condujo inexorablemente a su creación más grandiosa: la inteligencia humana. El surgimiento, a principios del siglo XXI, de una nueva forma de inteligencia en la Tierra que compita con la inteligencia humana y finalmente la supere significativamente, será un acontecimiento más importante que cualquiera de los que han dado forma a la historia humana. No será menos importante que la creación de la inteligencia que la creó, y tendrá profundas implicaciones en todos los aspectos del que hacer humano, incluso en la naturaleza del trabajo, el aprendizaje humano, el gobierno, la guerra, las artes y el concepto de nosotros mismos... Lo que estamos discutiendo constituye en mi opinión la próxima etapa de la evolución a través de la fusión entre la humanidad y la tecnología”.

Ahora veamos en que consisten sus profecías:

2009
Un ordenador doméstico realiza un billón de cálculos por segundo. Prácticamente, no se utilizan cables, pese a que siguen existiendo teclados. El aspecto de los PC de alta resolución ha variado. Ahora se encuentran en todas partes, pueden estar insertados en la ropa, en joyas, o tener el tamaño de un libro de escaso grosor. Los textos se generan habitualmente utilizando reconocimiento de lenguaje natural. Las transacciones comerciales rutinarias se realizan en su mayor parte entre una personalidad humana y otra virtual. A menudo la personalidad virtual tiene apariencia humana. Los teléfono-traductores son utilizados comúnmente en muchos pares de lenguas. Los tratamientos de bioingeniería contra el cáncer y las enfermedades de corazón han reducido la mortalidad por esas causas. El movimiento Neo-luddita* está en expansión.

2019
El ordenador doméstico (1.000$) ha alcanzado la capacidad de computación de un cerebro humano. Ahora los ordenadores son invisibles en su mayor parte. Están en las paredes, en las mesas, sillas, en la ropa y joyas, insertados en el cuerpo. Los dispositivos de Realidad Virtual (VR) en tres dimensiones se utilizan habitualmente en la comunicación. La mayor parte de la interacción con las máquinas se produce a través de gestos o diálogo en lenguaje natural. Comienza a aplicarse la nanoingeniería (ingenios de una milmillonésima de metro, contexto molecular). Muchas vías rodadas de comunicación tienen instalados sistemas de conducción automática de vehículos. Las personas comienzan a establecer relaciones con personalidades virtuales, utilizando a éstas de compañeros, profesores, cuidadores amantes. Los artistas virtuales aparecen en todas las ramas del arte.

2029
Un sistema informático de 1.000 dólares, (el equivalente a uno de los antiguos ordenadores domésticos) posee la capacidad de computación/cálculo de mil cerebros humanos (2*1019 cálculos/segundo - cps). Implantes biológicos para los ojos y oídos se utilizan para establecer conexión directa con la red informática mundial. Sin interfaces. De la retina a la Red. Se han perfeccionado redes neuronales de banda ancha para conectarlas directamente al cerebro humano. Se van haciendo disponibles implantes neuronales para mejorar la percepción visual y auditiva, la memoria, el razonamiento y el cálculo humanos. Los agentes automáticos comienzan a aprender por su cuenta, y hay una cierta cantidad de conocimiento que está siendo creado sin intervención humana. La inmensa mayoría de las comunicaciones no se efectúa entre personas, sino entre una persona y una máquina. No se puede distinguir claramente entre el mundo humano y el de las máquinas. Prácticamente, no existe trabajo humano en la industria, la agricultura o el transporte. Las profesiones más extendidas son las educativas. Una proporción creciente de tiempo de trabajo se dedica a la educación y el aprendizaje. Las necesidades vitales básicas están cubiertas para la gran mayoría de la humanidad. La esperanza de vida continua incrementándose, y ahora está alrededor de los 120 años. Una rama de la psicología comienza a investigar las consecuencias de este aumento del periodo vital. Las drogas personalizadas no producen secuelas. Se diseñan en función de cada DNA específico, que hace tiempo que ha sido descodificado por completo. Comienzan las reivindicaciones sobre derechos legales de las computadoras, y existe un debate sobre lo que constituye "ser humano". Las máquinas afirman ser conscientes. Nadie se escandaliza con ello.

2049
La utilización habitual de alimentos nanoproducidos, con la correcta composición nutricional y el mismo sabor y textura que los alimentos producidos orgánicamente, conduce a una disponibilidad de alimentos que ya no se ve afectada por los limitados recursos naturales, el clima, o el deterioro por oxidación. Enjambres de nanorobots son capaces de crear proyecciones visual-tactil-auditivas de personas y objetos en el mundo físico. Ya no se trata del mundo físico y de la realidad virtual: hay varias capas que se entrecruzan. Se puede actuar sobre varias al mismo tiempo (ciertamente confuso) o adoptando varias personalidades en cada capa de realidad. Las computadoras se diseñan por completo a sí mismas: esto produce una mayor aceleración en el perfeccionamiento de la inteligencia digital.

2099
El pensamiento humano y la inteligencia artificial se han fundido, ciberorganismos controlan las sociedades. Ya no existe distinción entre seres humanos y ordenadores. Muchas entidades conscientes no poseen una presencia física permanente. Algunas inteligencias afirman ser humanas, pese a que sus cerebros no se componen de células de carbono, sino de sus equivalentes fotónicos y electrónicos. Una legislación eficaz protege a los MOSH, seres humanos (con neuronas de carbono), desprovistos de implantes neuronales. Dichos humanos primitivos son incapaces de participar plenamente en diálogos y procesos entre humanos implantados, humanos mejorados. La mayor parte de la información se transmite utilizando protocolos standard de conocimiento asimilado, esto es, protocolos que hacen que la información sea comprendida instantáneamente. Los idiomas como el inglés y el español aún se utilizan (especialmente entre los MOSH), pero forman parte de un conjunto de tradiciones y folklores a los que se exige respeto y protección por los legisladores. La picoingeniería (informática en el nivel del picometro: una billonésima de metro, entorno de las partículas subatómicas) posee aplicaciones cotidianas. Se encuentra en desarrollo la femtoingeniería, (escala de milbillonésima de metro, nivel dentro del quark.) La capacidad de computación o cálculo se estima (utilizando una variante de la Ley de Moore, cuya vigencia se estima posible hasta el 2018), de forma global, al estar accesible en la red para cualquier entidad que la necesite, alcanzando una suma total de 1055 cps. Esto sin contar con la informática cuántica*, que está generalmente extendida, y cuya potencia no puede estimarse con los mismos métodos, (el equivalente a 10355 cps). En este contexto, pierden sentido conceptos como esperanza de vida. La mortalidad no es un problema que pueda ser considerado del modo en que se hacía un siglo antes. Antes bien, aparece un movimiento civil denominado "destruye-todas-las-copias". Cualquier entidad inteligente estaría obligada, antes de terminar -voluntariamente- con todos sus "archivos", a realizar una serie de copias establecidas por ley. El movimiento "destruye-todas-las-copias" reclama la posibilidad de desaparecer destruyendo todas las copias de la mente o inteligencia que deseen terminarse. Es la inmortalidad lo que comienza a ser un problema...

Para estas profecías Kurzweil toma como fundamento tres leyes:

Ley del Tiempo y el Caos: en un proceso, el intervalo de tiempo entre fenómenos se expande o contrae proporcionalmente a la cantidad de caos existente. Esto quiere decir que los eventos relevantes crecen a medida que aumenta el orden, o en al contrario, disminuyen a medida que aumenta el caos.

Ley del Incremento de Caos: mientras que el caos aumenta exponencialmente, el Tiempo se ralentiza exponencialmente. Esto es, el intervalo temporal entre fenómenos es cada vez más amplio..

Ley de los Retornos Acelerados: a medida que el orden se incrementa exponencialmente, el tiempo se acelera exponencialmente. Es decir, el intervalo entre fenómenos se acorta a medida que el tiempo transcurre.La ley de Moore que dice que la capacidad de procesamiento de las computadoras alcanza el doble de su capacidad cada dos años sería un ejemplo más de esta tendencia.

De estas 3 leyes Kurzweil saca las siguientes conclusiones: Un proceso de evolución (la vida, o la inteligencia, supongamos) no es un sistema cerrado. Luego en un proceso evolutivo no se cumple la segunda Ley de la Termodinámica, y por tanto es capaz de crear su propio orden creciente. En un proceso evolutivo, el orden se incrementa exponencialmente. Por tanto: según la Ley del Tiempo y el Caos, el tiempo se acelera exponencialmente. Por tanto: los retornos, (productos valiosos del proceso), se aceleran. Conclusión final: la evolución cósmica (Universo: sistema cerrado) se ralentiza. La evolución tecnológica (sistema abierto): se acelera. Por lo que la evolución está sometida a velocidades exponenciales, a una aceleración progresiva que nos traerá en un futuro próximo las denominadas máquinas conscientes.

Thursday, October 12, 2006

Características del lenguaje Prolog

Ejecución de los programas:
Para la ejecución de los programas de Prolog, proponemos el Ciao-Prolog, http://www.clip.dia.fi.upm.es/Software/Ciao/index.html#ciao
el cual tiene un shell que permite ejecutar objetivos.

El shell es una aplicación que esta incluida dentro del Ciao-Prolog con el nombre de ciaosh, y al ejecutarla aparece el siguiente mensaje:

Ciao-Prolog 1.9 #44: Mon Dec 30 16:47:15 2002
?-

El símbolo? nos indica la zona donde podemos escribir los objetivos a ejecutar.

Por ejemplo:

Ciao-Prolog 1.9 #44: Mon Dec 30 16:47:15 2002
?- f(X) = f(3).

X = 3 ?

Para ejecutar el objetivo es necesario teclear punto al final y teclear ENTER.
A continuación, el shel nos dice si los objetivos tiene éxito o no y como quedan instanciadas las variables. Después aparece un signo de interrogación, lo cual nos indica que le podemos pedir otra solución tecleando un punto y como (;) y pulsando ENTER.

Para cargar un programa en Ciao-Prolog es como sigue:


?- Consutl( ‘Programa.pl’ ).

Yes
?-

Observe que el nombre de fichero se escribe entre comillas simples. En caso de que se quiera ejecutar a los programas desde una carpeta, por ejemplo curso, seria:

?- Consutl( ‘c:/curso/Programa.pl’ ).

Yes
?-


Para salir del shell basta teclear el predicado halt.
?- halt.




2.2.1. Declaración de hechos y reglas

Como ya se dijo una regla al estilo prolog se representa como:

Predicado (Argumento1, Argumento2,.....)

Pc(Arg,..) si P1(Arg,.....) y P2(Arg,.....) y .......

Ahora bien la sintaxis correcta en Prolog seria

Pc (Arg,.....) :- P1(Arg,......) , P2(Arg,.....) , P3(Arg,....)........
(la cual es la sintaxis estándar que viene DEC 10 Prolog)

Algunos lenguajes aceptan también la siguiente sintaxis

Pc(Arg,.....) if P1(Arg,....) and P2(Arg,....) and ..........

Donde a cada regla se le llama cláusula
Y tendremos que para:
Pc :- Pi
Pc: Cabeza de la cláusula
Pi: Cuerpo de la cláusula
:- Cuello de la cláusula.

Sean los siguientes ejemplos de hechos o predicados:
progenitor (juan, luis).
progenitor (maria, luis).
progenitor (luis, jose).
progenitor (luis, ana).
progenitor (ana, elena).

Ahora si se preguntaran al compilador Prolog

? – progenitor (juan, luis).
yes.

Pero si fuera

? – progenitor (juan, sofia)
no

Seria la respuesta, ya que no existe ningún hecho que confirme la pregunta.

Si quiseramos saber todos los descendiente de Luis

?- progenitor (luis, X).
X= Jose
X= Ana

José y Ana son los descendientes de Luis

Ahora vamos a definir una regla o cláusula, hasta ahora solo hemos definidos hechos.
Veamos la regla abuelo:
abuelo(X,Y) :- progenitor(X,Z) , progenitor(Z, Y) , masculino (X).
Nos hizo falta un predicado que no estaba definido (masculino), por lo que necesitamos incluir nuevos hechos.
masculino(juan).
masculino(jose).
masculino(luis).
femenino(ana).
femenino(maria).
femenino(elena).
Ahora mi base de conocimientos esta compuesta por la regla Abuelo y los hechos progenitor, masculino y femenino.
Y si quisiera incluir la regla hermano.
hermano(X,Y) :- progenitor(Z,X), progenitor(Z,Y), masculino(X).
O la regla madre:
madre(X,Y) :- progenitor(X,Y), femenino(X).

Thursday, August 31, 2006

Nociones de Prolog: Programación declarativa

Introducción:
En los comienzos de los años 70 el francés Alain Colmenuer desarrolló el lenguaje PROLOG que también permite el desarrollo de aplicaciones en forma declarativa.

En general el PROLOG es un demostrador automático de problema, el cual utiliza una Base de Conocimientos en forma de reglas de inferencia deductivas (cláusulas de Horn), es decir sus reglas tienen como consecuente una única acción y las inferencias obte­nidas son estrictamente lógicas (verdaderas o falsas), aunque puede parecer una limitación, esto no es totalmente justo, ya que PROLOG permite programar mecanismos inferenciales con lógica probabilisticas, dado que se trata de búsquedas en árboles con acumulación de evidencias.

El PROLOG como lenguaje surgido del cálculo de predicados, tomó las siguientes ideas de la lógica para su ejecución.
1) Un conjunto de axiomas o hechos.
2) Reglas de inferencias las cuales se resuelven por resolución y unificación.
3) El objetivo a demostrar, que serán las condiciones a unificar con las reglas.
También tomó del LISP el tratamiento de las listas para la repre­sentación de estructuras complejas.Aunque el PROLOG tuvo su ori­gen en la lógica matemática no fue una transposición exacta, y esta ligada a las discusiones que sostienen desde hace años los principales investigadores de la Inteligencia Artificial, los cuales están divididos en dos grandes grupos, de una parte Minsky quien propone estudiar los mecanismos del pensamiento humano y luego simularlo en la computadora.
Lo más importante para Minsky son los conceptos, o sea la inter­pretación que se le puede dar a cada palabra en dependencia de un contexto dado.

El otro grupo encabezado por Mac Carthy (autor del LISP), afirma que la lógica matemática es el elemento característico para la representación del razonamiento y su implantación en la computadora, este grupo centra su atención en la formalización y en la estructura de los conocimientos más que en el sentido de los mismos.

La lógica desde la antigüedad se concibió como el método de descubrir las leyes del pensamiento, pero estas leyes siempre han estado restringidas al pensamiento científico y muy especialmente el matemático, quedando fuera el sentido común. Esta deficiencia es admitida por los defensores de la lógica, pero ellos consideran que la lógica es la única senda posible para desarrollar programas capaces de mostrar inteligencia.

Programación declarativa

En la programación declarativa lo principal no son las instrucciones que se dan en forma secuencial (programación prescriptiva), en su lugar, el programador se dedica a describir el problema a través de reglas y hechos que funcionan de forma independiente y es a través de un mecanismo de inferencia que se ejecutan las reglas.

En la programación declarativa las reglas (base de conocimientos) esta separada del programa de control (maquina de inferencia).

Ejemplo de programación declarativa:
Si y/o y/o .... entonces y/o ....

Donde un hecho seria:
Juan es un estudiante
El perro es blanco
A María le gusta el cine.

El conocimiento operativo tiene carácter procedimental.
Si Premisas entonces Conclusión
(También hay quienes utilizan: Si Condiciones entonces Acciones)

Si P entonces C
Donde:P y C instrucciones estaríamos en presencia de una representación procedimental.
P y C hechos o aserciones estaríamos en presencia de una representación declarativa.

Ejemplo de representación procedimental
Si A1 = B1 y A2 > B2 entonces X := A1 + A2

Donde A1 = B1 y A2 > B2 son comparaciones que tomaran el valor de ¨verdadero¨ o ¨falso¨.


O sea que tendríamos:

Si P1 y P2 entonces C

donde P1 y P2 serian variables lógicas (darían verdadero o falso)

Ejemplo de representación declarativa
Si y entonces

Esto en cualquier lenguaje se haría de la siguiente forma:
X := “Juan es un estudiante”
Y := “Juan tiene 7 años”

if X = “Juan es un estudiante” and Y = “Juan tiene 7 años”
then Z := “Juan esta en la primaria”

Veamos ahora la forma de formalizar los hechos o aserciones
Ejemplo: Juan tiene 10 años de edad
1)
<10>
2) relacion (concepto, concepto,....) La que utiliza Prolog
edad(Juan, 10)
También se utiliza
3)


Nos concentraremos en las dos primera representaciones.

Ejemplo1: El león es un mamífero

es-un(leon, mamifero)

Ejemplo 2: A María le gusta el cine.
1)
2) gusta(maria, cine)

Veamos ahora algunos ejemplos donde se combinan los hechos en formas de reglas o cláusulas:

si y
entonces

Y ahora formalizando los hechos tendremos:


1) si y
entonces

O también (similar a Prolog)
2) vive(tiburon, en-agua) si vive(pez, en-agua) y es-un(pez, tiburon)

Observen que en prolog la conclusión se pone delante de las premisas

Representación en forma de reglas:
si Premisas entonces Conclusión
Lo que se interpretaría como:
si entonces
Donde la conclusión puede estar compuesta por varios hechos o aserciones.

Representación en prolog:
Conclusión si Premisas
Y se interpretaría como:
si
Donde la conclusión estará dada por un solo hecho o aserción.

Ejercicio 1:
1. A María le gusta el tenis.
2. A Tomas le gusta el béisbol.
3. A José le gustan los deportes que le gustan a Tomas.

1.
2. S
3. Si entonces

Similar a prolog:
1. gusta(maria, tenis)
2. gusta(tomas, beisbol)
3. gusta(Jose, X) Si gusta(tomas, X)

Ejercicio 2:

Sofía desea un hombre que no fume.

si y

Similar a prolog:
desea(sofia, X) si hombre(X) y no fuma(X)

Wednesday, August 30, 2006

Hacia un nuevo enfoque de la Inteligencia Artificial

A partir de la crisis en la IA han surgido nuevas áreas de investigación de la IA tales como:
‑ Redes Neuronales
‑ Algoritmos Genéticos
‑ Inteligencia Artificial Distribuída

Todas tienen en común un nuevo enfoque: la inteligencia es producto de la asociación, combinación o conexión de entidades independientes más simples (agentes, genes o neuronas), las cuales pueden tener alguna inteligencia o ninguna y producto de su interacción, el sistema presentaría un comportamiento inteligente. Lo cual nos lleva a un nuevo paradigma basado en la copia de los sistemas emergentes y evolutivos de la naturaleza, que de cierta manera es un retorno a la Cibernética, primera ciencia de carácter técnico inspirada en la naturaleza.

Las investigaciones en las RNA han estado inmersas en la creación de autómatas que aprendan a descubrir relaciones ocultas en los datos a la vez que puedan codificar y almacenar información en forma similar a como lo realiza el cerebro.

La neurocomputación utiliza como base la metáfora cerebral, pero no persigue como objetivo la construcción de máquinas absolutamente plausibles biológicamente, sino el desarrollo de máquinas útiles.

La capacidad intelectual depende de la acción colectiva de las neuronas, que realizan procesos en serie y en paralelo utilizando la retroalimentación y una organización molecular y laminar con alta capacidad de auto-organización y cooperatividad basado en una estructura jerárquica que permite el procesamiento local y centralizado en fases.

Vida artificial es el nombre dado a una nueva disciplina, nacida en los años 80, que estudia la vida natural mediante la recreación de fenómenos biológicos en la computadora y otros medios artificiales, con el fin no solamente de la comprensión teórica de los fenómenos bajo estudio, sino también de descubrir y realizar aplicaciones prácticas y útiles de los principios biológicos en la tecnología de la computación y en la ingeniería, como por ejemplo, en robots móviles, naves espaciales, medicina, nanotecnología, fabricación industrial y ensamblaje así como también en otros proyectos de ingeniería.

En la Naturaleza, la evolución, en particular la de los seres vivos, presenta algunas características que motivaron a John Holland a comenzar una línea de investigación en un área que eventualmente se transformó en lo que hoy se denomina Algoritmos Genéticos (AG). La habilidad de una población de cromosomas para explorar el espacio de búsqueda "en paralelo" y combinar lo mejor que ha sido encontrado en él por medio del mecanismo de sobrecruzamiento (crossover), es algo intrínseco a la evolución natural y trata de ser explotada por los AGs.

Desde el punto de vista biológico, el problema se centra en la imitación del mecanismo evolutivo de los seres vivos. De una población, tienen más posibilidades de sobrevivir y de tener descendencia aquellos organismos mejor adaptados al medio. De combinarse dos que tengan características deseables para aspectos distintos pueden surgir nuevos que hereden ambas peculiaridades.

La premisa de los AGs, trás la publicación del libro de Holland "Adaptation in Natural and Artificial Systems" y de los numerosos investigadores que los utilizan como metaheurística para optimización, es que se pueden encontrar soluciones aproximadas a problemas de gran complejidad computacional mediante un proceso de "evolución simulada", en particular como un algoritmo matemático implementado en un ordenador.

En la Inteligencia Artificial Distribuida (IAD) se estudia la solución cooperativa de problemas por un grupo de agentes distribuídos. Tal cooperación se basa en que ninguno posee la información (experticidad, recursos, etc) para resolver completamente el problema y donde un agente tiene como característica la de ser una entidad mas o menos autónoma, con conocimientos propios y de su entorno así como con la posibilidad de interactuar con dicho entorno y otros agentes.

A diferencia de los sistemas expertos, llamados por muchos "sistemas autistas" estas nuevas investigaciones se ocupan de que los mismos sean capaces de interactuar con el entorno o lo que es lo mismo que sean abiertos y flexibles.

Por otra parte, los agentes inteligentes se perfilan como una de las aplicaciones de la IA mas prometedoras debido a su estrecha relación con Internet (la tercera revolución de la informática). Sin crear falsas expectativas, debemos recordar los sistemas expertos y los agentes inteligentes dadas las ventajas que representan para el acceso a las redes. Ellos están llamados a cambiar nuestra forma de trabajo al permitir a los usuarios moverse en ambientes más cómodos y amistosos.


CONCLUSIONES

Hasta hoy, es posible desarrollar sistemas que se comportan ‘eficazmente’ en una materia específica, pero no que 'emulan' a la inteligencia humana. La lógica es sólo una arista de la misma: el sentido común, razonamiento no monótono, reconocimiento y otros procesos ‘inteligentes’ aún no están totalmente resueltos.

Los programas de ajedrez son una demostración palpable de lo que podría llamarse una inteligencia basada en la fuerza bruta, dado que su método consiste en la velocidad de cálculo, lo cual le permite buscar en grandes espacios y procesar una cantidad enorme de información, velocidad de procesamiento que supera ampliamente la del cerebro humano. Muchos creen que la rapidez creciente en el cálculo de las computadoras, que no parece tener limites, debe conducir al surgimiento de las llamadas máquinas inteligentes, afirmación sustentada en que las computadoras al poder valorar más variantes de un problema, ya sea el juego de ajedrez, un cálculo de ingeniería, un diseño industrial o un diagnóstico mecánico, será capaz de alcanzar soluciones más rápidas y eficientes, relegando la de los humanos a un segundo plano. Este argumento se fundamenta en el auge acelerado que se evidencia en el hardware de las computadoras, mientras subestima el desarrollo del software e ignora las posibilidades del cerebro.

Actualmente, la ciencia deja de encerrarse en si misma y se fija en lo que le rodea, comprende que la mejor manera de entender cómo funciona algo en un ser humano es entenderlo primero en los animales más simples. Es así que la ciencia descubre las propiedades emergentes de la inteligencia, como resultado de la interacción compleja de sencillos elementos y emula con los procesos genéticos evolutivos en la búsqueda de mejores soluciones a problemas realmente complejos.


La Inteligencia Artificial 'convencional' con sus intentos de modelar matemáticamente los procesos de razonamiento, no ha podido alcanzar el sueño de sus creadores, mucho menos los seguidores de la denominada IA 'fuerte', quienes han pretendido convencernos de que seremos sustituidos por máquinas pensantes. Comienza una nueva era dentro de la Inteligencia Artificial. El hecho de mirar hacia la naturaleza posibilitará al hombre un avance en el camino de lograr simular verdaderamente, la inteligencia humana.

Tuesday, August 29, 2006

La crisis de la Inteligencia Artificial

Como ya se dijo, los primeros intentos de la inteligencia artificial (IA) se fundamentaron en las búsquedas heurísticas. Se creía que el hombre resolvía todos los problemas a través de métodos heurísticos y se pensaba que la mente estaba conformada por potentes mecanismos heurísticos capaces de partir de lo general a lo particular tal como sucedía con los algoritmos de computación. De ahí los esfuerzos por hallar un algoritmo general basado en los principios heurísticos que fuera capaz de resolver cualquier tipo de problema. Ejemplo de ello fue el GPS (solucionador general de problemas) con el cual se podía demostrar cualquier tipo de teorema matemático, pero era incapaz de resolver problemas de carácter elemental que requieran un mínimo de sentido común. Este fracaso llevó a los investigadores a la conclusión que la heurística no lo era todo y que si el hombre resolvía los problemas era porque poseía los conocimientos necesarios para darle solución.
.
Lo que dió lugar a la explosión de los sistemas basados en conocimientos más conocidos como sistemas expertos los cuales debido a la estrechez de su dominio de solución de los problemas, no cumplió con las expectativas de los usuarios. Ello trajo como consecuencia la crisis del paradigma simbolista dentro la IA lo que originó nuevos paradigmas siendo los más importantes los basados en el conexionismo y los basados en la cooperación. Siendo interés nuestro los últimos ya que son los que están relacionados con la cooperación entre agentes inteligentes ajustándose este modelo a la estructura de una organización inteligente.

Otro de los intentos de la inteligencia artificial fue tratar de comprender los estados mentales a través de "mundos de juguetes", producto del desconocimiento existente sobre la naturaleza de la inteligencia y, por otro lado, existía la creencia de que lo aprendido en esos dominios de juguete se podría extender sin dificultades a problemas más complicados pero debido a la complejidad de los problemas del mundo real estos no pueden capturarse en modelos reducidos y por tanto deben plantearse directamente.

Crisis de la IA:

La Inteligencia Artificial se ha visto siempre como una ciencia teórica, desligada de la realidad, mientras para otros son métodos que permiten investigar el cerebro. Pero, en realidad, ¿cuales han sido sus logros? ¿Cómo ha influído en la comprensión de la mente humana?



La IA parece irreconciliable si la analizamos a través de sus tres vertientes:
‑ Estudio de la mente humana.
‑ Sistemas informáticos inteligentes.
‑ Sistemas comerciales basados en las técnicas de la IA

Estudio de la mente: Descubrir los enigmas de la mente humana, donde la máquina es utilizada como laboratorio para verificar las teorías.

Sistemas informáticos: analizar las técnicas informáticas de simulación del comportamiento inteligente

Sistemas comerciales: la máquina es una herramienta que a través de programas inteligentes servirá al hombre en sus tareas diarias.

Cada uno de estos métodos niega los progresos del otro, y en algunos casos considera que no tiene nada que ver con la Inteligencia Artificial.

De acuerdo a estos enfoque surgen tres áreas de investigación y desarrollo de la Inteligencia Artificial.

Estudio de la mente àCiencia cognoscitiva.
Sistemas informáticos à Máquinas inteligentes.
Sistemas comerciales à Ingeniería del conocimiento

Estudio de la mente:
Se considera una ciencia natural que investiga sobre la mente que trata de comprender los mecanismos de la creatividad del ser humano apoyándose en las computadoras como soporte del pensamiento de este grupo se desprenden dos grandes ideas que han llenado de promesas las investigaciones de la IA: la IA fuerte y la IA débil.

La Inteligencia Artificial fuerte:
La idea de una IA fuerte ha sido el sueño de casi todos los investigadores de ese campo. Sostiene que todas las operaciones mentales son manifestaciones sofisticadas de complicados procesos computacionales, y que es irrelevante si tales procesos son llevados a cabo por un sujeto humano, un objeto físico o un dispositivo electrónico. Por lo que acepta que la mente humana puede ser reproducida o copiada para otro medio, el cerebro se considera un soporte más.


En cambio para la IA débil (menos radical que la anterior, y también más extendida desde el fracaso del enfoque idealista de los primeros años) computación no supone consciencia, y la simulación artificial de actividades mentales en ningún caso da origen a fenómenos mentales como dolor, reconocimiento, entendimiento o intencionalidad. No obstante se acepta la posibilidad de una simulación de la mente que suponga identidad funcional, aunque nunca identidad estructural.
Se acepta la creación de un algoritmo suficientemente complejo que podría ser codificado a través de un programa computacional y controlar un robot de la misma forma que lo haría un ser humano.


2. Sistemas informáticos:
A este grupo no les preocupa tanto las cuestiones filosóficas, aunque su afiliación esta dentro de una IA débil. Para ellos la meta es construir máquinas más perfectas, aprendiendo a representar y manipular el conocimiento sobre el mundo real mediante una computadora y no les preocupa en lo más mínimo si la forma de pensar de las máquinas está de algún modo relacionada con la forma humana de pensar.

Para estos investigadores la máquina es el tema de su investigación, la cual es vista como un todo (soft y hard) y se pretende que esta como tal alcance niveles de inteligencia, posiblemente no alcanzados por el hombre, cada vez más avanzados. Y se especula sobre la posibilidad de que la máquina sustituya al hombre, dada las posibilidades ilimitadas de la misma.

Las mayores aportaciones al campo de la IA se debe a este grupo en temas tan importantes como: la robótica, las tecnologías del conocimiento, la IA distribuída, máquinas para lisp, etc.

3. Sistemas comerciales:
Se elaboran aplicaciones para resolver problemas que antes eran competencia sólo de los humanos. Son los especialistas de computación que se dedican a abordar a través de algoritmos tareas poco estructuradas con fines prácticos, casi siempre utilizando estructuras de datos complejas.

Se puede ver como rama de la ingeniería dedicada a crear productos comerciales. sobre todo sistemas especializados. Por ejemplo los sistemas expertos (los cuales serán tratados en el tema 3).

Cada enfoque crea una filosofía de trabajo que hace incompatible la comunicación entre cada grupo de investigadores, desde sus "creencias" entre MENTE, MAQUINA Y USUARIO. Incluso hasta la forma de ver la máquina cambió para cada uno.

Ya pasó la época en que la IA se veía como una ciencia mística cargada de amenazas, algunos pensaban que los sistemas expertos sustituirían a los especialistas, y hoy con un enfoque más maduro sin falsas expectativas, recuerden el proyecto japonés de la 5ta. Generación, las técnicas de IA se irán abriendo paso de forma imperceptible, es más, todo indica que la inteligencia se irá ampliando y que de la cooperación entre humanos y sistemas informáticos inteligentes surgirán las bases de las sociedades basadas en el conocimiento.

De ahí que la IA abandone los sistemas autistas (encerrados en si mismo) para dar lugar a sistemas abiertos que comparten información de forma inteligente, a su vez que permite la combinación de diferentes paradigmas de representación del conocimiento como los basados en reglas, los marcos (frames), los guiones. Y surjan nuevos temas de investigación tales como:
- La formalización del sentido común.
‑ El aprendizaje.
‑ La integración de diferentes paradigmas de inteligencia.
‑ El desarrollo de arquitecturas cognoscitivas completas.

Mientras la Inteligencia Artificial se desangra en pugnas internas y en definir que es y que no es Inteligencia Artificial, en la computación convencional el hardware marcha a paso acelerado en la construcción de máquinas cada vez más rápidas, con más memoria y más posibilidades de cálculos simbólicos, que se pronostica alcanzará la creación de máquinas inteligentes a corto plazo sin necesidad de la Inteligencia Artificial.