- Una suave introducción
Original article: cis.temple.edu/~pwang/AGI-Intro.html
[Esta página contiene información actualizada sobre el campo de la Inteligencia Artificial General (IAG), recopilada y organizada según mi criterio, aunque se procura evitar sesgos personales].
Contenido
- 1 De la IA a la AGI
- 1.1 AI: en diferentes direcciones, y a través de ciclos estacionales.
- 1.2 Un nuevo muelle
- 1.3 Ya es verano otra vez
- 2 AGI Básico
- 2.1 Qué es el AGI
- 2.2 Limitaciones y objeciones
- 2.3 Estrategias y técnicas
- 2.4 La ética de la AGI
- 3 Proyectos representativos de AGI
- 4 Literaturas y recursos AGI
De la IA a la IAIG
AI: en diferentes direcciones, y a través de ciclos estacionales
La Inteligencia Artificial (IA) comenzó con la "máquina pensante" o la "inteligencia comparable a la humana" como objetivo final, tal y como documenta la siguiente bibliografía:
- Maquinaria e inteligencia informática, 1950
- Propuesta de la Reunión de Dartmouth, 1956
- Ordenadores y pensamiento, 1963
En el pasado hubo algunos proyectos ambiciosos que perseguían este objetivo, aunque todos fracasaron. Los ejemplos más conocidos son los siguientes:
- Solucionador general de problemas
- Sistemas informáticos de quinta generación
- Iniciativa de Computación Estratégica de DARPA
En parte debido a la dificultad reconocida del problema, en la década de 1970-1980 la corriente principal de la IA se alejó gradualmente de los sistemas inteligentes de propósito general y se orientó hacia problemas específicos de dominio y soluciones de propósito especial, aunque existen actitudes opuestas hacia este cambio:
- "La IA adopta el método científico (1987-presente): ... Ahora es más común basarse en teorías existentes que proponer teorías totalmente nuevas, basar las afirmaciones en teoremas rigurosos o pruebas experimentales sólidas en lugar de en la intuición, y mostrar la relevancia de las aplicaciones del mundo real en lugar de ejemplos de juguete."
- "Sólo una pequeña comunidad se ha concentrado en la inteligencia general... La IA lleva en muerte cerebral desde los años 70".
En consecuencia, el campo actualmente denominado "IA" está formado por muchos subcampos vagamente relacionados, sin una base o marco común, y sufre una crisis de identidad:
- Reconocimiento externo: En cuanto se resuelve un problema, ya no se considera que requiera "inteligencia", por lo que la comunidad de la IA rara vez recibe reconocimiento.
- Fragmentación interna: Los subcampos de la IA se asocian cada vez menos entre sí, aunque sus problemas estén estrechamente relacionados.
Una nueva primavera
Aproximadamente entre 2004 y 2007, volvieron las peticiones de investigación sobre sistemas de propósito general, tanto dentro como fuera de la corriente principal de la IA.
Los aniversarios son un buen momento para revisar el panorama general del campo. En las siguientes colecciones y eventos, muchos investigadores de IA bien establecidos plantearon el tema de la inteligencia de propósito general y de nivel humano:
- AI Magazine 26(4), invierno de 2005: con motivo del 25 aniversario de la AAAI y AI Magazine
- AI Magazine 27(4), invierno de 2006: con motivo del 50 aniversario de la IA
- AI@50: Conferencia sobre Inteligencia Artificial de Dartmouth 2006: Los próximos cincuenta años
Más o menos casualmente, desde fuera de la corriente principal de la IA, aparecieron varios libros con títulos atrevidos y enfoques técnicos novedosos para producir inteligencia en su conjunto en los ordenadores:
- Eric Baum, ¿Qué es el pensamiento?, 2004
- Jeff Hawkins, Sobre la inteligencia, 2004
- Marcus Hutter, Inteligencia Artificial Universal, 2005
- Pei Wang, Flexibilidad rígida: La lógica de la inteligencia, 2006 [El manuscrito se terminó en 2003].
- Ben Goertzel & Cassio Pennachin (Editores), Artificial General Intelligence, 2007 [El manuscrito se terminó en 2003].
También había varios libros menos técnicos pero más influyentes, con el mismo optimismo sobre la posibilidad de construir una IA de propósito general:
- Ray Kurzweil, La Singularidad está cerca: Cuando los humanos trasciendan la biología, 2005
- Marvin Minsky, La máquina de las emociones: Pensamiento con sentido común, inteligencia artificial y el futuro de la mente humana, 2006.
- Ben Goertzel, El patrón oculto: A Patternist Philosophy of Mind, 2006
- J. Storrs Hall, Más allá de la IA: crear la conciencia de la Maquina, 2007
Así que, después de varias décadas, "sistema de propósito general", "IA integrada" e "IA a nivel humano" se convierten en temas menos tabú (aunque todavía lejos de ser populares), como demuestran varias reuniones relacionadas:
- Achieving Human-Level Intelligence through Integrated Systems and Research, Simposio de otoño de la AAAI (2004).
- Towards Human-Level AI?, Taller NIPS (2005)
- Tema especial de las conferencias de la AAAI sobre Capacidades Inteligentes Integradas (2006)
- Taller sobre Inteligencia General Artificial (2006)
Ya es verano otra vez
- Desde 2008, han surgido varias comunidades de investigación, con enfoques similares y participantes que se solapan:
- Inteligencia Artificial General: conferencias, revista, sociedad
- Arquitecturas cognitivas de inspiración biológica: conferencias, revista, sociedad
- Avances en sistemas cognitivos: revista, conferencias
- IEEE Task Force on Towards Human-like Intelligence: sitio web, conferencias
Se han publicado más libros de investigación:
Joscha Bach, Principios de inteligencia sintética PSI: una arquitectura de cognición motivada, 2009
John Laird, La arquitectura cognitiva Soar, 2012
Pei Wang y Ben Goertzel (editores), Theoretical Foundations of Artificial General Intelligence, 2012
Pei Wang, Lógica no axiomática: Un modelo de razonamiento inteligente, 2013
Ben Goertzel et al., Ingeniería de la inteligencia general, Parte 1 y Parte 2, 2014.
En la corriente principal de la IA, el aprendizaje profundo ha hecho progresos impresionantes en los últimos años, lo que hace que muchas personas vuelvan a tener esperanzas en una IA "de nivel humano". La afirmación "El Test de Turing ha sido superado" y el éxito de AlphaGo en el juego de mesa Go renovaron el debate sobre qué es realmente la "inteligencia artificial" y cómo alcanzarla. Aún no hay consenso, y las opiniones ni siquiera convergen. Varias grandes empresas han etiquetado sus resultados como "pasos hacia la AGI", y sus enfoques son extensiones del aprendizaje profundo o integraciones de las técnicas de IA existentes. Este enfoque se ejemplifica con GPT-4, que su creador afirma que es "un paso significativo hacia la AGI".
En parte provocado por los recientes avances, cada vez más gente considera que la AGI, o como quiera que se llame, es realmente posible. Como consecuencia, el riesgo y la seguridad de la misma se convierten en un tema candente:
- Superinteligencia: Caminos, peligros y estrategias, de Nick Bostrom, 2014.
- Pausa a los experimentos gigantes de IA: Carta abierta del Instituto del Futuro de la Vida, 2023
AGI Básico
Las preguntas más generales a las que debe responder todo investigador de AGI son las siguientes:
- ¿Qué es el AGI, especificado con precisión?
- ¿Es posible construir la AGI tal como se especifica?
- Si la inteligencia artificial es posible, ¿cuál es la forma más plausible de conseguirla?
- Aunque sepamos cómo conseguir la AGI, ¿deberíamos hacerlo?
[Mis propias respuestas a estas preguntas están aquí].
A continuación se resumen las principales respuestas en el campo de la AGI.
Qué es el AGI
A grandes rasgos, la investigación en Inteligencia Artificial General (IAG) presenta las siguientes características:
- Insistir en el carácter polivalente de la inteligencia,
- Adoptar un punto de vista holístico o integrador de la inteligencia,
- Creemos que ha llegado el momento de construir una IA comparable a la inteligencia humana.
Por lo tanto, "AGI" está más cerca del significado original de "IA", aunque es muy diferente de la actual corriente dominante de "investigación en IA", que se centra en métodos específicos de un dominio y de un problema. "AGI" es similar o está relacionada con conceptos como "IA fuerte", "IA a nivel humano", "IA completa", "máquina pensante", "computación cognitiva" y otros. He aquí una explicación sobre la selección del término "AGI".
Aunque existe un vago consenso sobre el objetivo de reproducir la "inteligencia" en su conjunto en los ordenadores, los proyectos actuales de AGI no persiguen exactamente la misma meta. Aunque todos los enfoques de AGI se inspiran en la misma fuente, es decir, la inteligencia humana, aquí "inteligencia" se entiende en varios sentidos. En consecuencia, los proyectos de AGI intentan duplicar la inteligencia humana a distintos niveles de abstracción:
- Estructura
Razón: inteligencia la produce el cerebro humano. Por tanto, construir un ordenador inteligente significa simular la estructura del cerebro lo más fielmente posible.
Antecedentes: Neurociencia, biología, etc.
Ejemplos: HTM, Vicarious
Reto: Puede haber detalles biológicos que no sea posible ni necesario reproducir en los sistemas de IA. - Comportamiento
Razón: inteligencia se manifiesta en cómo se comportan los seres humanos. Por tanto, el objetivo debe ser conseguir que un ordenador se comporte exactamente igual que un ser humano.
Antecedentes: Psicología, lingüística, etc.
Ejemplos:Test de Turing, ChatGPT
Reto: Puede haber factores psicológicos o sociales que no sea posible ni necesario reproducir en los sistemas de IA. - Capacidad
Razón: La inteligencia se evalúa por la capacidad de resolver problemas. Por tanto, un sistema inteligente debe ser capaz de resolver determinados problemas prácticos que actualmente sólo pueden resolver los humanos.
Antecedente:Aplicación informática guiada por el conocimiento del dominio. Ejemplos:IBM Watson, AlphaGo
Desafío: No hay problemas definitorios de la inteligencia, y las soluciones de propósito especial carecen de generalidad y flexibilidad. - Función
Razón: La inteligencia se asocia a un conjunto de funcionalidades cognitivas, como percibir, razonar, aprender, actuar, comunicarse, resolver problemas, etc. Por tanto, el objetivo es reproducir estas funciones en los ordenadores.
Antecedentes:Informática
Ejemplos:Libros de texto convencionales sobre IA, Soar
Reto: Las técnicas de IA desarrolladas hasta ahora son muy fragmentarias y rígidas, y es difícil que funcionen juntas. - Principio Razón: La inteligencia es una forma de racionalidad u optimalidad. Por tanto, un sistema inteligente debería "hacer siempre lo correcto" de acuerdo con ciertos principios generales.
Antecedentes: Lógica, matemáticas, etc.
Ejemplos:AIXI, NARS
Reto: Hay demasiados aspectos en la inteligencia y la cognición como para explicarlos y reproducirlos con una teoría simple.
De arriba abajo, corresponden a descripciones de la inteligencia humana en un nivel cada vez más general, y a reproducir esa descripción en sistemas informáticos. Dado que las distintas descripciones tienen una granularidad y un alcance diferentes, los objetivos anteriores están relacionados, pero siguen siendo muy diferentes, y no se subsumen unos a otros. La mejor manera de lograr uno de ellos no suele ser una buena opción para los demás. [Aquí encontrará un análisis más detallado de esta cuestión].
La naturaleza de "propósito general" del AGI también ha obtenido diferentes interpretaciones a lo largo de los años, como el significado de
- Puede resolver todos los problemas,
- Puede resolver todos los problemas humanamente solucionables,
- Puede resolver todos los problemas computables,
- Puede intentar resolver todos los problemas representables.
Debido a esta diversidad de objetivos de investigación, en AGI no existen actualmente criterios de evaluación comúnmente aceptados (como hitos y puntos de referencia).
Limitaciones y objeciones
Desde que apareció la idea de la IA o "máquina pensante", ha habido varias objeciones contra su posibilidad. Algunas personas afirmaron haber demostrado que la AGI, o como quiera que se llame, es teóricamente imposible, debido a ciertas limitaciones fundamentales de los ordenadores.
Muchos investigadores han argumentado en contra de estas objeciones. Los argumentos clásicos pueden encontrarse en las siguientes obras:
- Maquinaria informática e inteligencia, Alan M. Turing
- Gödel, Escher, Bach: una eterna trenza dorada, Douglas R. Hofstadter
Obviamente, todos los investigadores de la AGI creen que se puede conseguir (aunque tienen diferentes interpretaciones del término). En el capítulo introductorio de las Actas del Taller AGI 2006, Ben Goertzel y yo respondimos a las siguientes dudas y objeciones comunes de esta investigación:
- AGI es imposible.
- La inteligencia general no existe.
- Los sistemas de propósito general no son tan buenos como los de propósito especial.
- El AGI ya está incluido en el IA actual.
- Es demasiado pronto para trabajar en AGI.
- AGI no es más que una exageración.
- La investigación sobre AGI no es fructífera.
- AGI es peligroso.
Algunas de las dudas sobre la posibilidad de la AGI provienen de ideas erróneas sobre lo que la AGI intenta conseguir o lo que los ordenadores pueden hacer. En la subsección anterior se ha aclarado la primera cuestión, mientras que aquí puede encontrarse un análisis de la segunda.
Estrategias y técnicas
Por un lado, el objetivo último de la AGI es reproducir la inteligencia en su conjunto, mientras que, por otro, la práctica de la ingeniería debe ir paso a paso. Para resolver este dilema, se han propuesto tres estrategias generales:
- Híbrido
Enfoque: Desarrollar primero las funciones individuales (utilizando diferentes teorías y técnicas) y luego conectarlas entre sí.
Argumento:(AA)AI: Más que la suma de sus Ronald Brachman
Dificultad: Compatibilidad de las teorías y técnicas - Integrado
Enfoque: Diseñar primero una arquitectura y después sus módulos (utilizando diversas técnicas) en consecuencia.
Argumento:Sinergia cognitiva: ¿Un principio universal para una inteligencia general viable? Ben Goertzel
Dificultad: Aislamiento, especificación y coordinación de las funciones. - Unificado
Enfoque: Utilización de una única técnica para partir de un sistema central y, a continuación, ampliarlo y aumentarlo de forma incremental.
Argumento:Hacia una inteligencia artificial Pei Wang
Dificultad: Versatilidad y extensibilidad de la técnica central.
Obviamente, la selección de la estrategia de desarrollo depende en parte de la selección del objetivo de la investigación.
En la actualidad, las principales técnicas utilizadas en los proyectos AGI incluyen, entre otras:
- lógica
- teoría de la probabilidad
- sistema de producción
- teoría de grafos
- base de conocimientos
- algoritmo de aprendizaje
- red neuronal
- computación evolutiva
- robótica
- sistema multiagente
Aunque cada una de estas técnicas también se explora en la IA convencional, su uso en un sistema de propósito general lleva a decisiones de diseño muy diferentes en los detalles técnicos.
La ética de la AGI
Aunque hayamos descubierto cómo lograr la AGI, esto no significa necesariamente que realmente queramos hacerlo. Como todos los grandes descubrimientos científicos y avances técnicos, la AGI tiene el potencial de revolucionar nuestra vida e incluso el destino de la especie humana, ya sea de forma deseada o no deseada o, como suelen ser las cosas, una mezcla de ambas.
Los investigadores de la AGI son conscientes de su responsabilidad en este tema, aunque la mayoría de ellos piensa que, según las pruebas actualmente disponibles, los avances en la investigación de la AGI beneficiarán a la especie humana, en lugar de destruirla. Los debates sobre cómo hacer que la AGI sea "segura" han existido en las reuniones de AGI desde el principio. Algunos ejemplos son
- AGI-08 contó con un taller sobre Las implicaciones socioculturales, éticas y futurológicas de la Inteligencia Artificial General
- AGI-12 fue patrocinada conjuntamente por el Instituto del Futuro de la Humanidad de Oxford. En esta conferencia, muchas ponencias abordan cuestiones éticas y morales
Por supuesto, muchos problemas cruciales siguen abiertos, pero para encontrar sus soluciones, la investigación de la AGI debería acelerarse, en lugar de ralentizarse. Una vez más, algunas de las preocupaciones y temores generalizados sobre la IAG se basan en ideas erróneas sobre su naturaleza.
Proyectos representativos de AGI
Se han seleccionado los siguientes proyectos para representar la investigación actual sobre AGI, ya que de cada uno de ellos puede decirse que
- Está claramente orientado a AGI (por eso no se incluyen Watson de IBM ni AlphaGo de DeepMind)
- Todavía está muy activo (por eso ya no se incluyen el OSCAR de Pollock y el Cog de Brooks)
- Tiene amplias publicaciones sobre detalles técnicos (por eso muchos proyectos AGI recientes no están incluidos todavía, excepto GPT-4 que se utiliza para representar varios proyectos de aprendizaje profundo hacia AGI)
Los proyectos se enumeran por orden alfabético. Cada nombre de proyecto está vinculado a la página web del proyecto, de donde se extraen las siguientes citas. Las citas se centran en el objetivo de la investigación (1ª pregunta) y la trayectoria técnica (3ª pregunta). Se seleccionan dos publicaciones sobre el proyecto, normalmente una breve introducción y una descripción detallada.
ACT-R [Una teoría integrada de la mente; los componentes atómicos del pensamiento].
ACT-R es una arquitectura cognitiva: una teoría para simular y comprender la cognición humana. Los investigadores que trabajan en ACT-R se esfuerzan por comprender cómo las personas organizan el conocimiento y producen comportamientos inteligentes. A medida que avanza la investigación, ACT-R evoluciona hasta convertirse en un sistema capaz de realizar todas las tareas cognitivas humanas: captar con gran detalle la forma en que percibimos, pensamos y actuamos en el mundo.
Por fuera, ACT-R parece un lenguaje de programación; sin embargo, sus construcciones reflejan suposiciones sobre la cognición humana. Estos supuestos se basan en numerosos hechos derivados de experimentos psicológicos. Al igual que un lenguaje de programación, ACT-R es un marco: para diferentes tareas (por ejemplo, la Torre de Hanoi, la memoria para texto o para listas de palabras, la comprensión del lenguaje, la comunicación, el control de aviones), los investigadores crean modelos (también conocidos como programas) que se escriben en ACT-R y que, además de incorporar la visión de la cognición de ACT-R, añaden sus propios supuestos sobre la tarea concreta. Estos supuestos pueden comprobarse comparando los resultados del modelo con los resultados de personas que realizan las mismas tareas.
ACT-R es una arquitectura cognitiva híbrida. Su estructura simbólica es un sistema de producción; la estructura subsimbólica está representada por un conjunto de procesos masivamente paralelos que pueden resumirse en una serie de ecuaciones matemáticas. Las ecuaciones subsimbólicas controlan muchos de los procesos simbólicos. Por ejemplo, si varias producciones coinciden con el estado de los búferes, una ecuación subsimbólica de utilidad estima el coste y el beneficio relativos asociados a cada producción y decide seleccionar para su ejecución la producción con mayor utilidad. Del mismo modo, la posibilidad (o la rapidez) de recuperar un hecho de la memoria declarativa depende de ecuaciones subsimbólicas de recuperación, que tienen en cuenta el contexto y el historial de uso de ese hecho. Los mecanismos subsimbólicos también son responsables de la mayoría de los procesos de aprendizaje en el ACT-R.
AERA [racionalidad limitada en cualquier momento; arquitectura reflexiva endógena autocatalítica].
AERA es una arquitectura cognitiva -y un proyecto- para construir agentes con altos niveles de autonomía operativa, partiendo sólo de una pequeña cantidad de código especificado por el diseñador: una semilla. Utilizando una programación dinámica de prioridades basada en valores para controlar la ejecución paralela de un gran número de líneas de razonamiento, el sistema acumula modelos cada vez más útiles de su experiencia, lo que da lugar a una mejora recursiva que puede mantenerse de forma autónoma después de que la máquina abandone el laboratorio, dentro de los límites impuestos por sus diseñadores.
AERA demuestra el aprendizaje acumulativo autosupervisado e independiente del dominio de tareas complejas. A diferencia de los sistemas de IA contemporáneos, los agentes basados en AERA destacan en el manejo de novedades -situaciones, información, datos, tareas- que sus programadores no podían prever. Es el único sistema implementable/ejecutado que existe para lograr una autosuperación recursiva acotada.
Los agentes basados en AERA aprenden acumulativamente de la experiencia interactuando con el mundo y generando micromodelos composicionales causales-relacionales de su experiencia. Utilizando la abducción y la deducción no axiomáticas, predice constantemente cómo alcanzar sus objetivos activos y qué puede deparar el futuro, generando un plan de acción flexible e interrumpible de forma oportunista.
AIXI [Inteligencia Algorítmica Universal: Un enfoque matemático de arriba abajo; Inteligencia Artificial Universal].
Una observación importante es que la mayoría de las facetas conocidas de la inteligencia, si no todas, pueden formularse como impulsadas por objetivos o, más exactamente, como maximización de alguna función de utilidad.
La teoría de la decisión secuencial resuelve formalmente el problema de los agentes racionales en mundos inciertos si se conoce la verdadera distribución de probabilidad previa del entorno. La teoría de la inducción universal de Solomonoff resuelve formalmente el problema de la predicción de secuencias para una distribución previa desconocida. Combinamos ambas ideas y obtenemos una teoría sin parámetros de la Inteligencia Artificial universal. Damos argumentos sólidos de que el modelo AIXI resultante es el agente insesgado más inteligente posible.
El mayor inconveniente del modelo AIXI es que no es computable, ... lo que hace imposible su implementación. Para superar este problema, construimos un modelo modificado AIXItl, que sigue siendo efectivamente más inteligente que cualquier otro algoritmo acotado en tiempo t y longitud l.
Cyc [Cyc: Una inversión a gran escala en infraestructura del conocimiento; construcción de grandes sistemas basados en el conocimiento].
Para crear un sistema de inteligencia artificial general sería necesario codificar una enorme cantidad de conocimientos de sentido común que representen la realidad humana consensuada. Para imitar el razonamiento humano, Cyc necesitaría conocimientos básicos sobre ciencia, sociedad y cultura, clima y meteorología, dinero y sistemas financieros, sanidad, historia, política y muchos otros ámbitos de la experiencia humana. El equipo del proyecto Cyc esperaba codificar al menos un millón de hechos que abarcaran estas y otras muchas áreas temáticas.
La base de conocimientos (KB) Cyc es una representación formalizada de una gran cantidad de conocimientos humanos fundamentales: hechos, reglas empíricas y heurísticas para razonar sobre los objetos y acontecimientos de la vida cotidiana. El medio de representación es el lenguaje formal CycL. El KB se compone de términos -que constituyen el vocabulario de CycL- y aserciones que relacionan esos términos. Estas aserciones incluyen tanto aserciones básicas simples como reglas.
GPT-4 [Informe técnico GPT-4; Chispas de Inteligencia General Artificial].
Hemos creado GPT-4, el último hito en el esfuerzo de OpenAI por ampliar el aprendizaje profundo. GPT-4 es un modelo multimodal de gran tamaño (acepta entradas de imagen y texto, y emite salidas de texto) que, si bien es menos capaz que los humanos en muchos escenarios del mundo real, muestra un rendimiento de nivel humano en diversas pruebas de referencia profesionales y académicas.
La combinación de la generalidad de las capacidades de GPT-4, con numerosas habilidades que abarcan una amplia gama de dominios, y su rendimiento en un amplio espectro de tareas a nivel humano o superior, nos permite afirmar que GPT-4 es un paso significativo hacia la AGI.
HTM [Memoria temporal jerárquica; sobre la inteligencia].
En el núcleo de cada modelo Grok se encuentra el Algoritmo de Aprendizaje Cortical (CLA), un modelo detallado y realista de una capa de células del neocórtex. Contrariamente a la creencia popular, el neocórtex no es un sistema informático, sino un sistema de memoria. Al nacer, el neocórtex tiene estructura, pero prácticamente ningún conocimiento. Se aprende sobre el mundo construyendo modelos a partir de flujos de información sensorial. A partir de estos modelos, hacemos predicciones, detectamos anomalías y actuamos.
En otras palabras, la mejor manera de describir el cerebro es como un sistema de modelado predictivo que convierte las predicciones en acciones. A continuación se describen tres principios operativos clave del neocórtex: representaciones distribuidas dispersas, memoria secuencial y aprendizaje en línea.
LIDA [La arquitectura LIDA; Tutorial LIDA]
El modelo conceptual LIDA, que aplica y desarrolla una serie de teorías psicológicas y neurocientíficas de la cognición, pretende ser una "teoría del todo" cognitiva. Con módulos o procesos para la percepción, la memoria de trabajo, la memoria episódica, la "conciencia", la memoria procedimental, la selección de acciones, el aprendizaje perceptivo, el aprendizaje episódico, la deliberación, la volición y la resolución de problemas no rutinarios, el modelo LIDA es ideal para proporcionar una ontología de trabajo que permita el debate, el diseño y la comparación de sistemas AGI. La tecnología LIDA se basa en el ciclo cognitivo LIDA, una especie de "átomo cognitivo". Los módulos cognitivos más elementales desempeñan un papel en cada ciclo cognitivo. Los procesos de nivel superior se realizan a lo largo de varios ciclos.
La arquitectura LIDA representa entidades perceptuales, objetos, categorías, relaciones, etc., mediante nodos y enlaces ..... Éstos sirven como símbolos perceptivos que actúan como moneda común para la información a través de los diversos módulos de la arquitectura LIDA.
MicroPsi [La arquitectura de agentes de MicroPsi; principios de la inteligencia sintética].
La arquitectura de agentes MicroPsi describe la interacción entre emoción, motivación y cognición de agentes situados, basándose principalmente en la teoría Psi de Dietrich Dorner. La teoría Psi aborda la emoción, la percepción, la representación y la racionalidad limitada, pero al estar formulada dentro de la psicología, ha tenido relativamente poca repercusión en el debate sobre agentes dentro de la informática. MicroPsi es una formulación de la teoría original de un modo más abstracto y formal, al tiempo que la mejora con conceptos adicionales para la memoria, la construcción de categorías ontológicas y la atención.
El marco de agentes utiliza redes semánticas, llamadas redes de nodos, que son una representación unificada para estructuras de control, planes, esquemas sensoriales y de acción, redes bayesianas y redes neuronales. Así, es posible crear distintos tipos de agentes en el mismo marco.
NARS [Inteligencia: De la definición al diseño; Flexibilidad rígida: La lógica de la inteligencia].
Lo que diferencia al SRNA de los sistemas de razonamiento convencionales es su capacidad para aprender de su experiencia y trabajar con conocimientos y recursos insuficientes. El NARS trata de explicar y reproducir de manera uniforme muchas facilidades cognitivas, como el razonamiento, el aprendizaje, la planificación, etc., con el fin de proporcionar una teoría, un modelo y un sistema unificados para la IA en su conjunto. El objetivo último de esta investigación es construir una máquina pensante.
El desarrollo del SRNS sigue un planteamiento gradual que consta de cuatro etapas principales. En cada etapa, la lógica se amplía para dotar al sistema de un lenguaje más expresivo, una semántica más rica y un mayor conjunto de reglas de inferencia; a continuación, la memoria y el mecanismo de control se ajustan en consecuencia para soportar la nueva lógica.
En los NARS, la noción de "razonamiento" se amplía para representar la capacidad de un sistema para predecir el futuro en función del pasado y satisfacer las demandas de recursos ilimitados utilizando la oferta de recursos limitados, mediante la combinación flexible de micropasos justificables en macrocomportamientos de forma independiente del dominio.
OpenCog [La teoría general de la inteligencia general: A Pragmatic Patternist Perspective; Engineering General Intelligence, Part 1 and Part 2].
OpenCog, como marco de software, pretende proporcionar a los científicos investigadores y desarrolladores de software una plataforma común para construir y compartir programas de inteligencia artificial. El objetivo a largo plazo de OpenCog es acelerar el desarrollo de AGI beneficiosas.
OpenCogPrime es un diseño específico de AGI que se está construyendo dentro del marco OpenCog. Viene con un diseño bastante detallado y completo que cubre todos los aspectos de la inteligencia. La hipótesis es que si este diseño se implementa completamente y se prueba en una red distribuida de tamaño razonable, el resultado será un sistema AGI con inteligencia general a nivel humano y, en última instancia, más allá.
Aunque un sistema AGI basado en OpenCogPrime podría hacer muchas cosas, inicialmente nos estamos centrando en utilizar OpenCogPrime para controlar agentes virtuales simples en mundos virtuales. También estamos experimentando con su uso para controlar un robot humanoide Nao. Visite http://novamente.net/example para ver algunos vídeos ilustrativos.
Sigma [Lessons from Mapping Sigma onto the Standard Model of the Mind; The Sigma Cognitive Architecture and System] SigmaSNePS [The GLAIR Cognitive Architecture; SNePS Tutorial].
El objetivo a largo plazo del Grupo de Investigación SNePS es comprender la naturaleza de los procesos cognitivos inteligentes desarrollando y experimentando con agentes cognitivos computacionales capaces de utilizar y comprender el lenguaje natural, razonar, actuar y resolver problemas en una amplia variedad de dominios.
El sistema de representación del conocimiento, razonamiento y actuación SNePS tiene varias características que facilitan la metacognición en los agentes basados en SNePS. La más destacada es el hecho de que las proposiciones se representan en SNePS como términos y no como oraciones lógicas. El efecto es que las proposiciones pueden aparecer como argumentos de proposiciones, actos y políticas sin límite, y sin abandonar la lógica de primer orden.
Soar [Introducción a Soar; Arquitectura cognitiva de Soar].
El colmo de la inteligencia sería la racionalidad completa, que implicaría la capacidad de utilizar todos los conocimientos disponibles para cada tarea a la que se enfrente el sistema. Desgraciadamente, la complejidad de la recuperación de los conocimientos pertinentes pone este objetivo fuera de nuestro alcance a medida que aumenta el acervo de conocimientos, se diversifican las tareas y se endurecen los requisitos en cuanto al tiempo de respuesta del sistema. Lo mejor que puede obtenerse actualmente es una aproximación a la racionalidad completa. El diseño de Soar puede verse como una investigación de una de esas aproximaciones.
Durante muchos años, un principio secundario ha sido minimizar el número de mecanismos arquitectónicos distintos. En Soar 8, ha habido un único marco para todas las tareas y subtareas (espacios de problemas), una única representación del conocimiento permanente (producciones), una única representación del conocimiento temporal (objetos con atributos y valores), un único mecanismo para generar objetivos (subobjetivos automáticos) y un único mecanismo de aprendizaje (fragmentación). Hemos revisado este supuesto para asegurarnos de que todo el conocimiento disponible pueda capturarse en tiempo de ejecución sin perturbar el rendimiento de la tarea. Esto está dando lugar a múltiples mecanismos de aprendizaje (fragmentación, aprendizaje por refuerzo, aprendizaje episódico y aprendizaje semántico) y múltiples representaciones del conocimiento a largo plazo (producciones de conocimiento procedimental, memoria semántica y memoria episódica).
Otros dos principios que guían el diseño de Soar son la funcionalidad y el rendimiento. La funcionalidad implica garantizar que Soar disponga de todas las capacidades primitivas necesarias para realizar el conjunto completo de capacidades cognitivas utilizadas por los humanos, incluyendo, entre otras, la toma de decisiones reactiva, la conciencia situacional, el razonamiento y la comprensión deliberados, la planificación y todas las formas de aprendizaje. El rendimiento implica garantizar la existencia de algoritmos computacionalmente eficientes para realizar las operaciones primitivas de Soar, desde la recuperación de conocimientos de la memoria a largo plazo hasta la toma de decisiones y la adquisición y almacenamiento de nuevos conocimientos.
Una clasificación aproximada
Los proyectos AGI anteriores se clasifican a grandes rasgos en la siguiente tabla, según el tipo de sus respuestas a la 1ª pregunta (sobre el objetivo de la investigación) y la 3ª pregunta (sobre la trayectoria técnica) anteriormente enumeradas.
objetivo \ camino | híbrido | integrado | unificado |
principio |
|
| AERA, AIXI, NARS |
función |
| OpenCog, Sigma, Soar | SNePS |
capacidad |
|
| Cyc |
comportamiento |
| ACT-R, LIDA, MicroPsi | GPT-4 |
estructura |
|
| HTM |
Dado que esta clasificación se hace a un nivel alto, los proyectos de una misma entrada de la tabla siguen siendo bastante diferentes en los detalles de sus objetivos de investigación y trayectorias técnicas.
En resumen, los proyectos AGI actuales se basan en teorías y técnicas muy diferentes.
Literaturas y recursos AGI
Colecciones AGI:
La primera recopilación de obras sobre AGI es Inteligencia General Artificial. Aunque este libro se publicó en 2007, el manuscrito se terminó en 2003.
- Avances en Inteligencia Artificial General: Concepts, Architectures and Algorithms son las actas del taller AGI de 2006. El capítulo introductorio "Aspects of Artificial General Intelligence" aclara la noción de AGI y resume los demás capítulos.
- Theoretical Foundations of Artificial General Intelligence (Fundamentos teóricos de la Inteligencia Artificial General) es una colección coescrita por investigadores activos en AGI. Cada capítulo aborda un tema teórico de la AGI, y está escrito en un estilo no técnico, con el fin de proporcionar información a los lectores que no son investigadores de AGI.
- Between Ape and Artilect: Conversations with Pioneers of Artificial General Intelligence and Other Transformative Technologies contiene algunas entrevistas a investigadores de AGI.
La serie de conferencias internacionales anuales de AGI se inició en 2008. Los sitios web de las conferencias ofrecen enlaces a todas las ponencias aceptadas, además de material adicional como archivos de presentaciones y grabaciones de vídeo.
Journal of Artificial General Intelligence (JAGI) es una revista revisada por pares con acceso abierto, iniciada en 2009.
La conferencia y la revista AGI están gestionadas por la Sociedad de Inteligencia General Artificial (AGIS). Todos los interesados en AGI pueden hacerse miembros.
Espacios de comunicación y medios sociales dedicados a la AGI o a la investigación relacionada:
- Grupos AGI en Facebook: Inteligencia Artificial General (AGI), AGI Real, Inteligencia Artificial General, Cognición Artificial
- Grupo AGI en LinkedIn
- Grupo AGI en Google Group
- Lista de correo AGI en Listbox
Material educativo para estudiantes:
- Sugerencias educativas para futuros investigadores de AGI, por Pei Wang
- Esbozo de un plan de estudios AGI, por Ben Goertzel
- Recomendaciones sobre IA, por Marcus Hutter
- Vídeos de las anteriores conferencias de la Escuela de Verano de la AGI
Otros recursos AGI:
- Página de recursos AGIS
- Página de inteligencia general artificial en Wikipedia
- Inteligencia general artificial página en Scholarpedia