Arquitectura cognitiva - Cognitive architecture
Una arquitectura cognitiva se refiere tanto a una teoría sobre la estructura de la mente humana como a una instanciación computacional de dicha teoría utilizada en los campos de la inteligencia artificial (IA) y la ciencia cognitiva computacional. Los modelos formalizados se pueden utilizar para refinar aún más una teoría integral de la cognición y como un programa útil de inteligencia artificial. Las arquitecturas cognitivas exitosas incluyen ACT-R (Adaptive Control of Thought - Rational) y SOAR .
El Instituto de Tecnologías Creativas define la arquitectura cognitiva como: " hipótesis sobre las estructuras fijas que proporcionan una mente, ya sea en sistemas naturales o artificiales, y cómo funcionan juntas, junto con el conocimiento y las habilidades incorporadas en la arquitectura, para producir un comportamiento inteligente en una diversidad de entornos complejos ".
Historia
Herbert A. Simon , uno de los fundadores del campo de la inteligencia artificial, afirmó que la tesis de 1960 de su alumno Ed Feigenbaum , EPAM proporcionaba una posible "arquitectura para la cognición" porque incluía algunos compromisos de cómo más de un aspecto fundamental de la la mente humana funcionó (en el caso de EPAM, memoria humana y aprendizaje humano ).
John R. Anderson inició una investigación sobre la memoria humana a principios de la década de 1970 y su tesis de 1973 con Gordon H. Bower proporcionó una teoría de la memoria asociativa humana. Incluyó más aspectos de su investigación sobre la memoria a largo plazo y los procesos de pensamiento en esta investigación y finalmente diseñó una arquitectura cognitiva que finalmente llamó ACT . Él y sus estudiantes fueron influenciados por el uso que hizo Allen Newell del término "arquitectura cognitiva". El laboratorio de Anderson usó el término para referirse a la teoría ACT tal como está incorporada en una colección de artículos y diseños (no había una implementación completa de ACT en ese momento).
En 1983, John R. Anderson publicó el trabajo fundamental en esta área, titulado The Architecture of Cognition. Se puede distinguir entre la teoría de la cognición y la implementación de la teoría. La teoría de la cognición esbozó la estructura de las diversas partes de la mente y asumió compromisos con el uso de reglas, redes asociativas y otros aspectos. La arquitectura cognitiva implementa la teoría en las computadoras. El software utilizado para implementar las arquitecturas cognitivas también fueron "arquitecturas cognitivas". Por lo tanto, una arquitectura cognitiva también puede referirse a un plan para agentes inteligentes . Propone procesos computacionales (artificiales) que actúan como ciertos sistemas cognitivos, la mayoría de las veces, como una persona, o actúan de manera inteligente bajo alguna definición. Las arquitecturas cognitivas forman un subconjunto de arquitecturas de agentes generales . El término 'arquitectura' implica un enfoque que intenta modelar no solo el comportamiento, sino también las propiedades estructurales del sistema modelado.
Distinciones
Las arquitecturas cognitivas pueden ser simbólicas , conexionistas o híbridas . Algunas arquitecturas o modelos cognitivos se basan en un conjunto de reglas genéricas , como, por ejemplo, el lenguaje de procesamiento de información (por ejemplo, Soar basado en la teoría unificada de la cognición , o de manera similar ACT-R ). Muchas de estas arquitecturas se basan en la analogía de la mente es como una computadora. En contraste, el procesamiento subsimbólico no especifica tales reglas a priori y se basa en propiedades emergentes de las unidades de procesamiento (por ejemplo, nodos). Las arquitecturas híbridas combinan ambos tipos de procesamiento (como CLARION ). Una distinción adicional es si la arquitectura está centralizada con un correlato neuronal de un procesador en su núcleo, o descentralizada (distribuida). El sabor descentralizado se ha hecho popular bajo el nombre de procesamiento distribuido en paralelo a mediados de la década de 1980 y conexionismo , un excelente ejemplo son las redes neuronales . Otro problema de diseño es, además, una decisión entre estructura modular holística y atomística , o (más concreta) . Por analogía, esto se extiende a cuestiones de representación del conocimiento .
En la IA tradicional , la inteligencia a menudo se programa desde arriba: el programador es el creador, hace algo y lo imbuye con su inteligencia, aunque muchos sistemas de IA tradicionales también se diseñaron para aprender (por ejemplo, mejorar su capacidad para jugar o resolver problemas) . La informática de inspiración biológica , por otro lado, a veces adopta un enfoque más descentralizado y de abajo hacia arriba ; Las técnicas bioinspiradas a menudo implican el método de especificar un conjunto de reglas genéricas simples o un conjunto de nodos simples, de cuya interacción surge el comportamiento general. Se espera aumentar la complejidad hasta que el resultado final sea algo marcadamente complejo (ver sistemas complejos). Sin embargo, también es discutible que los sistemas diseñados de arriba hacia abajo sobre la base de observaciones de lo que los humanos y otros animales pueden hacer, en lugar de observaciones de los mecanismos cerebrales, también están inspirados biológicamente, aunque de una manera diferente.
Ejemplos notables
Samsonovich et al. y está disponible como repositorio en línea. Algunas arquitecturas cognitivas conocidas, en orden alfabético:
- 4CAPS , desarrollado en la Universidad Carnegie Mellon por Marcel A. Just y Sashank Varma.
- 4D-RCS Reference Model Architecture desarrollada por James Albus en NIST es una arquitectura de modelo de referencia que proporciona una base teórica para diseñar, diseñar e integrar software de sistemas inteligentes para vehículos terrestres no tripulados .
- ACT-R , desarrollado en la Universidad Carnegie Mellon bajo la dirección de John R. Anderson .
- ALifeE , desarrollado por Toni Conde en la Ecole Polytechnique Fédérale de Lausanne .
- ANCS , un modelo cognitivo fue desarrollado por Abdul Salam Mubashar en QUINTELLISENSE.
- Apex desarrollado por Michael Freed en el Centro de Investigación Ames de la NASA .
- OMAPE , desarrollado por Rony Novianto en la Universidad de Tecnología de Sydney .
- Diseño orientado al comportamiento , desarrollado por Joanna J. Bryson en MIT .
- CHREST , desarrollado por Fernand Gobet en la Universidad de Brunel y Peter C. Lane en la Universidad de Hertfordshire .
- CLARION la arquitectura cognitiva, desarrollada bajo Ron Sun en el Instituto Politécnico Rensselaer y la Universidad de Missouri.
- CMAC : el controlador de articulación del modelo cerebeloso (CMAC) es un tipo de red neuronal basada en un modelo del cerebelo de los mamíferos . Es un tipo de memoria asociativa . El CMAC fue propuesto por primera vez como un modelador de funciones para controladores robóticos por James Albus en 1975 y se ha utilizado ampliamente en el aprendizaje por refuerzo y también en la clasificación automatizada en la comunidad de aprendizaje automático .
- CMatie es un agente de software "consciente" desarrollado para gestionar anuncios de seminarios en el Departamento de Ciencias Matemáticas de la Universidad de Memphis . Se basa en una memoria distribuida dispersa aumentada con el uso de algoritmos genéticos como memoria asociativa .
- Copycat , de Douglas Hofstadter y Melanie Mitchell en la Universidad de Indiana .
- DUAL , desarrollado en la Nueva Universidad Búlgara bajo la dirección de Boicho Kokinov .
- DUAL PECCS , desarrollado bajo Antonio Lieto en la Universidad de Turín - Un sistema híbrido de representación y procesamiento del conocimiento integrado con las memorias declarativas y los mecanismos de recuperación del conocimiento de las siguientes arquitecturas cognitivas: ACT-R , CLARION , LIDA y Soar .
- EPIC, desarrollado por David E. Kieras y David E. Meyer en la Universidad de Michigan .
- FORR desarrollado por Susan L. Epstein en The City University of New York .
- Framsticks : una arquitectura neuronal distribuida conexionista para criaturas o robots simulados, donde se pueden diseñar y desarrollar módulos de redes neuronales compuestas por neuronas heterogéneas (incluidos receptores y efectores).
- GAIuS desarrollado por Sevak Avakians.
- Genie - "Motor de inteligencia en red en evolución general" es una plataforma de computación cognitiva desarrollada por Intelligent Artifacts y construida sobre GAIuS. Su paradigma "sin modelado de datos" y sus simples llamadas a API permiten a cualquier persona crear e implementar potentes aplicaciones de inteligencia artificial personalizadas en cuestión de minutos.
- Google DeepMind : la compañía ha creado una red neuronal que aprende a jugar videojuegos de manera similar a los humanos y una red neuronal que puede acceder a una memoria externa como una máquina de Turing convencional , lo que resulta en una computadora que parece posiblemente imitar la memoria a corto plazo del cerebro humano. El algoritmo subyacente se basa en una combinación de Q-learning con una red neuronal recurrente multicapa . (Consulte también una descripción general de Jürgen Schmidhuber sobre trabajos anteriores relacionados con el aprendizaje profundo )
- La memoria asociativa holográfica es parte de la familia de memorias asociativas basadas en correlación , donde la información se mapea en la orientación de fase de números complejos en un plano de Riemann . Se inspiró en el modelo de cerebro holonómico de Karl H. Pribram . Se ha demostrado que los hológrafos son efectivos para tareas de memoria asociativa , generalización y reconocimiento de patrones con atención cambiante.
- La arquitectura H-Cogaff , que es un caso especial del esquema CogAff .
- La memoria temporal jerárquica es un modelo de aprendizaje automático en línea desarrollado por Jeff Hawkins y Dileep George de Numenta, Inc. que modela algunas de las propiedades estructurales y algorítmicas del neocórtex . HTM es un modelo biomimético basado en la teoría de predicción de la memoria de la función cerebral descrita por Jeff Hawkins en su libro On Intelligence . HTM es un método para descubrir e inferir las causas de alto nivel de los patrones y secuencias de entrada observados, construyendo así un modelo cada vez más complejo del mundo.
- CoJACK Una extensión inspirada en ACT-R del sistema de agentes múltiples JACK que agrega una arquitectura cognitiva a los agentes para provocar comportamientos más realistas (similares a los humanos) en entornos virtuales.
- IDA y LIDA , implementando la teoría del espacio de trabajo global , desarrollada por Stan Franklin en la Universidad de Memphis .
- Memory Networks : creado por el grupo de investigación de Facebook AI en 2014, esta arquitectura presenta una nueva clase de modelos de aprendizaje llamados redes de memoria. Las redes de memoria razonan con componentes de inferencia combinados con un componente de memoria a largo plazo ; aprenden a utilizarlos conjuntamente. La memoria a largo plazo se puede leer y escribir, con el objetivo de usarla para la predicción.
- MANIC (Arquitectura cognitiva) , Michael S. Gashler, Universidad de Arkansas.
- MIDCA (Arquitectura cognitiva) , Michael T. Cox, Universidad Estatal de Wright.
- PreAct , desarrollado bajo el Dr. Norm Geddes en ASI.
- PRODIGY , de Veloso et al.
- 'Sistema de razonamiento procedimental' de PRS , desarrollado por Michael Georgeff y Amy Lansky en SRI International .
- Psi-Theory desarrollada con Dietrich Dörner en la Universidad Otto-Friedrich en Bamberg , Alemania .
- R-CAST , desarrollado en la Universidad Estatal de Pensilvania .
- Sigma , desarrollado en la Universidad del Sur de California 's Instituto de Tecnologías Creativas
- Spaun (Red Unificada de Arquitectura de Punteros Semánticos) - por Chris Eliasmith en el Centro de Neurociencia Teórica de la Universidad de Waterloo - Spaun es una red de 2,500,000 neuronas de picos artificiales , que usa grupos de estas neuronas para completar tareas cognitivas a través de una coordinación flexible. Los componentes del modelo se comunican usando neuronas de picos que implementan representaciones neuronales llamadas "punteros semánticos" usando varios patrones de activación. Los punteros semánticos pueden entenderse como elementos de un espacio vectorial neuronal comprimido.
- Soar , desarrollado bajo Allen Newell y John Laird en la Universidad Carnegie Mellon y la Universidad de Michigan .
- Sociedad de la mente y su sucesora la máquina de la emoción propuesta por Marvin Minsky .
- Pentti Kanerva en el Centro de Investigación Ames de la NASA propuso la memoria distribuida dispersa como una arquitectura realizable que podría almacenar patrones grandes y recuperarlos basándose en coincidencias parciales con patrones que representan entradas sensoriales actuales. Esta memoria exhibe comportamientos, tanto en teoría como en experimentos, que se asemejan a los que las máquinas no habían abordado previamente; por ejemplo, reconocimiento rápido de rostros u olores, descubrimiento de nuevas conexiones entre ideas aparentemente no relacionadas, etc. La memoria distribuida escasa se utiliza para almacenar y recuperar grandes cantidades ( bits ) de información sin centrarse en la precisión sino en la similitud de la información. Existen algunas aplicaciones recientes en la navegación de robots y la manipulación de robots basada en la experiencia.
- Sparsey de Neurithmic Systems es un marco de reconocimiento de eventos a través de códigos distribuidos dispersos jerárquicos profundos
- Arquitecturas de subsunción , desarrolladas, por ejemplo, por Rodney Brooks (aunque se podría argumentar si son cognitivas ).
- QuBIC: Arquitectura cognitiva cuántica y bioinspirada para la conciencia de las máquinas desarrollada por Wajahat M. Qazi y Khalil Ahmad en el Departamento de Ciencias de la Computación, Universidad GC Lahore Pakistán y Escuela de Ciencias de la Computación, NCBA & E Lahore, Pakistán
- TinyCog, una implementación minimalista de código abierto de una arquitectura cognitiva basada en las ideas del razonamiento basado en escenas
- Vector LIDA es una variación de la arquitectura cognitiva LIDA que emplea vectores de Representación compuesta modular (MCR) de alta dimensión como su modelo de representación principal y Memoria distribuida dispersa entera como su tecnología de implementación de memoria principal. Las ventajas de este nuevo modelo incluyen un modelo más realista y biológicamente plausible, una mejor integración con su memoria episódica , una mejor integración con otros procesos perceptivos de bajo nivel (como los sistemas de aprendizaje profundo ), una mejor escalabilidad y mecanismos de aprendizaje más fáciles.
- VisNet de Edmund Rolls en el Oxford Center for Computational Neuroscience: un modelo de jerarquía de características en el que se pueden construir representaciones invariantes mediante el aprendizaje autoorganizado basado en las estadísticas temporales y espaciales de la información visual producida por los objetos a medida que se transforman en el mundo.
Ver también
- Cerebro artificial
- Conciencia artificial
- Agente autónomo
- Arquitecturas cognitivas de inspiración biológica
- Proyecto Blue Brain
- Iniciativa BRAIN
- Comparación de arquitectura cognitiva
- Computación cognitiva
- Ciencia cognitiva
- Razonamiento de sentido común
- Arquitectura de Computadores
- Espacio conceptual
- Aprendizaje profundo
- Google Brain
- Esquema de imagen
- Nivel de conocimiento
- Neocognitron
- Correlatos neuronales de la conciencia
- Arquitectura Pandemonium
- Realidad simulada
- Simulación social
- Teoría unificada de la cognición
- Aprendizaje de idiomas sin fin
- Cerebro bayesiano
- Sentido común de mente abierta
Referencias
enlaces externos
- Medios relacionados con la arquitectura cognitiva en Wikimedia Commons
- Citas relacionadas con la arquitectura cognitiva en Wikiquote