Conciencia artificial - Artificial consciousness

La conciencia artificial ( CA ), también conocida como conciencia de máquina ( MC ) o conciencia sintética ( Gamez 2008 ; Reggia 2013 ), es un campo relacionado con la inteligencia artificial y la robótica cognitiva . El objetivo de la teoría de la conciencia artificial es "Definir lo que tendría que sintetizarse si la conciencia se encontrara en un artefacto diseñado" ( Aleksander 1995 ).

La neurociencia plantea la hipótesis de que la conciencia se genera por la interoperación de varias partes del cerebro , llamadas correlatos neuronales de la conciencia o NCC, aunque existen desafíos a esa perspectiva. Los defensores de AC creen que es posible construir sistemas (por ejemplo, sistemas informáticos ) que puedan emular esta interoperación de NCC.

Los conceptos de conciencia artificial también se reflexionan en la filosofía de la inteligencia artificial a través de preguntas sobre la mente, la conciencia y los estados mentales .

Puntos de vista filosóficos

Como hay muchos tipos de conciencia hipotéticos , existen muchas implementaciones potenciales de la conciencia artificial. En la literatura filosófica, quizás la taxonomía más común de la conciencia es la de variantes de "acceso" y "fenomenales". La conciencia de acceso se refiere a aquellos aspectos de la experiencia que pueden ser aprehendidos, mientras que la conciencia fenoménica se refiere a aquellos aspectos de la experiencia que aparentemente no pueden ser aprehendidos, sino que se caracterizan cualitativamente en términos de "sensaciones crudas", "cómo es" o cualia ( Block 1997 ) .

Debate de plausibilidad

Los teóricos de la identidad de tipo y otros escépticos sostienen la opinión de que la conciencia solo puede realizarse en sistemas físicos particulares porque la conciencia tiene propiedades que necesariamente dependen de la constitución física ( Block 1978 ; Bickle 2003 ).

En su artículo "Conciencia artificial: utopía o posibilidad real", Giorgio Buttazzo dice que una objeción común a la conciencia artificial es que "trabajando en un modo totalmente automatizado, ellos [las computadoras] no pueden exhibir creatividad, desprogramación (lo que significa que ya no pueden ser reprogramado, desde repensar), emociones, o libre albedrío . Una computadora, como una lavadora, es un esclavo operado por sus componentes ".

Para otros teóricos (p. Ej., Funcionalistas ), que definen los estados mentales en términos de roles causales, cualquier sistema que pueda instanciar el mismo patrón de roles causales, independientemente de la constitución física, instanciará los mismos estados mentales, incluida la conciencia ( Putnam 1967 ).

Argumento de la base computacional

Uno de los argumentos más explícitos para la plausibilidad de AC proviene de David Chalmers . Su propuesta, que se encuentra en su artículo Chalmers 2011 , es aproximadamente que los tipos correctos de cálculos son suficientes para la posesión de una mente consciente. En el esquema, defiende su afirmación de la siguiente manera: las computadoras realizan cálculos. Los cálculos pueden capturar la organización causal abstracta de otros sistemas.

La parte más controvertida de la propuesta de Chalmers es que las propiedades mentales son "organizacionalmente invariantes". Las propiedades mentales son de dos tipos, psicológicas y fenomenológicas. Las propiedades psicológicas, como la creencia y la percepción, son aquellas que se "caracterizan por su papel causal". Se refiere al trabajo de Armstrong 1968 y Lewis 1972 al afirmar que "[s] y stems con la misma topología causal ... compartirán sus propiedades psicológicas".

Las propiedades fenomenológicas no se pueden definir prima facie en términos de sus roles causales. Por lo tanto, establecer que las propiedades fenomenológicas son susceptibles de individuación mediante un papel causal requiere un argumento. Chalmers proporciona su argumento Dancing Qualia para este propósito.

Chalmers comienza asumiendo que los agentes con organizaciones causales idénticas podrían tener experiencias diferentes. Luego nos pide que concibamos el cambio de un agente en otro mediante el reemplazo de partes (partes neuronales reemplazadas por silicio, por ejemplo) mientras se preserva su organización causal. Ex hypothesi, la experiencia del agente en transformación cambiaría (a medida que se reemplazaran las partes), pero no habría ningún cambio en la topología causal y, por lo tanto, no habría ningún medio por el cual el agente pudiera "notar" el cambio en la experiencia.

Los críticos de AC objetan que Chalmers plantea la pregunta al suponer que todas las propiedades mentales y conexiones externas están suficientemente capturadas por la organización causal abstracta.

Ética

Si se sospechara que una máquina en particular era consciente, sus derechos serían una cuestión ética que habría que evaluar (por ejemplo, qué derechos tendría según la ley). Por ejemplo, una computadora consciente que fue propiedad y se usó como herramienta o computadora central de un edificio de una máquina más grande es una ambigüedad particular. ¿Deberían elaborarse leyes para tal caso? La conciencia también requeriría una definición legal en este caso particular. Debido a que la conciencia artificial sigue siendo en gran medida un tema teórico, dicha ética no se ha discutido ni desarrollado en gran medida, aunque a menudo ha sido un tema de ficción (ver más abajo).

En 2021, el filósofo alemán Thomas Metzinger ha exigido una moratoria global de la fenomenología sintética hasta 2050, por motivos éticos.

Las reglas para el concurso del Premio Loebner 2003 abordaron explícitamente la cuestión de los derechos de los robots:

61. Si, en un año determinado, una Entrada de código abierto disponible públicamente ingresada por la Universidad de Surrey o el Centro de Cambridge gana la Medalla de plata o la Medalla de oro, entonces la Medalla y el Premio en efectivo se otorgarán al organismo responsable de la desarrollo de esa Entrada. Si no se puede identificar dicho organismo, o si hay un desacuerdo entre dos o más reclamantes, la Medalla y el Premio en efectivo se mantendrán en fideicomiso hasta el momento en que la Participación pueda poseer legalmente, ya sea en los Estados Unidos de América o en el lugar del concurso, el premio en efectivo y la medalla de oro por derecho propio .

Propuestas de investigación e implementación

Aspectos de la conciencia

Hay varios aspectos de la conciencia que generalmente se consideran necesarios para que una máquina sea consciente de forma artificial. Bernard Baars ( Baars 1988 ) y otros sugirieron una variedad de funciones en las que la conciencia juega un papel . Las funciones de la conciencia sugeridas por Bernard Baars son Definición y Contexto, Adaptación y Aprendizaje, Edición, Marcado y Depuración, Reclutamiento y Control, Priorización y Control de Acceso, Toma de Decisiones o Función Ejecutiva, Función de Formación de Analogía, Metacognitiva y Autocontrol. Función de supervisión y función de programación automática y mantenimiento automático. Igor Aleksander sugirió 12 principios para la conciencia artificial ( Aleksander 1995 ) y estos son: El cerebro es una máquina de estados, Partición de neuronas internas, Estados conscientes e inconscientes, Aprendizaje y memoria perceptivos, Predicción, Conciencia de uno mismo, Representación del significado, Expresiones de aprendizaje , Aprendiendo Lenguaje, Voluntad, Instinto y Emoción. El objetivo de AC es definir si estos y otros aspectos de la conciencia pueden sintetizarse en un artefacto diseñado como una computadora digital y cómo. Esta lista no es exhaustiva; hay muchos otros no cubiertos.

Conciencia

La conciencia podría ser un aspecto necesario, pero existen muchos problemas con la definición exacta de conciencia . Los resultados de los experimentos de neuroescaneo en monos sugieren que un proceso, no solo un estado u objeto, activa neuronas. La conciencia incluye crear y probar modelos alternativos de cada proceso basados ​​en la información recibida a través de los sentidos o imaginada, y también es útil para hacer predicciones. Este modelo necesita mucha flexibilidad. La creación de un modelo de este tipo incluye el modelado del mundo físico, el modelado de los propios estados y procesos internos y el modelado de otras entidades conscientes.

Hay al menos tres tipos de conciencia: conciencia de agencia, conciencia de objetivo y conciencia sensoriomotora, que también puede ser consciente o no. Por ejemplo, en la conciencia de la agencia, puede ser consciente de que realizó una determinada acción ayer, pero ahora no es consciente de ello. En la conciencia de la meta, puede ser consciente de que debe buscar un objeto perdido, pero ahora no es consciente de él. En la conciencia sensoriomotora, es posible que se dé cuenta de que su mano descansa sobre un objeto, pero ahora no es consciente de ello.

Al Byrd, el autor de Superhuman Creators, define la conciencia, para animales, humanos y agentes artificiales, como el efecto de integrar y filtrar muchos tipos diferentes de conciencia de la capacidad; es decir, conciencia de las posibilidades de acción en un entorno. Según esta definición, todos los agentes que pueden percibir y actuar sobre las posibilidades son conscientes hasta cierto punto.

Debido a que los objetos de la conciencia son a menudo conscientes, la distinción entre conciencia y conciencia suele ser borrosa o se utilizan como sinónimos.

Memoria

Los eventos conscientes interactúan con los sistemas de memoria en el aprendizaje, el ensayo y la recuperación. El modelo IDA aclara el papel de la conciencia en la actualización de la memoria perceptiva, la memoria episódica transitoria y la memoria procedimental . Las memorias transitorias episódicas y declarativas tienen representaciones distribuidas en IDA, hay evidencia de que este también es el caso en el sistema nervioso. En la AIF, estas dos memorias son implementadas computacionalmente usando una versión modificada del Kanerva ‘s de memoria distribuida escasa arquitectura.

Aprendiendo

El aprendizaje también se considera necesario para AC. Según Bernard Baars, la experiencia consciente es necesaria para representar y adaptarse a eventos nuevos y significativos ( Baars 1988 ). Por Axel Cleeremans y Luis Jiménez, el aprendizaje se define como "un conjunto de procesos de adaptación filogenéticamente avanzados [ sic ] que dependen críticamente de una sensibilidad evolucionada a la experiencia subjetiva para permitir a los agentes permitir un control flexible sobre sus acciones en entornos complejos e impredecibles". ( Cleeremans 2001 ).

Anticipación

Igor Aleksander considera importante para AC la capacidad de predecir (o anticipar ) eventos previsibles . El principio emergentista de múltiples borradores propuesto por Daniel Dennett en Consciousness Explained puede ser útil para la predicción: implica la evaluación y selección del "borrador" más apropiado para adaptarse al entorno actual. La anticipación incluye la predicción de las consecuencias de las propias acciones propuestas y la predicción de las consecuencias de las acciones probables de otras entidades.

Las relaciones entre los estados del mundo real se reflejan en la estructura de estados de un organismo consciente que permite al organismo predecir eventos. Una máquina artificialmente consciente debe poder anticipar eventos correctamente para estar lista para responder a ellos cuando ocurran o tomar medidas preventivas para evitar eventos anticipados. La implicación aquí es que la máquina necesita componentes flexibles en tiempo real que construyan modelos espaciales, dinámicos, estadísticos, funcionales y de causa-efecto del mundo real y mundos predichos, lo que le permitirá demostrar que posee una conciencia artificial en el presente. y futuro y no solo en el pasado. Para hacer esto, una máquina consciente debe hacer predicciones coherentes y planes de contingencia, no solo en mundos con reglas fijas como un tablero de ajedrez, sino también para entornos novedosos que pueden cambiar, para ser ejecutados solo cuando sea apropiado para simular y controlar lo real. mundo.

Experiencia subjetiva

Las experiencias subjetivas o qualia son ampliamente consideradas como el difícil problema de la conciencia . De hecho, se considera que plantea un desafío al fisicalismo , y mucho menos al computacionalismo . Por otro lado, existen problemas en otros campos de la ciencia que limitan lo que podemos observar, como el principio de incertidumbre en la física, que no han hecho imposible la investigación en estos campos de la ciencia.

Papel de las arquitecturas cognitivas

El término "arquitectura cognitiva" puede referirse a una teoría sobre la estructura de la mente humana, o cualquier parte o función de la misma, incluida la conciencia. En otro contexto, una arquitectura cognitiva implementa la teoría en las computadoras. Un ejemplo es QuBIC: Arquitectura cognitiva cuántica y bioinspirada para la conciencia de la máquina . Uno de los principales objetivos de una arquitectura cognitiva es resumir los diversos resultados de la psicología cognitiva en un modelo informático integral. Sin embargo, los resultados deben estar en forma formalizada para que puedan ser la base de un programa de computadora. Además, el papel de la arquitectura cognitiva es que la IA estructure, construya e implemente claramente su proceso de pensamiento.

Propuestas simbólicas o híbridas

Agente de distribución inteligente de Franklin

Stan Franklin (1995, 2003) define un agente autónomo como poseedores de conciencia funcional cuando es capaz de varias de las funciones de la conciencia como identificado por Bernard Baars ' Global Teoría de área de trabajo (Baars  1988 , 1997 ). Su IDA (agente de distribución inteligente) es una implementación de software de GWT, que lo hace funcionalmente consciente por definición. La tarea de la IDA es negociar nuevas asignaciones para los marineros de la Marina de los EE. UU. Después de que finalicen un período de servicio, haciendo coincidir las habilidades y preferencias de cada individuo con las necesidades de la Marina. IDA interactúa con las bases de datos de la Marina y se comunica con los marineros a través de un diálogo de correo electrónico en lenguaje natural mientras obedece un amplio conjunto de políticas de la Marina. El modelo computacional IDA se desarrolló durante 1996–2001 en el Grupo de Investigación de Software "Conscious" de Stan Franklin en la Universidad de Memphis . "Consta de aproximadamente un cuarto de millón de líneas de código Java y consume casi por completo los recursos de una estación de trabajo de alta gama de 2001". Se basa en gran medida en codelets , que son "mini-agentes de propósito especial, relativamente independientes, generalmente implementados como una pequeña pieza de código que se ejecuta como un hilo independiente". En la arquitectura de arriba hacia abajo de IDA, las funciones cognitivas de alto nivel se modelan explícitamente (ver Franklin 1995 y Franklin 2003 para más detalles). Si bien IDA es funcionalmente consciente por definición, Franklin "no atribuye una conciencia fenomenal a su propio agente de software 'consciente', IDA, a pesar de sus muchos comportamientos similares a los humanos. Esto a pesar de ver a varios detallistas de la Marina de los EE. UU. Asentir repetidamente con la cabeza diciendo 'Sí, así es como lo hago' mientras observo las acciones internas y externas de IDA mientras realiza su tarea ". IDA se ha ampliado a LIDA (Learning Intelligent Distribution Agent).

Arquitectura cognitiva de Ron Sun CLARION

CLARION postula una representación de dos niveles que explica la distinción entre procesos mentales conscientes e inconscientes.

CLARION ha tenido éxito en dar cuenta de una variedad de datos psicológicos. Se han simulado varias tareas de aprendizaje de habilidades bien conocidas utilizando CLARION que abarcan un espectro que va desde habilidades reactivas simples hasta habilidades cognitivas complejas. Las tareas incluyen tareas de tiempo de reacción en serie (SRT), tareas de aprendizaje de gramática artificial (AGL), tareas de control de procesos (PC), la tarea de inferencia categórica (CI), la tarea de aritmética alfabética (AA) y la Torre de Hanoi (TOH) tarea ( Sun 2002 ) . Entre ellos, SRT, AGL y PC son tareas típicas de aprendizaje implícito, muy relevantes para el tema de la conciencia, ya que operacionalizaron la noción de conciencia en el contexto de experimentos psicológicos.

OpenCog de Ben Goertzel

Ben Goertzel está persiguiendo una AGI incorporada a través del proyecto OpenCog de código abierto . El código actual incluye mascotas virtuales incorporadas capaces de aprender comandos simples en inglés, así como la integración con la robótica del mundo real, que se realiza en la Universidad Politécnica de Hong Kong .

Propuestas conexionistas

Arquitectura cognitiva de Haikonen

Pentti Haikonen (2003) considera que la computación clásica basada en reglas es inadecuada para lograr CA: "el cerebro definitivamente no es una computadora. Pensar no es una ejecución de cadenas de comandos programadas. El cerebro tampoco es una calculadora numérica. No pensamos por números." En lugar de tratar de lograr la mente y la conciencia mediante la identificación y aplicación de sus reglas de cálculo subyacentes, Haikonen propone "una especial arquitectura cognitiva para reproducir los procesos de percepción , imaginería interior , el habla interna , el dolor , el placer , las emociones y los cognitivos funciones detrás de éstos. Este La arquitectura de abajo hacia arriba produciría funciones de nivel superior mediante el poder de las unidades de procesamiento elementales, las neuronas artificiales , sin algoritmos ni programas ". Haikonen cree que, cuando se implementa con la complejidad suficiente, esta arquitectura desarrollará la conciencia, que él considera que es "un estilo y una forma de operación, caracterizada por la representación de señales distribuidas, el proceso de percepción, los informes de modalidades cruzadas y la disponibilidad para la retrospección". Haikonen no está solo en esta visión de proceso de la conciencia, o en la visión de que la CA emergerá espontáneamente en agentes autónomos que tienen una arquitectura de complejidad neuroinspirada adecuada; estos son compartidos por muchos, por ejemplo, Freeman (1999) y Cotterill (2003) . Se informó que una implementación de baja complejidad de la arquitectura propuesta por Haikonen (2003) no era capaz de AC, pero mostró emociones como se esperaba. Consulte Doan (2009) para obtener una introducción completa a la arquitectura cognitiva de Haikonen. En Haikonen (2012) , Haikonen (2019) se ofrece una descripción actualizada de la arquitectura de Haikonen, junto con un resumen de sus puntos de vista filosóficos .

Arquitectura cognitiva de Shanahan

Murray Shanahan describe una arquitectura cognitiva que combina la idea de Baars de un espacio de trabajo global con un mecanismo de simulación interna ("imaginación") ( Shanahan 2006 ). Para discusiones sobre la arquitectura de Shanahan, consulte ( Gamez 2008 ) y ( Reggia 2013 ) y el Capítulo 20 de ( Haikonen 2012 ).

La investigación de la autoconciencia de Takeno

La autoconciencia en los robots está siendo investigada por Junichi Takeno en la Universidad Meiji en Japón. Takeno afirma que ha desarrollado un robot capaz de discriminar entre una imagen de sí mismo en un espejo y cualquier otra que tenga una imagen idéntica, y esta afirmación ya ha sido revisada ( Takeno, Inaba y Suzuki 2005 ). Takeno afirma que primero ideó el módulo computacional llamado MoNAD, que tiene una función de autoconciencia, y luego construyó el sistema de conciencia artificial formulando las relaciones entre las emociones, los sentimientos y la razón conectando los módulos en una jerarquía (Igarashi, Takeno 2007). Takeno completó un experimento de cognición de imagen especular utilizando un robot equipado con el sistema MoNAD. Takeno propuso la teoría del auto-cuerpo afirmando que "los humanos sienten que su propia imagen reflejada en el espejo está más cerca de ellos que de una parte real de sí mismos". El punto más importante en el desarrollo de la conciencia artificial o la clarificación de la conciencia humana es el desarrollo de una función de autoconciencia, y afirma que ha demostrado evidencia física y matemática de esto en su tesis. También demostró que los robots pueden estudiar episodios en la memoria donde se estimularon las emociones y utilizar esta experiencia para tomar acciones predictivas para prevenir la recurrencia de emociones desagradables (Torigoe, Takeno 2009).

La mente imposible de Aleksander

Igor Aleksander , profesor emérito de Ingeniería de Sistemas Neuronales en el Imperial College , ha investigado extensamente las redes neuronales artificiales y afirma en su libro Impossible Minds: My Neurons, My Consciousness que los principios para crear una máquina consciente ya existen, pero que tomaría cuarenta años para hacerlo. entrenar tal máquina para entender el lenguaje . Queda por demostrar si esto es cierto y el principio básico establecido en Impossible Minds —que el cerebro es una máquina de estados neuronales— está abierto a dudas.

Paradigma de la máquina de creatividad de Thaler

Stephen Thaler propuso una posible conexión entre conciencia y creatividad en su patente de 1994, denominada "Dispositivo para la generación autónoma de información útil" (DAGUI), o la llamada "Máquina de la creatividad", en la que los críticos computacionales gobiernan la inyección de ruido sináptico. y degradación en redes neuronales para inducir recuerdos falsos o confabulaciones que pueden calificar como ideas o estrategias potenciales. Recluta esta arquitectura y metodología neuronal para dar cuenta de la sensación subjetiva de la conciencia, afirmando que conjuntos neuronales similares impulsados ​​por ruido dentro del cerebro inventan un significado dudoso para la actividad cortical general. La teoría de Thaler y las patentes resultantes en la conciencia de la máquina se inspiraron en experimentos en los que interrumpió internamente redes neuronales entrenadas para impulsar una sucesión de patrones de activación neuronal que comparó con el flujo de la conciencia.

Esquema de atención de Michael Graziano

En 2011, Michael Graziano y Sabine Kastler publicaron un artículo titulado "La conciencia humana y su relación con la neurociencia social: una hipótesis novedosa" proponiendo una teoría de la conciencia como esquema de atención. Graziano pasó a publicar una discusión ampliada de esta teoría en su libro "La conciencia y el cerebro social". Esta Teoría del esquema de atención de la conciencia, como él la llamó, propone que el cerebro rastrea la atención a varias entradas sensoriales a través de un esquema de atención, análogo al esquema corporal bien estudiado que rastrea el lugar espacial del cuerpo de una persona. Esto se relaciona con la conciencia artificial al proponer un mecanismo específico de manejo de información, que produce lo que supuestamente experimentamos y describimos como conciencia, y que debería poder ser duplicado por una máquina usando la tecnología actual. Cuando el cerebro descubre que la persona X es consciente de la cosa Y, en efecto está modelando el estado en el que la persona X está aplicando una mejora atencional a Y. En la teoría del esquema de atención, el mismo proceso se puede aplicar a uno mismo. El cerebro rastrea la atención a varias entradas sensoriales, y la propia conciencia es un modelo esquematizado de la atención. Graziano propone ubicaciones específicas en el cerebro para este proceso y sugiere que tal conciencia es una característica computada construida por un sistema experto en el cerebro.

"Auto-modelado"

Hod Lipson define el "auto-modelado" como un componente necesario de la autoconciencia o conciencia en los robots. El "auto-modelado" consiste en un robot que ejecuta un modelo interno o una simulación de sí mismo .

Pruebas

El método más conocido para probar la inteligencia de las máquinas es la prueba de Turing . Pero cuando se interpreta como solo observacional, esta prueba contradice los principios de la filosofía de la ciencia de la dependencia teórica de las observaciones . También se ha sugerido que debe tomarse en serio la recomendación de Alan Turing de imitar no una conciencia humana adulta, sino una conciencia infantil humana.

Otras pruebas, como ConsScale , prueban la presencia de características inspiradas en sistemas biológicos o miden el desarrollo cognitivo de sistemas artificiales.

Qualia, o conciencia fenomenológica, es un fenómeno inherentemente en primera persona. Aunque varios sistemas pueden mostrar varios signos de comportamiento correlacionados con la conciencia funcional, no existe una forma concebible de que las pruebas en tercera persona puedan tener acceso a las características fenomenológicas en primera persona. Por eso, y porque no existe una definición empírica de conciencia, una prueba de presencia de conciencia en AC puede ser imposible.

En 2014, Victor Argonov sugirió una prueba que no era de Turing para la conciencia de la máquina basada en la capacidad de la máquina para producir juicios filosóficos. Argumenta que una máquina determinista debe considerarse consciente si es capaz de producir juicios sobre todas las propiedades problemáticas de la conciencia (como qualia o vinculante) sin tener un conocimiento filosófico innato (precargado) sobre estos temas, sin discusiones filosóficas mientras aprende, y no hay modelos informativos de otras criaturas en su memoria (tales modelos pueden contener implícita o explícitamente conocimiento sobre la conciencia de estas criaturas). Sin embargo, esta prueba solo puede usarse para detectar, pero no refutar la existencia de la conciencia. Un resultado positivo prueba que la máquina está consciente, pero un resultado negativo no prueba nada. Por ejemplo, la ausencia de juicios filosóficos puede deberse a la falta del intelecto de la máquina, no a la ausencia de conciencia.

En ficción

Personajes con conciencia artificial (o al menos con personalidades que implican tener conciencia), de obras de ficción:

Ver también

Referencias

Citas

Bibliografía

Otras lecturas

enlaces externos