Teoría computacional de la mente - Computational theory of mind

En filosofía de la mente , la teoría computacional de la mente ( CTM ), también conocida como computacionalismo , es una familia de puntos de vista que sostienen que la mente humana es un sistema de procesamiento de información y que la cognición y la conciencia juntas son una forma de computación . Warren McCulloch y Walter Pitts (1943) fueron los primeros en sugerir que la actividad neuronal es computacional. Argumentaron que los cálculos neuronales explican la cognición . La teoría fue propuesta en su forma moderna por Hilary Putnam en 1967, y desarrollada por su estudiante de doctorado, filósofo y científico cognitivo Jerry Fodor en las décadas de 1960, 1970 y 1980. A pesar de haber sido vigorosamente discutido en la filosofía analítica en la década de 1990 debido al trabajo del propio Putnam, John Searle y otros, el punto de vista es común en la psicología cognitiva moderna y muchos teóricos de la psicología evolutiva lo presumen . En las décadas de 2000 y 2010, la visión ha resurgido en la filosofía analítica (Scheutz 2003, Edelman 2008).

La teoría computacional de la mente sostiene que la mente es un sistema computacional que se realiza (es decir, se implementa físicamente) mediante la actividad neuronal en el cerebro. La teoría puede elaborarse de muchas formas y varía en gran medida según cómo se entienda el término computación. La computación se entiende comúnmente en términos de máquinas de Turing que manipulan símbolos de acuerdo con una regla, en combinación con el estado interno de la máquina. El aspecto crítico de tal modelo computacional es que podemos abstraernos de los detalles físicos particulares de la máquina que está implementando el cálculo. Por ejemplo, el cálculo adecuado podría implementarse mediante chips de silicio o redes neuronales biológicas, siempre que exista una serie de salidas basadas en manipulaciones de entradas y estados internos, realizadas de acuerdo con una regla. CTM, por lo tanto, sostiene que la mente no es simplemente análoga a un programa de computadora, sino que es literalmente un sistema computacional.

A menudo se dice que las teorías computacionales de la mente requieren representación mental porque la "entrada" en un cálculo viene en forma de símbolos o representaciones de otros objetos. Una computadora no puede calcular un objeto real, pero debe interpretar y representar el objeto de alguna forma y luego calcular la representación. La teoría computacional de la mente está relacionada con la teoría representacional de la mente en que ambas requieren que los estados mentales sean representaciones. Sin embargo, la teoría de la representación de la mente cambia el enfoque hacia los símbolos que se manipulan. Este enfoque explica mejor la sistematización y la productividad. En los puntos de vista originales de Fodor, la teoría computacional de la mente también está relacionada con el lenguaje del pensamiento . La teoría del lenguaje del pensamiento permite a la mente procesar representaciones más complejas con la ayuda de la semántica. (Ver más abajo en semántica de estados mentales).

Un trabajo reciente ha sugerido que hagamos una distinción entre la mente y la cognición. Partiendo de la tradición de McCulloch y Pitts, la teoría computacional de la cognición (CTC) establece que los cálculos neuronales explican la cognición. La teoría computacional de la mente afirma que no solo la cognición, sino también la conciencia fenoménica o qualia , son computacionales. Es decir, CTM implica CTC. Si bien la conciencia fenoménica podría cumplir algún otro papel funcional, la teoría computacional de la cognición deja abierta la posibilidad de que algunos aspectos de la mente no sean computacionales. Por lo tanto, CTC proporciona un marco explicativo importante para comprender las redes neuronales, al tiempo que evita contraargumentos que se centran en la conciencia fenomenal.

"Metáfora de la computadora"

La teoría computacional de la mente no es lo mismo que la metáfora de la computadora, que compara la mente con una computadora digital moderna. La teoría computacional simplemente usa algunos de los mismos principios que se encuentran en la computación digital. Mientras que la metáfora de la computadora establece una analogía entre la mente como software y el cerebro como hardware, la CTM es la afirmación de que la mente es un sistema computacional. Más específicamente, establece que una simulación computacional de una mente es suficiente para la presencia real de una mente, y que una mente realmente puede ser simulada computacionalmente.

"Sistema computacional" no significa una computadora electrónica moderna. Más bien, un sistema computacional es un manipulador de símbolos que sigue funciones paso a paso para calcular la entrada y la salida de la forma. Alan Turing describe este tipo de computadora en su concepto de máquina de Turing .

Primeros proponentes

Uno de los primeros defensores de la teoría computacional de la mente fue Thomas Hobbes , quien dijo: "por razonamiento, entiendo la computación. Y computar es recolectar la suma de muchas cosas sumadas al mismo tiempo, o saber el resto cuando una cosa ha sido quitada de otra. Razonar, por tanto, es lo mismo que sumar o restar ". Dado que Hobbes vivió antes de la identificación contemporánea de la computación con la instanciación de procedimientos efectivos, no se puede interpretar que respalde explícitamente la teoría computacional de la mente, en el sentido contemporáneo.

Cuadro causal de pensamientos

En el corazón de la teoría computacional de la mente se encuentra la idea de que los pensamientos son una forma de cálculo, y un cálculo es, por definición, un conjunto sistemático de reglas para las relaciones entre representaciones. Esto significa que un estado mental representa algo si y solo si existe alguna correlación causal entre el estado mental y esa cosa en particular. Un ejemplo sería ver nubes oscuras y pensar "las nubes significan lluvia", donde existe una correlación entre el pensamiento de las nubes y la lluvia, ya que las nubes causan lluvia. Esto a veces se conoce como significado natural . Por el contrario, hay otro lado de la causalidad de los pensamientos y esa es la representación no natural de los pensamientos. Un ejemplo sería ver un semáforo en rojo y pensar "rojo significa detenerse", no hay nada en el color rojo que indique que representa detenerse y, por lo tanto, es solo una convención que se ha inventado, similar a los lenguajes y sus habilidades para formar representaciones. .

Semántica de estados mentales

La teoría computacional de la mente establece que la mente funciona como un operador simbólico y que las representaciones mentales son representaciones simbólicas; Así como la semántica del lenguaje son las características de las palabras y las oraciones que se relacionan con su significado, la semántica de los estados mentales son los significados de las representaciones, las definiciones de las "palabras" del lenguaje del pensamiento . Si estos estados mentales básicos pueden tener un significado particular al igual que las palabras en un idioma, entonces esto significa que se pueden crear estados mentales más complejos (pensamientos), incluso si nunca antes se han encontrado. Así como las oraciones nuevas que se leen pueden entenderse incluso si nunca se han encontrado antes, siempre que se comprendan los componentes básicos y sea sintácticamente correcto. Por ejemplo: "He comido budín de ciruelas todos los días de esta quincena". Si bien es dudoso que muchos hayan visto esta configuración particular de palabras, no obstante, la mayoría de los lectores deberían poder obtener una comprensión de esta oración porque es sintácticamente correcta y se entienden las partes constituyentes.

Crítica

Se han propuesto una serie de argumentos contra las concepciones fisicalistas utilizadas en las teorías computacionales de la mente.

Una crítica temprana, aunque indirecta, de la teoría computacional de la mente proviene del filósofo John Searle . En su experimento mental conocido como la habitación china , Searle intenta refutar las afirmaciones de que se puede decir que los agentes artificialmente inteligentes tienen intencionalidad y comprensión y que estos sistemas, debido a que se puede decir que son mentes en sí mismas, son suficientes para el estudio de la realidad. mente humana. Searle nos pide que imaginemos que hay un hombre en una habitación sin forma de comunicarse con nadie ni con nada fuera de la habitación, excepto por un trozo de papel con símbolos escritos que se pasa por debajo de la puerta. Con el papel, el hombre debe utilizar una serie de libros de reglas proporcionados para devolver papel que contenga diferentes símbolos. Desconocido para el hombre en la habitación, estos símbolos son de un idioma chino, y este proceso genera una conversación que un hablante chino fuera de la habitación realmente puede entender. Searle sostiene que el hombre de la habitación no comprende la conversación en chino. Esto es esencialmente lo que nos presenta la teoría computacional de la mente: un modelo en el que la mente simplemente decodifica símbolos y genera más símbolos. Searle sostiene que esto no es comprensión o intencionalidad real. Esto fue escrito originalmente como un repudio a la idea de que las computadoras funcionan como mentes.

Searle también ha planteado preguntas sobre qué constituye exactamente un cálculo:

la pared detrás de mi espalda ahora está implementando el programa WordStar , porque hay algún patrón de movimientos de moléculas que es isomorfo con la estructura formal de WordStar. Pero si el muro está implementando WordStar, si es un muro lo suficientemente grande, está implementando cualquier programa, incluido cualquier programa implementado en el cerebro.

Objeciones como las de Searle podrían llamarse objeciones por insuficiencia. Afirman que las teorías computacionales de la mente fallan porque la computación es insuficiente para dar cuenta de alguna capacidad de la mente. Los argumentos de los qualia, como el argumento del conocimiento de Frank Jackson , pueden entenderse como objeciones a las teorías computacionales de la mente de esta manera, aunque apuntan a las concepciones fisicalistas de la mente en general, y no a las teorías computacionales específicamente.

También hay objeciones que se adaptan directamente a las teorías computacionales de la mente.

El propio Putnam (véase en particular Representación y realidad y la primera parte de Filosofía renovadora ) se convirtió en un destacado crítico del computacionalismo por una variedad de razones, incluidas las relacionadas con los argumentos de la sala china de Searle, cuestiones de relaciones de referencia entre palabras del mundo y pensamientos sobre el relación cuerpo-mente. Con respecto al funcionalismo en particular, Putnam ha afirmado en líneas similares, pero más generales que los argumentos de Searle, que la cuestión de si la mente humana puede implementar estados computacionales no es relevante para la cuestión de la naturaleza de la mente, porque "todo sistema abierto ordinario realiza cada autómata finito abstracto ". Los computacionalistas han respondido con el objetivo de desarrollar criterios que describan qué cuenta exactamente como una implementación.

Roger Penrose ha propuesto la idea de que la mente humana no utiliza un procedimiento de cálculo conocido y sólido para comprender y descubrir las complejidades matemáticas. Esto significaría que una computadora completa de Turing normal no sería capaz de determinar ciertas verdades matemáticas que las mentes humanas pueden.

Pancomputacionalismo

Los partidarios de la CTM se enfrentan a una pregunta simple pero importante cuya respuesta ha resultado esquiva y controvertida: ¿qué se necesita para que un sistema físico (como una mente o una computadora artificial) realice cálculos? Una explicación muy sencilla se basa en un mapeo simple entre cálculos matemáticos abstractos y sistemas físicos: un sistema realiza el cálculo C si y solo si hay un mapeo entre una secuencia de estados individualizados por C y una secuencia de estados individualizados por una descripción física de el sistema

Putnam (1988) y Searle (1992) argumentan que esta simple explicación cartográfica (SMA) trivializa la importancia empírica de las descripciones computacionales. Como dijo Putnam, "todo es un autómata probabilístico bajo alguna descripción". Incluso las rocas, las paredes y los cubos de agua, contrariamente a las apariencias, son sistemas informáticos. Gualtiero Piccinini identifica diferentes versiones del pancomputacionalismo.

En respuesta a la crítica de la trivialización y para restringir la SMA, los filósofos de la mente han ofrecido diferentes versiones de los sistemas computacionales. Estos suelen incluir explicación causal, explicación semántica, explicación sintáctica y explicación mecanicista. En lugar de una restricción semántica, la explicación sintáctica impone una restricción sintáctica. La cuenta mecanicista fue introducida por primera vez por Gualtiero Piccinini en 2007.

Eruditos destacados

  • Daniel Dennett propuso el modelo de borradores múltiples , en el que la conciencia parece lineal pero en realidad es borrosa y entrecortada, distribuida en el espacio y el tiempo del cerebro. La conciencia es la computación, no hay un paso extra o " teatro cartesiano " en el que te vuelvas consciente de la computación.
  • Jerry Fodor sostiene que los estados mentales, como las creencias y los deseos, son relaciones entre individuos y representaciones mentales. Sostiene que estas representaciones solo pueden explicarse correctamente en términos de un lenguaje de pensamiento (LOT) en la mente. Además, este lenguaje del pensamiento en sí mismo está codificado en el cerebro, no solo una herramienta explicativa útil. Fodor se adhiere a una especie de funcionalismo, sosteniendo que el pensamiento y otros procesos mentales consisten principalmente en cálculos que operan sobre la sintaxis de las representaciones que componen el lenguaje del pensamiento. En trabajos posteriores ( Concepts y The Elm and the Expert ), Fodor ha refinado e incluso cuestionado algunas de sus opiniones computacionalistas originales, y adoptó una versión altamente modificada de LOT (ver LOT2 ).
  • David Marr propuso que los procesos cognitivos tienen tres niveles de descripción: el nivel computacional (que describe ese problema computacional (es decir, mapeo de entrada / salida) calculado por el proceso cognitivo); el nivel algorítmico (que presenta el algoritmo utilizado para calcular el problema postulado a nivel computacional); y el nivel de implementación (que describe la implementación física del algoritmo postulado a nivel algorítmico en materia biológica, por ejemplo, el cerebro). (Marzo de 1981)
  • Ulric Neisser acuñó el término "psicología cognitiva" en su libro publicado en 1967 ( Psicología cognitiva ), donde Neisser caracteriza a las personas como sistemas dinámicos de procesamiento de información cuyas operaciones mentales podrían describirse en términos computacionales.
  • Steven Pinker describió un "instinto del lenguaje", una capacidad incorporada y evolucionada para aprender el lenguaje (si no escribir).
  • Hilary Putnam propuso el funcionalismo para describir la conciencia, afirmando que es el cálculo lo que equivale a la conciencia, independientemente de si el cálculo está operando en un cerebro, en una computadora o en un "cerebro en una cubeta".
  • Georges Rey , profesor de la Universidad de Maryland , se basa en la teoría representacional de la mente de Jerry Fodor para producir su propia versión de una teoría computacional / representacional del pensamiento.

Teorías alternativas

Ver también

Notas

Referencias

  • Ned Block, ed. (1983). Lecturas en Filosofía de la Psicología, Volumen 1. Cambridge, Massachusetts: Harvard University Press.
  • Tim Crane (2003). La mente mecánica: una introducción filosófica a las mentes, las máquinas y la representación mental. Nueva York, NY: Routledge.
  • Shimon Edelman (2008) Computación de la mente: cómo funciona realmente la mente .
  • Jerry Fodor (1975) El lenguaje del pensamiento. Cambridge, Massachusetts: The MIT Press .
  • Jerry Fodor (1995) El olmo y el experto: mentalés y su semántica. Cambridge, Massachusetts: The MIT Press.
  • Jerry Fodor (1998) Conceptos: Donde la ciencia cognitiva salió mal. Oxford y Nueva York: Oxford University Press.
  • Jerry Fodor (2010) LOT2: El lenguaje del pensamiento revisitado. Oxford y Nueva York: Oxford University Press.
  • C. Randy Gallistel Aprendizaje y representación. En R. Menzel (Ed) Teoría y comportamiento del aprendizaje. Vol. 1 de Aprendizaje y memoria: una referencia completa. 4 volúmenes (J. Byrne, Ed). Oxford: Elsevier. págs. 227–242.
  • Harnad, Stevan (1994). "La computación es sólo manipulación de símbolos interpretable: la cognición no lo es" . Mentes y Máquinas . 4 (4): 379–390. doi : 10.1007 / bf00974165 . S2CID  230344 .
  • David Marr (1981) Visión: una investigación computacional sobre la representación humana y el procesamiento de la información visual. Cambridge, Massachusetts: The MIT Press.
  • Steven Pinker (1997) Cómo funciona la mente .
  • Hilary Putnam (1979) Matemáticas, materia y método: artículos filosóficos, vol. 1. Cambridge, Massachusetts: The MIT Press.
  • Hilary Putnam (1991) Representación y realidad. Cambridge, Massachusetts: The MIT Press.
  • Hilary Putnam (1995) Renovando la filosofía. Cambridge, Massachusetts: Harvard University Press.
  • Zenon Pylyshyn (1984) Computación y cognición. Cambridge, Massachusetts: The MIT Press.
  • Matthias Scheutz, ed. (2003) Computacionalismo: nuevas direcciones. Cambridge, Massachusetts: The MIT Press.
  • John Searle (1992) El redescubrimiento de la mente. Cambridge, Massachusetts: The MIT Press.
  • Gualtiero Piccinini (2015). Computación física: una cuenta mecanicista . Nueva York, Oxford University Press.
  • Gualtiero Piccinini (2017) "Computación en sistemas físicos", The Stanford Encyclopedia of Philosophy (Edición de verano de 2017), Edward N. Zalta (ed.), URL = <https://plato.stanford.edu/archives/sum2017/entries / computation-physicalsystems />.

enlaces externos