Superinteligencia - Superintelligence

Una superinteligencia es un agente hipotético que posee una inteligencia que supera con creces la de las mentes humanas más brillantes y talentosas . La "superinteligencia" también puede referirse a una propiedad de los sistemas de resolución de problemas (p. Ej., Traductores de idiomas superinteligentes o asistentes de ingeniería) independientemente de que estas competencias intelectuales de alto nivel estén incorporadas en agentes que actúan en el mundo. Una superinteligencia puede o no ser creada por una explosión de inteligencia y asociada con una singularidad tecnológica .

El filósofo de la Universidad de Oxford, Nick Bostrom, define la superinteligencia como "cualquier intelecto que supere en gran medida el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés". El programa Fritz no alcanza a ser superinteligente, aunque es mucho mejor que los humanos en el ajedrez, porque Fritz no puede superar a los humanos en otras tareas. Siguiendo a Hutter y Legg, Bostrom trata a la superinteligencia como un dominio general en el comportamiento orientado a objetivos, dejando abierto si una superinteligencia artificial o humana poseería capacidades como la intencionalidad (cf. el argumento de la habitación china ) o la conciencia en primera persona ( cf. el problema difícil). de la conciencia ).

Los investigadores tecnológicos no están de acuerdo sobre la probabilidad de que se supere la inteligencia humana actual . Algunos argumentan que los avances en inteligencia artificial (IA) probablemente resultarán en sistemas de razonamiento general que carecen de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. Varios escenarios de estudios de futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras o carguen sus mentes en las computadoras de una manera que permita una amplificación sustancial de la inteligencia.

Algunos investigadores creen que la superinteligencia probablemente seguirá poco después del desarrollo de la inteligencia artificial general . Es probable que las primeras máquinas generalmente inteligentes tengan de inmediato una enorme ventaja en al menos algunas formas de capacidad mental, incluida la capacidad de recuerdo perfecto , una base de conocimientos muy superior y la capacidad de realizar múltiples tareas de formas que no son posibles para las entidades biológicas. Esto puede darles la oportunidad, ya sea como un solo ser o como una nueva especie, volverse mucho más poderosos que los humanos y desplazarlos.

Varios científicos y pronosticadores abogan por dar prioridad a la investigación temprana sobre los posibles beneficios y riesgos de la mejora cognitiva humana y mecánica , debido al potencial impacto social de tales tecnologías.

Viabilidad de la superinteligencia artificial

Avances en la clasificación mecánica de imágenes
La tasa de error de la IA por año. Línea roja: la tasa de error de un humano entrenado.

El filósofo David Chalmers sostiene que la inteligencia artificial general es un camino muy probable hacia la inteligencia sobrehumana. Chalmers se rompe esta afirmación hacia abajo en un argumento de que la IA puede lograr la equivalencia a la inteligencia humana, que puede ser extendido para superar la inteligencia humana, y que puede ser aún más amplificada a dominar por completo a través de los seres humanos tareas arbitrarias.

Con respecto a la equivalencia a nivel humano, Chalmers sostiene que el cerebro humano es un sistema mecánico y, por lo tanto, debería ser emulable con materiales sintéticos. También señala que la inteligencia humana pudo evolucionar biológicamente, por lo que es más probable que los ingenieros humanos puedan recapitular esta invención. Los algoritmos evolutivos en particular deberían poder producir IA a nivel humano. Con respecto a la extensión y amplificación de la inteligencia, Chalmers argumenta que las nuevas tecnologías de IA generalmente pueden mejorarse, y que esto es particularmente probable cuando la invención puede ayudar a diseñar nuevas tecnologías.

Si la investigación sobre IA fuerte produjera un software suficientemente inteligente, sería capaz de reprogramarse y mejorarse a sí mismo, una característica llamada "superación personal recursiva". Entonces sería incluso mejor para mejorarse a sí mismo y podría continuar haciéndolo en un ciclo que aumenta rápidamente, lo que lleva a una superinteligencia. Este escenario se conoce como explosión de inteligencia . Tal inteligencia no tendría las limitaciones del intelecto humano y podría ser capaz de inventar o descubrir casi cualquier cosa.

Los componentes de la computadora ya superan con creces el rendimiento humano en velocidad. Bostrom escribe: "Las neuronas biológicas operan a una velocidad máxima de aproximadamente 200 Hz, siete órdenes de magnitud más lentas que un microprocesador moderno (~ 2 GHz)". Además, las neuronas transmiten señales de picos a través de los axones a no más de 120 m / s, "mientras que los núcleos de procesamiento electrónico existentes pueden comunicarse ópticamente a la velocidad de la luz". Por lo tanto, el ejemplo más simple de superinteligencia puede ser una mente humana emulada que se ejecuta en un hardware mucho más rápido que el cerebro. Un razonador similar a un humano que pudiera pensar millones de veces más rápido que los humanos actuales tendría una ventaja dominante en la mayoría de las tareas de razonamiento, particularmente aquellas que requieren prisa o largas series de acciones.

Otra ventaja de las computadoras es la modularidad, es decir, se puede incrementar su tamaño o capacidad computacional. Un cerebro no humano (o humano modificado) podría volverse mucho más grande que un cerebro humano actual, como muchas supercomputadoras . Bostrom también plantea la posibilidad de una superinteligencia colectiva : un número suficientemente grande de sistemas de razonamiento separados, si se comunicaran y coordinaran lo suficientemente bien, podrían actuar en conjunto con capacidades mucho mayores que cualquier subo-agente.

También puede haber formas de mejorar cualitativamente el razonamiento humano y la toma de decisiones. Los humanos parecen diferir de los chimpancés en la forma en que pensamos más que en el tamaño o la velocidad del cerebro. Los humanos superan a los animales no humanos en gran parte debido a capacidades de razonamiento nuevas o mejoradas, como la planificación a largo plazo y el uso del lenguaje . (Véase la evolución de la inteligencia humana y la cognición de los primates ). Si hay otras posibles mejoras en el razonamiento que tendrían un impacto igualmente grande, es más probable que se pueda construir un agente que supere a los humanos de la misma manera que los humanos superan a los chimpancés.

Todas las ventajas anteriores son válidas para la superinteligencia artificial, pero no está claro cuántas son válidas para la superinteligencia biológica. Las limitaciones fisiológicas limitan la velocidad y el tamaño de los cerebros biológicos de muchas formas que son inaplicables a la inteligencia de las máquinas. Como tal, los escritores sobre superinteligencia han prestado mucha más atención a los escenarios de IA superinteligentes.

Viabilidad de la superinteligencia biológica

Evolución de la velocidad de reacción en la noogénesis . En un organismo unicelular : la velocidad de movimiento de los iones a través de la membrana ~ m / s, el agua a través de la membrana m / s, el líquido intracelular (citoplasma) m / s; Dentro del organismo multicelular : la velocidad de la sangre a través de los vasos ~ 0.05 m / s, el impulso a lo largo de las fibras nerviosas ~ 100 m / s; En población ( humanidad ) - comunicaciones: sonido (voz y audio) ~ 300 m / s, electrón cuántico ~ m / s (la velocidad de las ondas radioelectromagnéticas, corriente eléctrica, luz, óptica, telecomunicaciones).
Evolución del número de componentes en sistemas inteligentes. A - número de neuronas en el cerebro durante el desarrollo individual ( ontogénesis ), B - número de personas ( evolución de poblaciones de la humanidad), C - número de neuronas en el sistema nervioso de los organismos durante la evolución ( filogénesis ).
Evolución del número de conexiones de sistemas inteligentes. A - número de sinapsis entre neuronas durante el desarrollo individual (ontogénesis) del intelsistema del cerebro humano, B - número de conexiones entre personas en la dinámica del crecimiento poblacional de la población humana, C - número de sinapsis entre neuronas en el desarrollo evolutivo histórico (filogénesis) de los sistemas nerviosos al cerebro humano.
Aparición y evolución de las interacciones de información dentro de las poblaciones de la Humanidad A - población humana mundial → 7 mil millones; B - número de personas alfabetizadas ; C - número de libros de lectura (con inicio de impresión ); D - número de receptores (radio, TV); E : número de teléfonos, computadoras, usuarios de Internet

Carl Sagan sugirió que el advenimiento de las cesáreas y la fertilización in vitro pueden permitir a los humanos desarrollar cabezas más grandes, lo que resulta en mejoras a través de la selección natural en el componente hereditario de la inteligencia humana . Por el contrario, Gerald Crabtree ha argumentado que la disminución de la presión de selección está dando como resultado una reducción lenta y de siglos de la inteligencia humana , y que es probable que este proceso continúe en el futuro. No hay consenso científico sobre ninguna de las dos posibilidades, y en ambos casos el cambio biológico sería lento, especialmente en relación con las tasas de cambio cultural.

La cría selectiva , los nootrópicos , NSI-189 , los IMAO , la modulación epigenética y la ingeniería genética podrían mejorar la inteligencia humana más rápidamente. Bostrom escribe que si llegamos a comprender el componente genético de la inteligencia, el diagnóstico genético previo a la implantación podría usarse para seleccionar embriones con hasta 4 puntos de ganancia de CI (si se selecciona un embrión de dos), o con ganancias mayores. (por ejemplo, hasta 24,3 puntos de CI ganados si se selecciona un embrión entre 1000). Si este proceso se repite durante muchas generaciones, las ganancias podrían ser de un orden de magnitud mayor. Bostrom sugiere que la obtención de nuevos gametos a partir de células madre embrionarias podría usarse para iterar el proceso de selección muy rápidamente. Una sociedad bien organizada de humanos de alta inteligencia de este tipo podría potencialmente lograr una superinteligencia colectiva .

Alternativamente, la inteligencia colectiva podría construirse organizando mejor a los humanos en los niveles actuales de inteligencia individual. Varios escritores han sugerido que la civilización humana, o algún aspecto de ella (por ejemplo, Internet o la economía), está comenzando a funcionar como un cerebro global con capacidades que superan con creces a los agentes que la componen. Sin embargo, si esta superinteligencia basada en sistemas se basa en gran medida en componentes artificiales, puede calificar como una IA más que como un superorganismo basado en la biología . Un mercado de predicción a veces se considera un ejemplo de un sistema de inteligencia colectiva en funcionamiento, que consta solo de humanos (asumiendo que los algoritmos no se utilizan para informar decisiones).

Un último método de amplificación de la inteligencia sería mejorar directamente los seres humanos individuales, en lugar de mejorar su dinámica social o reproductiva. Esto podría lograrse utilizando nootrópicos , terapia génica somática o interfaces cerebro-computadora . Sin embargo, Bostrom expresa escepticismo sobre la escalabilidad de los dos primeros enfoques y argumenta que diseñar una interfaz cyborg superinteligente es un problema completo de IA .

Evolución con posible integración de NI, TI e IA

En 2005 Alexei Eryomin en la monografía "Noogénesis y teoría del intelecto" propuso un nuevo concepto de noogénesis en la comprensión de la evolución de los sistemas de inteligencia. La evolución de las capacidades intelectuales puede ocurrir con la participación simultánea de inteligencias naturales (biológicas) (IN), avances modernos en tecnología de la información (TI) y futuros logros científicos en el campo de la inteligencia artificial (IA).

Evolución de la velocidad de interacción entre componentes de sistemas de inteligencia.

La primera persona en medir la velocidad (en el rango de 24,6 a 38,4 metros por segundo) a la que se transporta la señal a lo largo de una fibra nerviosa en 1849 fue Helmholtz . Hasta la fecha, las tasas de velocidad de conducción nerviosa medidas son de 0,5 a 120 m / s. La velocidad del sonido y la velocidad de la luz se determinaron a principios del siglo XVII. En el siglo XXI, quedó claro que determinan principalmente las velocidades de los portadores de señales-información física, entre los sistemas inteligentes y sus componentes: sonido (voz y audio) ~ 300 m / s, electrón-cuántico ~ m / s (la velocidad de ondas radioelectromagnéticas, corriente eléctrica, luminosa, óptica, telecomunicaciones).

Evolución de los componentes de los sistemas de inteligencia.

En 1906 Santiago Ramón y Cajal llamó la atención de los científicos sobre la importancia central de la neurona y estableció la doctrina de la neurona , que establece que el sistema nervioso está formado por células individuales discretas. Según datos modernos, hay aproximadamente 86 mil millones de neuronas en el cerebro de un ser humano adulto.

Evolución de los vínculos entre los componentes de los sistemas de inteligencia.

Sinapsis - del griego synapsis (συνάψις), que significa "conjunción", a su vez de συνάπτεὶν (συν ("juntos") y ἅπτειν ("sujetar")) - fue introducido en 1897 por Charles Sherrington . La relevancia de las mediciones en esta dirección está confirmada tanto por las modernas investigaciones integrales de cooperación como por las conexiones de información, genéticas y culturales, debido a las estructuras a nivel neuronal del cerebro, y la importancia de la cooperación en el desarrollo de la civilización. En este sentido, AL Eryomin analizó los datos conocidos sobre la evolución del número de conexiones para la cooperación en sistemas inteligentes. Se puede considerar que las conexiones, los contactos entre objetos biológicos, aparecieron con una multicelularidad de ~ 3 a 3,5 mil millones de años. El sistema de conexiones de alta velocidad de células especializadas que transmiten información mediante señales eléctricas, el sistema nervioso, en toda la historia de la vida apareció solo en una rama evolutiva importante: en los animales multicelulares ( Metazoa ) y apareció en el período ediacárico (alrededor de 635). -542 millones de años). Durante la evolución (filogenia), el número de conexiones entre neuronas aumentó de una a ~ 7000 conexiones sinópticas de cada neurona con otras neuronas del cerebro humano. Se ha estimado que el cerebro de un niño de tres años tiene alrededor de sinapsis (1 billón). En el desarrollo individual (ontogénesis), el número de sinapsis disminuye con la edad a ~ . Según otros datos, el número estimado de sinapsis neocorticales en el cerebro masculino y femenino disminuye durante la vida humana de ~ a ~ .

El número de contactos humanos es difícil de calcular, pero el " número de Dunbar " ~ 150 conexiones humanas estables con otras personas se fija en la ciencia, el límite cognitivo asumido del número de personas con las que es posible mantener relaciones sociales estables, según a otros autores - el rango de 100-290. Se han identificado en el cerebro estructuras responsables de la interacción social. Con la aparición del Homo sapiens ~ hace 50-300 mil años, la relevancia de la cooperación, su evolución en la población humana, aumentó cuantitativamente. Si hace 2000 años había 0.1 mil millones de personas en la Tierra, hace 100 años - mil millones, a mediados del siglo XX - 3 mil millones, y ahora la humanidad - 7,7 mil millones. Por lo tanto, el número total de "conexiones estables" entre personas, relaciones sociales dentro de la población, se puede estimar mediante un número ~ ".

Noometría de la interacción intelectual
Parámetro Resultados de las medidas
(límites)
Número de componentes de
sistemas intelectuales
~ -
Número de enlaces entre
componentes
~ -
Velocidad de interacción entre
componentes (m / s)
~ -

Pronósticos

La mayoría de los investigadores de inteligencia artificial encuestados esperan que las máquinas eventualmente puedan rivalizar con los humanos en inteligencia, aunque hay poco consenso sobre cuándo es probable que esto suceda. En la conferencia AI @ 50 de 2006 , el 18% de los asistentes informaron que esperaban que las máquinas pudieran "simular el aprendizaje y todos los demás aspectos de la inteligencia humana" para 2056; El 41% de los asistentes esperaba que esto sucediera en algún momento después de 2056; y el 41% esperaba que las máquinas nunca alcanzaran ese hito.

En una encuesta de los 100 autores más citados en IA (en mayo de 2013, según la búsqueda académica de Microsoft), el año medio en el que los encuestados esperaban máquinas "que pudieran realizar la mayoría de las profesiones humanas al menos tan bien como un ser humano típico" ( suponiendo que no ocurra una catástrofe global ) con un 10% de confianza es 2024 (media 2034, desviación estándar 33 años), con un 50% de confianza es 2050 (media 2072, desviación estándar 110 años) y con un 90% de confianza es 2070 ( media 2168, desviación estándar 342 años). Estas estimaciones excluyen al 1,2% de los encuestados que dijeron que ningún año alcanzaría el 10% de confianza, al 4,1% que dijo "nunca" por un 50% de confianza y al 16,5% que dijo "nunca" por un 90% de confianza. Los encuestados asignaron una probabilidad media del 50% a la posibilidad de que la superinteligencia de la máquina se invente dentro de los 30 años posteriores a la invención de la inteligencia de la máquina aproximadamente a nivel humano.

Consideraciones de diseño

Bostrom expresó su preocupación por los valores para los que debería diseñarse una superinteligencia. Comparó varias propuestas:

  • La propuesta de la volición extrapolada coherente (CEV) es que debería tener los valores en los que convergerían los seres humanos.
  • La propuesta de la rectitud moral (MR) es que debe valorar la rectitud moral.
  • La propuesta de permisibilidad moral (MP) es que debería valorar permanecer dentro de los límites de la permisibilidad moral (y de lo contrario tener valores CEV).

Bostrom aclara estos términos:

en lugar de implementar la voluntad extrapolada coherente de la humanidad, uno podría intentar construir una IA con el objetivo de hacer lo que es moralmente correcto, confiando en las capacidades cognitivas superiores de la IA para descubrir qué acciones se ajustan a esa descripción. Podemos llamar a esta propuesta “rectitud moral” (MR)  ... MR también parece tener algunas desventajas. Se basa en la noción de “moralmente correcto”, un concepto notoriamente difícil, con el que los filósofos se han enfrentado desde la antigüedad sin llegar todavía a un consenso en cuanto a su análisis. Escoger una explicación errónea de "rectitud moral" podría resultar en resultados que serían moralmente muy incorrectos  ... El camino para dotar a una IA con cualquiera de estos conceptos [morales] podría implicar darle una habilidad lingüística general (comparable, al menos, a la de un adulto humano normal). Esta capacidad general de comprender el lenguaje natural podría utilizarse para comprender lo que se entiende por "moralmente correcto". Si la IA pudiera captar el significado, podría buscar acciones que encajen  ...

Se podría intentar preservar la idea básica del modelo de RM mientras se reduce su exigencia centrándose en la permisibilidad moral : la idea es que podríamos dejar que la IA persiga la VCE de la humanidad siempre que no actúe de formas moralmente inadmisibles.

En respuesta a Bostrom, Santos-Lang expresó su preocupación de que los desarrolladores puedan intentar comenzar con un solo tipo de superinteligencia.

Amenaza potencial para la humanidad

Se ha sugerido que si los sistemas de IA se vuelven superinteligentes rápidamente, pueden tomar acciones imprevistas o superar a la humanidad. Los investigadores han argumentado que, a través de una "explosión de inteligencia", una IA que se mejora a sí misma podría volverse tan poderosa como para ser imparable por los humanos.

Con respecto a los escenarios de extinción humana, Bostrom (2002) identifica la superinteligencia como una posible causa:

Cuando creamos la primera entidad superinteligente, podríamos cometer un error y darle metas que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podríamos elevar erróneamente un subobjetivo al estado de superobjetivo. Le decimos que resuelva un problema matemático, y cumple al convertir toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.

En teoría, dado que una IA superinteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de evitar la implementación de sus objetivos, podrían surgir muchas consecuencias incontroladas e involuntarias . Podría matar a todos los demás agentes, persuadirlos de que cambien su comportamiento o bloquear sus intentos de interferencia. Eliezer Yudkowsky ilustra tal convergencia instrumental de la siguiente manera: "La IA no te odia, ni te ama, pero estás hecho de átomos que puede usar para otra cosa".

Esto presenta el problema del control de la IA : cómo construir un agente inteligente que ayude a sus creadores, mientras se evita construir inadvertidamente una superinteligencia que dañará a sus creadores. El peligro de no diseñar correctamente el control "la primera vez" es que una superinteligencia puede tomar el poder sobre su entorno y evitar que los humanos lo apaguen. Dado que una IA superinteligente probablemente tendrá la capacidad de no temer a la muerte y, en cambio, considerarla una situación evitable que se puede predecir y evitar simplemente desactivando el botón de encendido. Las posibles estrategias de control de la IA incluyen "control de capacidad" (que limita la capacidad de una IA para influir en el mundo) y "control motivacional" (construir una IA cuyos objetivos estén alineados con los valores humanos).

Bill Hibbard aboga por la educación pública sobre la superinteligencia y el control público sobre el desarrollo de la superinteligencia.

Ver también

Citas

Bibliografía

enlaces externos