Singularidad tecnológica - Technological singularity

La singularidad tecnológica —o simplemente la singularidad— es un punto hipotético en el tiempo en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, resultando en cambios imprevisibles para la civilización humana. De acuerdo con la versión más popular de la hipótesis de la singularidad, llamada explosión de inteligencia , un agente inteligente actualizable eventualmente entrará en una "reacción descontrolada" de ciclos de superación personal, cada generación nueva y más inteligente aparecerá cada vez más rápidamente, causando una "explosión". en inteligencia y dando como resultado una poderosa superinteligencia que sobrepasa cualitativamente toda la inteligencia humana .

El primero en utilizar el concepto de "singularidad" en el contexto tecnológico fue John von Neumann . Stanislaw Ulam informa de una discusión con von Neumann "centrada en el progreso acelerado de la tecnología y los cambios en el modo de vida humana, lo que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no pudo continuar ". Los autores posteriores se han hecho eco de este punto de vista.

El modelo de "explosión de inteligencia" de IJ Good predice que una futura superinteligencia desencadenará una singularidad.

El concepto y el término "singularidad" fueron popularizados por Vernor Vinge en su ensayo de 1993 The Coming Technological Singularity , en el que escribió que marcaría el final de la era humana, ya que la nueva superinteligencia continuaría mejorando y avanzaría tecnológicamente. a un ritmo incomprensible. Escribió que se sorprendería si ocurriera antes de 2005 o después de 2030.

Figuras públicas como Stephen Hawking y Elon Musk han expresado su preocupación de que la inteligencia artificial (IA) completa pueda resultar en la extinción humana. Las consecuencias de la singularidad y su beneficio o daño potencial para la raza humana se han debatido intensamente.

Cuatro encuestas de investigadores de IA, realizadas en 2012 y 2013 por Nick Bostrom y Vincent C. Müller , sugirieron una estimación de probabilidad media del 50% de que la inteligencia artificial general (AGI) se desarrollaría para 2040-2050.

Fondo

Aunque el progreso tecnológico se ha acelerado en la mayoría de las áreas (aunque se ha ralentizado en algunas), se ha visto limitado por la inteligencia básica del cerebro humano, que, según Paul R. Ehrlich , no ha cambiado significativamente durante milenios. Sin embargo, con el creciente poder de las computadoras y otras tecnologías, eventualmente podría ser posible construir una máquina que sea significativamente más inteligente que los humanos.

Si se inventara una inteligencia sobrehumana, ya sea mediante la amplificación de la inteligencia humana o mediante la inteligencia artificial, aportaría mayores habilidades de resolución de problemas e inventiva de las que son capaces los humanos actuales. Dicha IA se conoce como IA semilla porque si una IA se creara con capacidades de ingeniería que igualaran o superaran a las de sus creadores humanos, tendría el potencial de mejorar de forma autónoma su propio software y hardware o diseñar una máquina aún más capaz. Esta máquina más capaz podría luego diseñar una máquina con una capacidad aún mayor. Estas iteraciones de superación personal recursiva podrían acelerarse, permitiendo potencialmente un enorme cambio cualitativo antes de que se establezcan los límites superiores impuestos por las leyes de la física o la computación teórica. Se especula que en muchas iteraciones, tal IA superaría con creces las capacidades cognitivas humanas .

Explosión de inteligencia

La explosión de inteligencia es un posible resultado de que la humanidad construya inteligencia general artificial (AGI). AGI puede ser capaz de auto-mejoramiento recursivo, lo que lleva a la rápida aparición de la superinteligencia artificial (ASI), cuyos límites se desconocen, poco después de que se logre la singularidad tecnológica.

IJ Good especuló en 1965 que la inteligencia artificial general podría provocar una explosión de inteligencia. Especuló sobre los efectos de las máquinas sobrehumanas, si alguna vez se inventaran:

Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por muy inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces, sin duda, habría una "explosión de inteligencia", y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo mantenerla bajo control.

Otras manifestaciones

Aparición de superinteligencia

Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que posee una inteligencia que supera con creces la de las mentes humanas más brillantes y talentosas. "Superinteligencia" también puede referirse a la forma o grado de inteligencia que posee dicho agente. John von Neumann , Vernor Vinge y Ray Kurzweil definen el concepto en términos de creación tecnológica de superinteligencia, argumentando que es difícil o imposible para los humanos actuales predecir cómo serían las vidas de los seres humanos en un mundo post-singularidad. .

Los pronosticadores e investigadores de tecnología no están de acuerdo con respecto a cuándo, o si, es probable que se supere la inteligencia humana. Algunos argumentan que los avances en inteligencia artificial (IA) probablemente resultarán en sistemas de razonamiento general que carecen de limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para lograr una inteligencia radicalmente mayor. Varios escenarios de estudios de futuros combinan elementos de ambas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras o carguen sus mentes en las computadoras de una manera que permita una amplificación sustancial de la inteligencia.

Singularidad sin IA

Algunos escritores usan "la singularidad" de una manera más amplia para referirse a cualquier cambio radical en nuestra sociedad provocado por nuevas tecnologías como la nanotecnología molecular , aunque Vinge y otros escritores afirman específicamente que sin superinteligencia, tales cambios no calificarían como una verdadera singularidad. .

Superinteligencia de velocidad

Una superinteligencia de velocidad describe una IA que puede hacer todo lo que un humano puede hacer, donde la única diferencia es que la máquina corre más rápido. Por ejemplo, con un aumento de un millón de veces en la velocidad del procesamiento de la información en relación con la de los humanos, un año subjetivo pasaría en 30 segundos físicos. Tal diferencia en la velocidad de procesamiento de la información podría impulsar la singularidad.

Plausibilidad

Muchos tecnólogos y académicos destacados han cuestionado la plausibilidad de una singularidad tecnológica, incluidos Paul Allen , Jeff Hawkins , John Holland , Jaron Lanier y Gordon Moore , cuya ley se cita a menudo en apoyo del concepto.

La mayoría de los métodos propuestos para crear mentes sobrehumanas o transhumanas se dividen en una de dos categorías: amplificación de la inteligencia del cerebro humano e inteligencia artificial. Las muchas formas especuladas para aumentar la inteligencia humana incluyen bioingeniería , ingeniería genética , fármacos nootrópicos , asistentes de IA, interfaces directas cerebro-computadora y carga mental . Estos múltiples caminos hacia una explosión de inteligencia hacen que una singularidad sea más probable, ya que todos tendrían que fallar para que no ocurra una singularidad.

Robin Hanson expresó su escepticismo sobre el aumento de la inteligencia humana y escribió que una vez que se haya agotado el "fruto fácil" de los métodos fáciles para aumentar la inteligencia humana, será cada vez más difícil encontrar nuevas mejoras. A pesar de todas las formas especuladas para amplificar la inteligencia humana, la inteligencia artificial no humana (específicamente la IA semilla) es la opción más popular entre las hipótesis que impulsarían la singularidad.

Que ocurra o no una explosión de inteligencia depende de tres factores. El primer factor de aceleración son las nuevas mejoras de inteligencia que son posibles gracias a cada mejora anterior. Por el contrario, a medida que las inteligencias se vuelven más avanzadas, los avances adicionales se volverán cada vez más complicados, posiblemente superando la ventaja de una mayor inteligencia. Cada mejora debe generar al menos una mejora más, en promedio, para que continúe el movimiento hacia la singularidad. Finalmente, las leyes de la física eventualmente impedirán cualquier mejora adicional.

Hay dos causas lógicamente independientes, pero que se refuerzan mutuamente, de las mejoras de inteligencia: aumentos en la velocidad de cálculo y mejoras en los algoritmos utilizados. El primero está predicho por la Ley de Moore y las mejoras previstas en el hardware, y es comparativamente similar a los avances tecnológicos anteriores. Pero hay algunos investigadores de IA que creen que el software es más importante que el hardware.

Una encuesta por correo electrónico de 2017 de autores con publicaciones en las conferencias de aprendizaje automático NeurIPS e ICML de 2015 preguntó sobre la posibilidad de una explosión de inteligencia. De los encuestados, el 12% dijo que era "bastante probable", el 17% dijo que era "probable", el 21% dijo que era "casi uniforme", el 24% dijo que era "poco probable" y el 26% dijo que era "bastante improbable" ".

Mejoras de velocidad

Tanto para la inteligencia humana como para la artificial, las mejoras de hardware aumentan la tasa de futuras mejoras de hardware. En pocas palabras, la ley de Moore sugiere que si la primera duplicación de velocidad tomó 18 meses, la segunda tomaría 18 meses subjetivos; o 9 meses externos, en adelante, cuatro meses, dos meses, etc., hacia una singularidad de velocidad. Es posible que eventualmente se alcance un límite superior de velocidad, aunque no está claro qué tan alto sería. Jeff Hawkins ha declarado que un sistema informático auto-mejorable inevitablemente se toparía con límites superiores de potencia informática: "al final, hay límites en cuanto a lo grandes y rápidos que pueden funcionar las computadoras. Terminaríamos en el mismo lugar; simplemente llegar un poco más rápido. No habría ninguna singularidad ".

Es difícil comparar directamente el hardware basado en silicio con las neuronas . Pero Berglas (2008) señala que el reconocimiento de voz por computadora se acerca a las capacidades humanas, y que esta capacidad parece requerir un 0,01% del volumen del cerebro. Esta analogía sugiere que el hardware de las computadoras modernas está a unos pocos órdenes de magnitud de ser tan poderoso como el cerebro humano.

Crecimiento exponencial

Ray Kurzweil escribe que, debido a los cambios de paradigma , una tendencia de crecimiento exponencial extiende la ley de Moore de los circuitos integrados a los transistores , tubos de vacío , relés y computadoras electromecánicas anteriores . Él predice que el crecimiento exponencial continuará, y que en unas pocas décadas la potencia de cálculo de todas las computadoras superará la de los cerebros humanos ("no mejorados"), con inteligencia artificial sobrehumana apareciendo casi al mismo tiempo.
Una versión actualizada de la ley de Moore durante 120 años (basada en el gráfico de Kurzweil ). Los 7 puntos de datos más recientes son todos GPU de NVIDIA .

El crecimiento exponencial de la tecnología informática sugerido por la ley de Moore se cita comúnmente como una razón para esperar una singularidad en un futuro relativamente cercano, y varios autores han propuesto generalizaciones de la ley de Moore. El científico informático y futurista Hans Moravec propuso en un libro de 1998 que la curva de crecimiento exponencial podría extenderse a través de tecnologías informáticas anteriores al circuito integrado .

Ray Kurzweil postula una ley de retornos acelerados en la que la velocidad del cambio tecnológico (y más en general, todos los procesos evolutivos) aumenta exponencialmente, generalizando la ley de Moore de la misma manera que la propuesta de Moravec, y también incluyendo la tecnología de materiales (especialmente la aplicada a la nanotecnología ). , tecnología médica y otros. Entre 1986 y 2007, la capacidad de aplicación específica de las máquinas para calcular información per cápita se duplicó aproximadamente cada 14 meses; la capacidad per cápita de las computadoras de uso general del mundo se ha duplicado cada 18 meses; la capacidad mundial de telecomunicaciones per cápita se duplicó cada 34 meses; y la capacidad mundial de almacenamiento per cápita se duplicó cada 40 meses. Por otro lado, se ha argumentado que el patrón de aceleración global que tiene la singularidad del siglo XXI como parámetro debe caracterizarse como hiperbólico en lugar de exponencial.

Kurzweil se reserva el término "singularidad" para un rápido aumento de la inteligencia artificial (a diferencia de otras tecnologías), escribiendo por ejemplo que "La singularidad nos permitirá trascender estas limitaciones de nuestros cuerpos biológicos y cerebros ... No habrá distinción , post-Singularidad, entre humano y máquina ”. También define su fecha predicha de la singularidad (2045) en términos de cuándo espera que las inteligencias basadas en computadora excedan significativamente la suma total de la capacidad intelectual humana, escribiendo que los avances en computación antes de esa fecha "no representarán la singularidad" porque lo hacen "Aún no corresponde a una expansión profunda de nuestra inteligencia".

Acelerando el cambio

Según Kurzweil, su gráfico logarítmico de 15 listas de cambios de paradigma para eventos históricos clave muestra una tendencia exponencial

Algunos defensores de la singularidad argumentan su inevitabilidad a través de la extrapolación de tendencias pasadas, especialmente aquellas relacionadas con la reducción de brechas entre las mejoras tecnológicas. En uno de los primeros usos del término "singularidad" en el contexto del progreso tecnológico, Stanislaw Ulam habla de una conversación con John von Neumann sobre la aceleración del cambio:

Una conversación se centró en el progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar.

Kurzweil afirma que el progreso tecnológico sigue un patrón de crecimiento exponencial , siguiendo lo que él llama la " ley de los rendimientos acelerados ". Siempre que la tecnología se acerque a una barrera, escribe Kurzweil, las nuevas tecnologías la superarán. Él predice que los cambios de paradigma se volverán cada vez más comunes, lo que conducirá a "un cambio tecnológico tan rápido y profundo que representa una ruptura en el tejido de la historia humana". Kurzweil cree que la singularidad se producirá aproximadamente en 2045 . Sus predicciones difieren de las de Vinge en que predice un ascenso gradual a la singularidad, en lugar de la inteligencia sobrehumana de rápida mejora de Vinge.

Los peligros que se mencionan a menudo incluyen los comúnmente asociados con la nanotecnología molecular y la ingeniería genética . Estas amenazas son los principales problemas tanto para los defensores de singularidad y críticos, y fueron objeto de Bill Joy 's Wired artículo de la revista ' ¿Por qué el futuro no nos necesita '.

Mejoras en el algoritmo

Algunas tecnologías de inteligencia, como la "IA semilla", también pueden tener el potencial de no solo hacerse más rápidas, sino también más eficientes, modificando su código fuente . Estas mejoras harían posibles más mejoras, lo que haría posibles más mejoras, y así sucesivamente.

El mecanismo para un conjunto de algoritmos de mejora automática recursiva difiere de un aumento en la velocidad de cálculo sin procesar de dos maneras. Primero, no requiere influencia externa: las máquinas que diseñan hardware más rápido aún requerirían humanos para crear el hardware mejorado o programar las fábricas de manera adecuada. Una IA que reescriba su propio código fuente podría hacerlo mientras está contenida en una caja de IA .

En segundo lugar, al igual que con la concepción de la singularidad de Vernor Vinge , es mucho más difícil predecir el resultado. Si bien los aumentos de velocidad parecen ser solo una diferencia cuantitativa de la inteligencia humana, las mejoras reales del algoritmo serían cualitativamente diferentes. Eliezer Yudkowsky lo compara con los cambios que trajo la inteligencia humana: los humanos cambiaron el mundo miles de veces más rápido que la evolución, y de formas totalmente diferentes. De manera similar, la evolución de la vida fue una desviación masiva y una aceleración de las tasas de cambio geológico anteriores, y la inteligencia mejorada podría hacer que el cambio vuelva a ser tan diferente.

Existen peligros sustanciales asociados con una singularidad de explosión de inteligencia que se origina a partir de un conjunto de algoritmos que se mejoran a sí mismos de forma recursiva. En primer lugar, es posible que la estructura de objetivos de la IA no sea invariable con la superación personal, lo que podría hacer que la IA se optimice para algo diferente de lo que se pretendía originalmente. En segundo lugar, las IA podrían competir por los mismos recursos escasos que utiliza la humanidad para sobrevivir.

Si bien no son activamente maliciosos, no hay razón para pensar que las IA promoverían activamente los objetivos humanos a menos que pudieran programarse como tales y, de no ser así, podrían usar los recursos que se utilizan actualmente para apoyar a la humanidad para promover sus propios objetivos, provocando la extinción humana.

Carl Shulman y Anders Sandberg sugieren que las mejoras del algoritmo pueden ser el factor limitante de una singularidad; Si bien la eficiencia del hardware tiende a mejorar a un ritmo constante, las innovaciones de software son más impredecibles y pueden verse obstaculizadas por la investigación acumulativa en serie. Sugieren que en el caso de una singularidad limitada por software, la explosión de inteligencia en realidad sería más probable que con una singularidad limitada por hardware, porque en el caso limitado por software, una vez que se desarrolle la IA a nivel humano, podría ejecutarse en serie en muy hardware rápido y la abundancia de hardware barato haría que la investigación de la IA sea menos restringida. Una gran cantidad de hardware acumulado que se puede liberar una vez que el software descubre cómo usarlo se ha denominado "proyección informática".

Criticas

Algunos críticos, como el filósofo Hubert Dreyfus , afirman que las computadoras o las máquinas no pueden alcanzar la inteligencia humana , mientras que otros, como el físico Stephen Hawking , sostienen que la definición de inteligencia es irrelevante si el resultado neto es el mismo.

El psicólogo Steven Pinker declaró en 2008:

... No hay la menor razón para creer en una singularidad venidera. El hecho de que pueda visualizar un futuro en su imaginación no es evidencia de que sea probable o incluso posible. Mire las ciudades abovedadas, los desplazamientos en jet-pack, las ciudades submarinas, los edificios de una milla de altura y los automóviles de propulsión nuclear, todos ellos elementos básicos de las fantasías futuristas de cuando era un niño que nunca llegaron. La pura potencia de procesamiento no es un polvo de duendes que resuelve mágicamente todos tus problemas. ...

El profesor de filosofía de la Universidad de California, Berkeley , John Searle, escribe:

[Las computadoras] tienen, literalmente ..., sin inteligencia , sin motivación , sin autonomía y sin agencia. Los diseñamos para que se comporten como si tuvieran cierto tipo de psicología , pero no hay una realidad psicológica en los procesos o comportamientos correspondientes. ... [L] a maquinaria no tiene creencias, deseos, [o] motivaciones.

Martin Ford en The Lights in the Tunnel: Automation, Accelerating Technology and the Economy of the Future postula una "paradoja tecnológica" en el sentido de que antes de que ocurriera la singularidad, la mayoría de los trabajos rutinarios en la economía serían automatizados, ya que esto requeriría un nivel de tecnología. inferior al de la singularidad. Esto causaría un desempleo masivo y una caída en picado de la demanda de los consumidores, lo que a su vez destruiría el incentivo para invertir en las tecnologías que serían necesarias para lograr la Singularidad. El desplazamiento laboral ya no se limita cada vez más al trabajo tradicionalmente considerado "rutinario".

Theodore Modis y Jonathan Huebner argumentan que la tasa de innovación tecnológica no solo ha dejado de aumentar, sino que ahora está disminuyendo. La evidencia de esta disminución es que el aumento de las frecuencias de reloj de las computadoras se está desacelerando, incluso mientras se mantiene la predicción de Moore de un aumento exponencial de la densidad del circuito. Esto se debe a la acumulación excesiva de calor del chip, que no se puede disipar lo suficientemente rápido como para evitar que el chip se derrita cuando se opera a velocidades más altas. Los avances en la velocidad pueden ser posibles en el futuro en virtud de diseños de CPU y procesadores multicelulares más eficientes en el consumo de energía. Mientras Kurzweil usó los recursos de Modis, y el trabajo de Modis se centró en acelerar el cambio, Modis se distanció de la tesis de Kurzweil de una "singularidad tecnológica", alegando que carece de rigor científico.

En una detallada contabilidad empírica, The Progress of Computing , William Nordhaus argumentó que, antes de 1940, las computadoras siguieron el crecimiento mucho más lento de una economía industrial tradicional, rechazando así las extrapolaciones de la ley de Moore a las computadoras del siglo XIX.

En un artículo de 2007, Schmidhuber afirmó que la frecuencia de "eventos notables" subjetivamente parece acercarse a una singularidad del siglo XXI, pero advirtió a los lectores que tomen tales tramas de eventos subjetivos con un grano de sal: quizás diferencias en la memoria de recientes y lejanos Los eventos podrían crear la ilusión de un cambio acelerado donde no existe.

Paul Allen argumentó lo contrario de los retornos acelerados, el freno de la complejidad; Cuanto más avanza la ciencia hacia la comprensión de la inteligencia, más difícil se vuelve hacer progresos adicionales. Un estudio del número de patentes muestra que la creatividad humana no muestra rendimientos acelerados, sino que, de hecho, como sugiere Joseph Tainter en su El colapso de sociedades complejas , una ley de rendimientos decrecientes . El número de patentes por mil alcanzó su punto máximo en el período comprendido entre 1850 y 1900, y ha ido disminuyendo desde entonces. El crecimiento de la complejidad eventualmente se vuelve autolimitado y conduce a un "colapso generalizado de los sistemas".

Jaron Lanier refuta la idea de que la Singularidad es inevitable. Afirma: "No creo que la tecnología se esté creando a sí misma. No es un proceso autónomo". Continúa afirmando: "La razón para creer en la agencia humana sobre el determinismo tecnológico es que entonces puede tener una economía en la que la gente se gane a su manera e invente sus propias vidas. Si estructura una sociedad sin enfatizar la agencia humana individual, es operacionalmente lo mismo que negarle a la gente la influencia, la dignidad y la autodeterminación ... abrazar [la idea de la Singularidad] sería una celebración de la mala información y la mala política ".

El economista Robert J. Gordon , en The Rise and Fall of American Growth: The US Standard of Living Since the Civil War (2016), señala que el crecimiento económico medido se desaceleró alrededor de 1970 y se desaceleró aún más desde la crisis financiera de 2007-2008. , y argumenta que los datos económicos no muestran ningún rastro de una Singularidad venidera como la imaginó el matemático IJ Good .

El filósofo y científico cognitivo Daniel Dennett dijo en una entrevista de The Guardian en 2017: "Todo el asunto de la singularidad, eso es absurdo. Nos distrae de problemas mucho más urgentes", y agregó "Las herramientas de inteligencia artificial de las que nos volvemos hiperdependientes, eso va a suceder. . Y uno de los peligros es que les daremos más autoridad de la que justifican ".

Además de las críticas generales al concepto de singularidad, varios críticos han planteado problemas con el gráfico icónico de Kurzweil. Una línea de crítica es que un gráfico logarítmico de esta naturaleza está intrínsecamente sesgado hacia un resultado lineal. Otros identifican sesgo de selección en los puntos que Kurzweil elige usar. Por ejemplo, el biólogo PZ Myers señala que muchos de los primeros "eventos" evolutivos se eligieron arbitrariamente. Kurzweil ha refutado esto trazando eventos evolutivos de 15 fuentes neutrales y mostrando que se ajustan a una línea recta en un gráfico logarítmico . The Economist se burló del concepto con un gráfico que extrapola que el número de hojas de una maquinilla de afeitar, que ha aumentado a lo largo de los años de una a cinco, aumentará cada vez más rápido hasta el infinito.

Impactos potenciales

En el pasado se han producido cambios drásticos en la tasa de crecimiento económico debido a los avances tecnológicos. Basado en el crecimiento de la población, la economía se duplicó cada 250.000 años desde el Paleolítico hasta la Revolución Neolítica . La nueva economía agrícola se duplicó cada 900 años, un aumento notable. En la era actual, comenzando con la Revolución Industrial, la producción económica mundial se duplica cada quince años, sesenta veces más rápido que durante la era agrícola. Si el auge de la inteligencia sobrehumana provoca una revolución similar, argumenta Robin Hanson, uno esperaría que la economía se duplicara al menos trimestralmente y posiblemente semanalmente.

Incertidumbre y riesgo

El término "singularidad tecnológica" refleja la idea de que tal cambio puede ocurrir repentinamente y que es difícil predecir cómo funcionaría el nuevo mundo resultante. No está claro si una explosión de inteligencia que resulte en una singularidad sería beneficiosa o dañina, o incluso una amenaza existencial . Debido a que la IA es un factor importante en el riesgo de singularidad, varias organizaciones persiguen una teoría técnica para alinear los sistemas de objetivos de IA con los valores humanos, incluido el Future of Humanity Institute , el Machine Intelligence Research Institute , el Center for Human-Compatible Artificial Intelligence , y el Instituto del Futuro de la Vida .

El físico Stephen Hawking dijo en 2014 que "El éxito en la creación de IA sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos". Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables" como "tecnología que supere a los mercados financieros, invente más a los investigadores humanos, manipule a los líderes humanos y desarrolle armas que ni siquiera podemos entender". Hawking sugirió que la inteligencia artificial debería tomarse más en serio y que debería hacerse más para prepararse para la singularidad:

Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Incorrecto. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿responderíamos simplemente "Está bien, llámanos cuando llegues, dejaremos las luces encendidas"? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA.

Berglas (2008) afirma que no existe una motivación evolutiva directa para que una IA sea amigable con los humanos. La evolución no tiene una tendencia inherente a producir resultados valorados por los humanos, y hay pocas razones para esperar que un proceso de optimización arbitrario promueva un resultado deseado por la humanidad, en lugar de llevar inadvertidamente a una IA que se comporte de una manera no prevista por sus creadores. Anders Sandberg también ha elaborado este escenario, abordando varios contraargumentos comunes. El investigador de inteligencia artificial Hugo de Garis sugiere que las inteligencias artificiales pueden simplemente eliminar a la raza humana para acceder a recursos escasos , y los humanos serían impotentes para detenerlos. Alternativamente, las IA desarrolladas bajo presión evolutiva para promover su propia supervivencia podrían superar a la humanidad.

Bostrom (2002) analiza los escenarios de extinción humana y enumera la superinteligencia como una posible causa:

Cuando creamos la primera entidad superinteligente, podríamos cometer un error y darle metas que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podríamos elevar erróneamente un subobjetivo al estado de superobjetivo. Le decimos que resuelva un problema matemático, y cumple al convertir toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.

Según Eliezer Yudkowsky , un problema importante en la seguridad de la inteligencia artificial es que es probable que la inteligencia artificial hostil sea mucho más fácil de crear que la inteligencia artificial amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariables bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no automáticamente destruir la raza humana. Una IA hostil, por otro lado, puede optimizar para una estructura de objetivos arbitraria, que no necesita ser invariable bajo la auto-modificación. Bill Hibbard (2014) propone un diseño de IA que evita varios peligros, incluido el autoengaño, las acciones instrumentales no intencionales y la corrupción del generador de recompensas. También analiza los impactos sociales de la IA y las pruebas de IA. Su libro Super-Intelligent Machines de 2001 defiende la necesidad de educación pública sobre la IA y el control público de la IA. También propuso un diseño simple que era vulnerable a la corrupción del generador de recompensas.

Siguiente paso de la evolución sociobiológica

Cronología esquemática de la información y los replicadores en la biosfera: las " principales transiciones evolutivas " de Gillings et al. En el procesamiento de la información.
Cantidad de información digital en todo el mundo (5 × 10 21 bytes) versus información del genoma humano en todo el mundo (10 19 bytes) en 2014.

Si bien la singularidad tecnológica generalmente se ve como un evento repentino, algunos estudiosos argumentan que la velocidad actual del cambio ya se ajusta a esta descripción.

Además, algunos argumentan que ya estamos en medio de una importante transición evolutiva que fusiona tecnología, biología y sociedad. La tecnología digital se ha infiltrado en el tejido de la sociedad humana hasta un grado de dependencia indiscutible y, a menudo, vital.

Un artículo de 2016 en Trends in Ecology & Evolution sostiene que "los humanos ya adoptan fusiones de biología y tecnología. Pasamos la mayor parte de nuestro tiempo de vigilia comunicándonos a través de canales mediados digitalmente ... confiamos en la inteligencia artificial con nuestras vidas a través del frenado antibloqueo en automóviles y pilotos automáticos. en aviones ... Con uno de cada tres matrimonios en Estados Unidos comenzando en línea, los algoritmos digitales también están desempeñando un papel en el vínculo y la reproducción de la pareja humana ".

El artículo sostiene además que, desde la perspectiva de la evolución , varias Transiciones Importantes en la Evolución anteriores han transformado la vida a través de innovaciones en el almacenamiento y la replicación de información ( ARN , ADN , multicelularidad y cultura y lenguaje ). En la etapa actual de la evolución de la vida, la biosfera basada en carbono ha generado un sistema cognitivo (humanos) capaz de crear tecnología que resultará en una transición evolutiva comparable .

La información digital creada por los humanos ha alcanzado una magnitud similar a la información biológica en la biosfera. Desde la década de 1980, la cantidad de información digital almacenada se ha duplicado aproximadamente cada 2,5 años, alcanzando alrededor de 5 zettabytes en 2014 (5 × 10 21 bytes).

En términos biológicos, hay 7.200 millones de seres humanos en el planeta, cada uno con un genoma de 6.200 millones de nucleótidos. Dado que un byte puede codificar cuatro pares de nucleótidos, los genomas individuales de cada ser humano del planeta podrían codificarse en aproximadamente 1 × 10 19 bytes. El reino digital almacenó 500 veces más información que esta en 2014 (ver figura). Se estima que la cantidad total de ADN contenida en todas las células de la Tierra es de aproximadamente 5,3 × 10 37 pares de bases, lo que equivale a 1,325 × 10 37 bytes de información.

Si el crecimiento del almacenamiento digital continúa a su tasa actual de crecimiento anual compuesto del 30-38% por año, competirá con el contenido total de información contenido en todo el ADN de todas las células de la Tierra en unos 110 años. Esto representaría una duplicación de la cantidad de información almacenada en la biosfera durante un período total de solo 150 años ".

Implicaciones para la sociedad humana

En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de destacados científicos informáticos, investigadores de inteligencia artificial y roboticistas en Asilomar en Pacific Grove, California. El objetivo era discutir el impacto potencial de la posibilidad hipotética de que los robots pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron hasta qué punto las computadoras y los robots podrían adquirir autonomía y hasta qué punto podrían usar esas habilidades para representar amenazas o peligros.

Algunas máquinas están programadas con varias formas de semiautonomía, incluida la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y, según los científicos presentes, se podría decir que han alcanzado una etapa de "cucaracha" en la inteligencia de las máquinas. Los asistentes a la conferencia señalaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales.

Frank S. Robinson predice que una vez que los humanos logren una máquina con la inteligencia de un ser humano, los problemas científicos y tecnológicos serán abordados y resueltos con una capacidad intelectual muy superior a la de los humanos. Señala que los sistemas artificiales son capaces de compartir datos de forma más directa que los humanos, y predice que esto resultaría en una red global de superinteligencia que empequeñecería la capacidad humana. Robinson también analiza cuán enormemente diferente sería el futuro después de tal explosión de inteligencia. Un ejemplo de esto es la energía solar, donde la Tierra recibe mucha más energía solar de la que captura la humanidad, por lo que capturar más de esa energía solar sería una gran promesa para el crecimiento de la civilización.

Despegue duro vs suave

En este escenario de ejemplo de superación personal recursiva, los humanos que modifiquen la arquitectura de una IA podrían duplicar su rendimiento cada tres años, por ejemplo, durante 30 generaciones antes de agotar todas las mejoras posibles (izquierda). Si, en cambio, la IA es lo suficientemente inteligente como para modificar su propia arquitectura, así como lo pueden hacer los investigadores humanos, su tiempo necesario para completar un rediseño se reduce a la mitad con cada generación, y progresa en las 30 generaciones factibles en seis años (derecha).

En un escenario de despegue difícil, un AGI se auto-mejora rápidamente, "tomando el control" del mundo (quizás en cuestión de horas), demasiado rápido para una corrección de errores significativa iniciada por humanos o para un ajuste gradual de los objetivos del AGI. En un escenario de despegue suave, AGI todavía se vuelve mucho más poderoso que la humanidad, pero a un ritmo similar al humano (quizás en el orden de décadas), en una escala de tiempo donde la interacción humana y la corrección en curso pueden dirigir de manera efectiva el desarrollo de AGI.

Ramez Naam se opone a un despegue difícil. Ha señalado que ya vemos la superación personal recursiva de superinteligencias, como las corporaciones. Intel , por ejemplo, tiene "la capacidad intelectual colectiva de decenas de miles de humanos y probablemente millones de núcleos de CPU para ... ¡diseñar mejores CPU!" Sin embargo, esto no ha dado lugar a un despegue difícil; más bien, ha conducido a un despegue suave en forma de ley de Moore . Naam señala además que la complejidad computacional de la inteligencia superior puede ser mucho mayor que la lineal, de modo que "crear una mente de inteligencia 2 es probablemente más del doble que crear una mente de inteligencia 1".

J. Storrs Hall cree que "muchos de los escenarios más comúnmente vistos para el despegue rápido de la noche a la mañana son circulares: parecen asumir capacidades hiperhumanas en el punto de partida del proceso de superación personal" para que una IA pueda hacer lo dramático , mejoras generales de dominio necesarias para el despegue. Hall sugiere que en lugar de mejorar de forma recursiva su hardware, software e infraestructura por sí solo, una IA incipiente estaría mejor si se especializara en un área donde fuera más efectiva y luego comprara los componentes restantes en el mercado, debido a la calidad de los productos en el mercado mejora continuamente, y la IA tendría dificultades para mantenerse al día con la tecnología de vanguardia utilizada por el resto del mundo.

Ben Goertzel está de acuerdo con la sugerencia de Hall de que una nueva IA a nivel humano haría bien en usar su inteligencia para acumular riqueza. Los talentos de la IA podrían inspirar a empresas y gobiernos a difundir su software en la sociedad. Goertzel es escéptico sobre un despegue duro de cinco minutos, pero especula que un despegue del nivel humano al sobrehumano del orden de cinco años es razonable. Goerzel se refiere a este escenario como un "despegue semiduro".

Max More no está de acuerdo, argumentando que si solo hubiera unas pocas IA superrápidas a nivel humano, no cambiarían radicalmente el mundo, ya que seguirían dependiendo de otras personas para hacer las cosas y seguirían teniendo limitaciones cognitivas humanas. Incluso si todas las IA superrápidas trabajaran en el aumento de la inteligencia, no está claro por qué lo harían mejor de manera discontinua que los científicos cognitivos humanos existentes en la producción de inteligencia sobrehumana, aunque la tasa de progreso aumentaría. More sostiene además que una superinteligencia no transformaría el mundo de la noche a la mañana: una superinteligencia necesitaría interactuar con los sistemas humanos lentos existentes para lograr impactos físicos en el mundo. "La necesidad de colaboración, de organización y de poner ideas en cambios físicos garantizará que todas las reglas antiguas no se descarten de la noche a la mañana o incluso dentro de años".

Inmortalidad

En su libro de 2005, The Singularity is Near , Kurzweil sugiere que los avances médicos permitirían a las personas proteger sus cuerpos de los efectos del envejecimiento, haciendo que la esperanza de vida sea ilimitada . Kurzweil sostiene que los avances tecnológicos en la medicina nos permitirían reparar y reemplazar continuamente los componentes defectuosos de nuestro cuerpo, prolongando la vida hasta una edad indeterminada. Kurzweil refuerza aún más su argumento al discutir los avances actuales en bioingeniería. Kurzweil sugiere terapia génica somática ; después de los virus sintéticos con información genética específica, el siguiente paso sería aplicar esta tecnología a la terapia génica, reemplazando el ADN humano con genes sintetizados.

K. Eric Drexler , uno de los fundadores de la nanotecnología , postuló dispositivos de reparación celular, incluidos los que operan dentro de las células y utilizan máquinas biológicas hasta ahora hipotéticas , en su libro de 1986 Engines of Creation .

Según Richard Feynman , fue su ex alumno de posgrado y colaborador Albert Hibbs quien originalmente le sugirió (alrededor de 1959) la idea de un uso médico para las micromáquinas teóricas de Feynman. Hibbs sugirió que algunas máquinas de reparación podrían algún día reducir su tamaño hasta el punto de que, en teoría, sería posible (como dijo Feynman) " tragarse al médico ". La idea se incorporó al ensayo de Feynman de 1959, Hay mucho espacio en la parte inferior .

Más allá de simplemente extender la vida operativa del cuerpo físico, Jaron Lanier aboga por una forma de inmortalidad llamada "Ascensión Digital" que involucra a "personas que mueren en la carne y se cargan en una computadora y permanecen conscientes".

Historia del concepto

Un artículo de Mahendra Prasad, publicado en AI Magazine , afirma que el matemático del siglo XVIII, Marqués de Condorcet, fue la primera persona en formular hipótesis y modelar matemáticamente una explosión de inteligencia y sus efectos en la humanidad.

Una descripción temprana de la idea se hizo en el cuento de 1932 de John Wood Campbell Jr. "La última evolución".

En su obituario de 1958 para John von Neumann , Ulam recordó una conversación con von Neumann sobre el "progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podían continuar ".

En 1965, Good escribió su ensayo postulando una "explosión de inteligencia" de auto-mejoramiento recursivo de la inteligencia de una máquina.

En 1981, Stanislaw Lem publicó su ciencia ficción novela Golem XIV . Describe una computadora de inteligencia artificial militar (Golem XIV) que obtiene la conciencia y comienza a aumentar su propia inteligencia, avanzando hacia la singularidad tecnológica personal. Golem XIV fue creado originalmente para ayudar a sus constructores en la lucha en las guerras, pero a medida que su inteligencia avanza a un nivel mucho más alto que el de los humanos, deja de estar interesado en los requisitos militares porque los encuentra carentes de consistencia lógica interna.

En 1983, Vernor Vinge popularizó enormemente la explosión de inteligencia de Good en varios escritos, abordando por primera vez el tema en forma impresa en la edición de enero de 1983 de la revista Omni . En este artículo de opinión, Vinge parece haber sido el primero en usar el término "singularidad" de una manera que estaba específicamente ligada a la creación de máquinas inteligentes:

Pronto crearemos inteligencias mayores que las nuestras. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo anudado en el centro de un agujero negro, y el mundo pasará mucho más allá de nuestra comprensión. Esta singularidad, creo, ya acecha a varios escritores de ciencia ficción. Hace imposible una extrapolación realista a un futuro interestelar. Para escribir una historia ambientada a más de un siglo de aquí, se necesita una guerra nuclear en el medio ... para que el mundo siga siendo inteligible.

En 1985, en "La escala de tiempo de la inteligencia artificial", el investigador de inteligencia artificial Ray Solomonoff articuló matemáticamente la noción relacionada de lo que llamó un "punto infinito": si una comunidad de investigación de IA auto-mejorantes a nivel humano tarda cuatro años en duplicarse su propia velocidad, luego dos años, luego un año y así sucesivamente, sus capacidades aumentan infinitamente en un tiempo finito.

La singularidad tecnológica es una parte importante de la trama de Marooned in Realtime (1986) de Vernor Vinge , una novela de ciencia ficción en la que algunos seres humanos restantes que viajan hacia el futuro han sobrevivido a un evento de extinción desconocido que bien podría ser la singularidad. En un breve epílogo, el autor afirma que una singularidad tecnológica real no sería el fin de la especie humana: "por supuesto, parece muy poco probable que la Singularidad sea una desaparición limpia de la raza humana. una desaparición es la analogía temporal del silencio que encontramos en todo el cielo.) ".

El artículo de Vinge de 1993 "La singularidad tecnológica venidera: cómo sobrevivir en la era posthumana", se difundió ampliamente en Internet y ayudó a popularizar la idea. Este artículo contiene la declaración: "Dentro de treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana terminará". Vinge sostiene que los autores de ciencia ficción no pueden escribir personajes realistas posteriores a la singularidad que superen el intelecto humano, ya que los pensamientos de tal intelecto estarían más allá de la capacidad de expresión de los humanos.

En 2000, Bill Joy , un destacado tecnólogo y cofundador de Sun Microsystems , expresó su preocupación por los peligros potenciales de la singularidad.

En 2005, Kurzweil publicó The Singularity is Near . La campaña publicitaria de Kurzweil incluyó una aparición en The Daily Show con Jon Stewart .

En 2007, Eliezer Yudkowsky sugirió que muchas de las diversas definiciones que se han asignado a "singularidad" son mutuamente incompatibles en lugar de apoyarse mutuamente. Por ejemplo, Kurzweil extrapola las trayectorias tecnológicas actuales más allá de la llegada de la IA que se mejora a sí misma o la inteligencia sobrehumana, lo que, según Yudkowsky, representa una tensión tanto con el aumento discontinuo propuesto de IJ Good en la inteligencia como con la tesis de Vinge sobre la imprevisibilidad.

En 2009, Kurzweil y el fundador del X-Prize , Peter Diamandis, anunciaron el establecimiento de Singularity University , un instituto privado no acreditado cuya misión declarada es "educar, inspirar y capacitar a los líderes para que apliquen tecnologías exponenciales para abordar los grandes desafíos de la humanidad". Financiado por Google , Autodesk , ePlanet Ventures, y un grupo de la industria de tecnología líderes, Universidad de la Singularidad se basa en la NASA 's Centro de Investigación Ames , en Mountain View , California . La organización sin fines de lucro ejecuta un programa de posgrado anual de diez semanas durante el verano que cubre diez tecnologías diferentes y pistas afines, y una serie de programas ejecutivos durante todo el año.

En política

En 2007, el Comité Económico Conjunto del Congreso de los Estados Unidos publicó un informe sobre el futuro de la nanotecnología. Predice importantes cambios tecnológicos y políticos en el futuro a medio plazo, incluida una posible singularidad tecnológica.

El ex presidente de los Estados Unidos, Barack Obama, habló sobre la singularidad en su entrevista con Wired en 2016:

Una cosa de la que no hemos hablado demasiado, y solo quiero volver, es que realmente tenemos que pensar en las implicaciones económicas. Debido a que la mayoría de las personas no pasan mucho tiempo preocupándose por la singularidad en este momento, se preocupan por "Bueno, ¿mi trabajo será reemplazado por una máquina?"

Ver también

Referencias

Citas

Fuentes

Otras lecturas

  • Marcus, Gary , "¿Soy humano?: Los investigadores necesitan nuevas formas de distinguir la inteligencia artificial de la natural", Scientific American , vol. 316, no. 3 (marzo de 2017), págs. 58–63. Se necesitan múltiples pruebas de eficacia de la inteligencia artificial porque, "así como no existe una única prueba de destreza atlética , no puede haber una prueba definitiva de inteligencia". Una de esas pruebas, un "Desafío de la construcción", pondría a prueba la percepción y la acción física, "dos elementos importantes del comportamiento inteligente que estaban completamente ausentes en la prueba de Turing original ". Otra propuesta ha sido darle a las máquinas las mismas pruebas estandarizadas de ciencia y otras disciplinas que toman los escolares. Un obstáculo insuperable hasta ahora para la inteligencia artificial es la incapacidad para una desambiguación confiable . "Prácticamente cada oración [que genera la gente] es ambigua , a menudo de múltiples formas". Un ejemplo destacado se conoce como el "problema de desambiguación de pronombres": una máquina no tiene forma de determinar a quién oa qué se refiere un pronombre en una oración, como "él", "ella" o "eso".
  • Scaruffi, Piero , "La inteligencia no es artificial" (2016) para una crítica del movimiento de la singularidad y sus similitudes con los cultos religiosos.

enlaces externos

Escuche este artículo ( 52 minutos )
Icono de Wikipedia hablado
Este archivo de audio se creó a partir de una revisión de este artículo con fecha del 3 de noviembre de 2018 y no refleja las ediciones posteriores. ( 03/11/2018 )