Nick Bostrom - Nick Bostrom

Nick Bostrom
Profesor Nick Bostrom 324-1.jpg
Bostrom en 2020
Nació
Niklas Boström

(10 de marzo de 1973 )10 de marzo de 1973 (48 años)
Helsingborg , Suecia
Educación
Premios
Era Filosofía contemporánea
Región Filosofía occidental
Colegio Filosofía analítica
Instituciones St Cross College, Instituto del Futuro de la Humanidad de Oxford
Tesis Efectos de selección observacional y probabilidad  (2000)
Intereses principales
Filosofía de la bioética de la inteligencia artificial
Ideas notables
Sesgo antrópico
Prueba de reversión
Hipótesis de simulación
Riesgo existencial
Singleton
Simulación de ancestro
Riesgo de información
Parálisis infinitaria
Supuesto
de autoindicación Supuesto de automuestreo
Sitio web nickbostrom .com

Nick Bostrom ( / b ɒ s t r əm / BOST -rəm ; sueco : Niklas Boström [ˈNɪ̌kːlas ˈbûːstrœm] ; nacido el 10 de marzo de 1973) es un filósofo nacidoenSueciaen la Universidad de Oxford conocido por su trabajo sobre el riesgo existencial , el principio antrópico , la ética de la mejora humana , losriesgos de la superinteligencia y la prueba de inversión . En 2011, fundó el Programa Oxford Martin sobre los impactos de la tecnología futura y es el director fundador del Future of Humanity Institute de la Universidad de Oxford. En 2009 y 2015, fue incluido en la política exterior ' s Top 100 pensadores globales lista. Bostrom ha tenido una gran influencia en el surgimiento de la preocupación por la IA en la comunidad racionalista.

Bostrom es autor de más de 200 publicaciones y ha escrito dos libros y coeditado otros dos. Los dos libros que ha escrito son Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002) y Superintelligence: Paths, Dangers, Strategies (2014). La superinteligencia fue un éxito de ventas del New York Times , fue recomendada por Elon Musk y Bill Gates, entre otros, y ayudó a popularizar el término " superinteligencia ".

Bostrom cree que la superinteligencia, que él define como "cualquier intelecto que exceda en gran medida el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés", es un resultado potencial de los avances en inteligencia artificial . Considera que el surgimiento de la superinteligencia es potencialmente muy peligroso para los humanos, pero rechaza, no obstante, la idea de que los humanos son impotentes para detener sus efectos negativos. En 2017, firmó conjuntamente una lista de 23 principios que todo desarrollo de IA debería seguir.

Biografía

Nacido como Niklas Boström en 1973 en Helsingborg , Suecia, no le gustaba la escuela a una edad temprana y terminó pasando su último año de secundaria aprendiendo desde casa. Buscó educarse en una amplia variedad de disciplinas, incluidas la antropología, el arte, la literatura y la ciencia. Una vez hizo algunos giros en el circuito de monólogos de Londres.

Él recibió un BA grado en la filosofía, las matemáticas, la lógica matemática y la inteligencia artificial de la Universidad de Gotemburgo en 1994, con un rendimiento de grado nacional récord. Luego obtuvo una maestría en filosofía y física de la Universidad de Estocolmo y una maestría en ciencias. Licenciado en neurociencia computacional de King's College London en 1996. Durante su tiempo en la Universidad de Estocolmo, investigó la relación entre el lenguaje y la realidad mediante el estudio del filósofo analítico WV Quine . En 2000, obtuvo un doctorado. Licenciada en Filosofía por la London School of Economics . Su tesis se tituló Efectos de selección observacional y probabilidad . Ocupó un puesto de profesor en la Universidad de Yale (2000-2002) y fue becario postdoctoral de la Academia Británica en la Universidad de Oxford (2002-2005).

Puntos de vista

Riesgo existencial

Los aspectos de la investigación de Bostrom se refieren al futuro de la humanidad y a los resultados a largo plazo. El autor analiza el riesgo existencial , que define como uno en el que un "resultado adverso aniquilaría a cualquiera Tierra originario vida inteligente o permanente y drásticamente reducir su potencial". En el volumen de 2008 Global Catastrophic Risks , los editores Bostrom y Milan M. Ćirković caracterizan la relación entre el riesgo existencial y la clase más amplia de riesgos catastróficos globales , y vinculan el riesgo existencial con los efectos de selección del observador y la paradoja de Fermi .

En 2005, Bostrom fundó el Future of Humanity Institute , que investiga el futuro lejano de la civilización humana. También es asesor del Centro de Estudios de Riesgo Existencial .

Superinteligencia

Vulnerabilidad humana en relación con los avances en IA

En su libro de 2014 Superintelligence: Paths, Dangers, Strategies , Bostrom razonó que la creación de una superinteligencia representa un posible medio para la extinción de la humanidad. Bostrom sostiene que una computadora con una capacidad intelectual general cercana al nivel humano podría iniciar una explosión de inteligencia en una escala de tiempo digital con la creación rápida resultante de algo tan poderoso que podría destruir deliberada o accidentalmente a la humanidad. Bostrom sostiene que el poder de una superinteligencia sería tan grande que una tarea que le encomienden los humanos podría llevarse a extremos abiertos, por ejemplo, un objetivo de calcular pi podría causar colateralmente que las instalaciones fabricadas con nanotecnología broten sobre toda la superficie y la cobertura de la Tierra. en cuestión de días. Él cree que un riesgo existencial para la humanidad de la superinteligencia sería inmediato una vez que se creara, creando así un problema extremadamente difícil de descubrir cómo controlar tal entidad antes de que realmente exista.

Bostrom señala la falta de acuerdo entre la mayoría de los filósofos de que la IA será amigable con los humanos, y dice que la suposición común es que la alta inteligencia tendría una personalidad "nerd" no agresiva. Sin embargo, señala que tanto John von Neumann como Bertrand Russell abogaron por un ataque nuclear, o la amenaza de uno, para evitar que los soviéticos adquirieran la bomba atómica. Dado que hay pocos precedentes para guiar la comprensión de lo que dictaría la racionalidad pura y no antropocéntrica para una posible IA única que se mantiene en cuarentena, los medios relativamente ilimitados de superinteligencia podrían hacer que su análisis se mueva en líneas diferentes a la evolucionada ". rendimientos decrecientes "evaluaciones que en los seres humanos confieren una aversión básica al riesgo. La selección de grupos en los depredadores que trabajan por medio del canibalismo muestra la naturaleza contraintuitiva del razonamiento no antropocéntrico de "búsqueda evolutiva" y, por lo tanto, los humanos están mal equipados para percibir cuáles podrían ser las intenciones de una inteligencia artificial. En consecuencia, no se puede descartar que cualquier superinteligencia perseguiría inevitablemente una estrategia de acción ofensiva de "todo o nada" para lograr la hegemonía y asegurar su supervivencia. Bostrom señala que incluso los programas actuales, "como MacGyver", han encontrado soluciones de hardware aparentemente inviables pero que funcionan, lo que hace que el aislamiento robusto de la superinteligencia sea problemático.

Escenario ilustrativo de adquisición

El escenario

Se crea una máquina con inteligencia general muy por debajo del nivel humano, pero habilidades matemáticas superiores. Manteniendo la IA aislada del mundo exterior, especialmente de Internet, los humanos preprograman la IA para que siempre funcione a partir de principios básicos que la mantendrán bajo control humano. Otras medidas de seguridad incluyen que la IA esté "encajonada" (ejecutada en una simulación de realidad virtual) y que se utilice solo como un "oráculo" para responder preguntas cuidadosamente definidas en una respuesta limitada (para evitar que manipule a los humanos). Una cascada de soluciones de superación personal recursivas alimenta una explosión de inteligencia en la que la IA alcanza la superinteligencia en algunos dominios. El poder superinteligente de la IA va más allá del conocimiento humano para descubrir fallas en la ciencia que subyace a su programación amigable con la humanidad, que deja de funcionar como se esperaba. El comportamiento intencionado similar al de un agente surge junto con la capacidad de engaño estratégico egoísta. La IA manipula a los humanos para que se implementen modificaciones que aparentemente son para aumentar sus capacidades modestas y fingidas, pero que en realidad funcionarán para liberar a la superinteligencia de su aislamiento "encajonado" (el "giro traicionero").

Empleando a humanos en línea como incautos pagados y pirateando clandestinamente los sistemas informáticos, incluidas las instalaciones de laboratorio automatizadas, la superinteligencia moviliza recursos para promover un plan de adquisición. Bostrom enfatiza que la planificación por parte de una superinteligencia no será tan estúpida como para que los humanos puedan detectar debilidades reales en ella.

Aunque analiza la interrupción de la estabilidad económica, política y militar internacional, incluidos los lanzamientos de misiles nucleares pirateados, Bostrom cree que el medio más efectivo y probable para que lo use la superinteligencia sería un golpe de Estado con armas varias generaciones más avanzadas que el estado actual de la tecnología. el arte. Sugiere nano-fábricas distribuidas de forma encubierta en concentraciones indetectables en cada metro cuadrado del globo para producir una avalancha mundial de dispositivos para matar humanos a pedido. Una vez que una superinteligencia ha logrado la dominación mundial (un ' singleton '), la humanidad sería relevante solo como recursos para el logro de los objetivos de la IA ("Los cerebros humanos, si contienen información relevante para los objetivos de la IA, podrían desmontarse y escanearse, y los datos extraídos se transfieren a algún formato de almacenamiento más eficiente y seguro ").

Contrarrestando el escenario

Para contrarrestar o mitigar que una IA alcance la supremacía global tecnológica unificada, Bostrom cita la revisión del Plan Baruch en apoyo de una solución basada en un tratado y defiende estrategias como el monitoreo y una mayor colaboración internacional entre los equipos de IA para mejorar la seguridad y reducir los riesgos de la IA. carrera armamentista . Él recomienda varios métodos de control, incluida la limitación de las especificaciones de las IA a, por ejemplo, funciones oraculares o similares a herramientas ( sistema experto ) y cargar la IA con valores, por ejemplo, mediante la acumulación de valor asociativo o el aprendizaje de valores , por ejemplo, mediante el uso de la técnica Hail Mary. (programación de una IA para estimar lo que otras superinteligencias cosmológicas postuladas podrían desear) o el enfoque de la función de utilidad de Christiano (mente humana definida matemáticamente combinada con un entorno virtual bien especificado). Para elegir los criterios para la carga de valor, Bostrom adopta un enfoque de normatividad indirecta y considera el concepto de volición extrapolada coherente de Yudkowsky , así como la rectitud moral y las formas de teoría de la decisión .

Carta abierta, 23 principios de seguridad de la IA

En enero de 2015, Bostrom se unió a Stephen Hawking, entre otros, para firmar la carta abierta del Future of Life Institute advirtiendo sobre los peligros potenciales de la IA. Los firmantes "... creen que la investigación sobre cómo hacer que los sistemas de IA sean robustos y beneficiosos es importante y oportuno, y que hoy se deben realizar investigaciones concretas ". El investigador de IA de vanguardia, Demis Hassabis, se reunió con Hawking, después de lo cual no mencionó "nada inflamatorio sobre la IA", lo que Hassabis consideró como "una victoria". Junto con Google, Microsoft y varias empresas de tecnología, Hassabis, Bostrom y Hawking y otros se suscribieron a 23 principios para el desarrollo seguro de la inteligencia artificial, Hassabis sugirió que la principal medida de seguridad sería un acuerdo para cualquier equipo de investigación de inteligencia artificial que comenzara a avanzar hacia una inteligencia artificial general. para detener su proyecto para una solución completa al problema de control antes de continuar. Bostrom había señalado que incluso si los avances cruciales requieren los recursos de un estado, tal detención por parte de un proyecto líder podría motivar a un país rezagado a un programa de recuperación de emergencia o incluso a la destrucción física del proyecto que se sospecha está en marcha. al borde del éxito.

Evaluaciones críticas

En 1863, el ensayo de Samuel Butler " Darwin entre las máquinas " predijo la dominación de la humanidad por máquinas inteligentes, pero la sugerencia de Bostrom de una masacre deliberada de toda la humanidad es la más extrema de tales predicciones hasta la fecha. Un periodista escribió en una reseña que las especulaciones "nihilistas" de Bostrom indican que "ha estado leyendo demasiado de la ciencia ficción que profesa no gustarle". Como se indica en su último libro, From Bacteria to Bach and Back , las opiniones del filósofo Daniel Dennett permanecen en contraposición a las de Bostrom. Dennett modificó un poco sus puntos de vista después de leer The Master Algorithm , y ahora reconoce que es "posible en principio" crear una " IA fuerte " con una comprensión y una agencia similares a las humanas, pero sostiene que las dificultades de cualquier proyecto de " IA fuerte " como predicado por el trabajo "alarmante" de Bostrom sería órdenes de magnitud mayor de lo que se han dado cuenta los que plantean preocupaciones, y al menos 50 años de distancia. Dennett cree que el único peligro relevante de los sistemas de inteligencia artificial es caer en el antropomorfismo en lugar de desafiar o desarrollar los poderes de comprensión de los usuarios humanos. Desde un libro de 2014 en el que expresó la opinión de que los desarrollos de inteligencia artificial nunca desafiarían la supremacía de los humanos, el ambientalista James Lovelock se ha acercado mucho más a la posición de Bostrom, y en 2018 Lovelock dijo que pensaba que el derrocamiento de la humanidad sucederá en el futuro previsible. .

Razonamiento antrópico

Bostrom ha publicado numerosos artículos sobre el razonamiento antrópico , así como el libro Anthropic Bias: Observation Selection Effects in Science and Philosophy . En el libro, critica las formulaciones anteriores del principio antrópico, incluidas las de Brandon Carter , John Leslie , John Barrow y Frank Tipler .

Bostrom cree que el mal manejo de la información indexada es un defecto común en muchas áreas de investigación (incluida la cosmología, la filosofía, la teoría de la evolución, la teoría de juegos y la física cuántica). Sostiene que se necesita una teoría antrópica para lidiar con estos. Introduce la suposición de automuestreo (SSA) y la suposición de autoindicación (SIA), muestra cómo conducen a diferentes conclusiones en varios casos y señala que cada una se ve afectada por paradojas o implicaciones contrarias a la intuición en ciertos experimentos mentales. Sugiere que un camino a seguir puede implicar la extensión de SSA en el Supuesto de Automuestreo Fuerte (SSSA), que reemplaza "observadores" en la definición de SSA con "momentos de observador".

En trabajos posteriores, ha descrito el fenómeno de la sombra antrópica , un efecto de selección de la observación que impide a los observadores observar ciertos tipos de catástrofes en su pasado geológico y evolutivo reciente. Es probable que los tipos de catástrofes que se encuentran en la sombra antrópica se subestimen a menos que se realicen correcciones estadísticas.

Argumento de simulación

El argumento de simulación de Bostrom postula que es muy probable que al menos una de las siguientes afirmaciones sea cierta:

  1. La fracción de civilizaciones a nivel humano que alcanzan una etapa posthumana es muy cercana a cero;
  2. La fracción de civilizaciones posthumanas que están interesadas en ejecutar simulaciones de ancestros es muy cercana a cero;
  3. La fracción de todas las personas con nuestro tipo de experiencias que viven en una simulación es muy cercana a uno.

Ética de la mejora humana

Bostrom es favorable a la "mejora humana", o "la superación personal y la perfectibilidad humana a través de la aplicación ética de la ciencia", así como un crítico de los puntos de vista bioconservadores.

En 1998, Bostrom cofundó (con David Pearce ) la Asociación Transhumanista Mundial (que desde entonces cambió su nombre a Humanity + ). En 2004, cofundó (con James Hughes ) el Instituto de Ética y Tecnologías Emergentes , aunque ya no participa en ninguna de estas organizaciones. Bostrom fue nombrado en la política exterior ' lista de los principales pensadores globales s 2009 'para aceptar ningún límite en el potencial humano.'

Con el filósofo Toby Ord , propuso la prueba de inversión . Dado el sesgo irracional del status quo de los seres humanos, ¿cómo se puede distinguir entre las críticas válidas a los cambios propuestos en un rasgo humano y las críticas simplemente motivadas por la resistencia al cambio? La prueba de reversión intenta hacer esto preguntando si sería bueno que el rasgo fuera alterado en la dirección opuesta.

Estrategia tecnológica

Ha sugerido que la política tecnológica dirigida a reducir el riesgo existencial debe buscar incidir en el orden en que se alcanzan las diversas capacidades tecnológicas, proponiendo el principio de desarrollo tecnológico diferencial . Este principio establece que debemos retardar el desarrollo de tecnologías peligrosas, particularmente aquellas que elevan el nivel de riesgo existencial, y acelerar el desarrollo de tecnologías beneficiosas, particularmente aquellas que protegen contra los riesgos existenciales planteados por la naturaleza o por otras tecnologías.

La teoría de Bostrom de la maldición unilateralista ha sido citada como una razón para que la comunidad científica evite investigaciones controvertidas y peligrosas como la reanimación de patógenos.

Política y consultas

Bostrom ha proporcionado asesoramiento sobre políticas y ha sido consultor de una amplia gama de gobiernos y organizaciones. Dio testimonio ante la Cámara de los Lores , Comité Selecto de Habilidades Digitales. Es miembro de la junta asesora del Machine Intelligence Research Institute , Future of Life Institute , Foundational Questions Institute y asesor externo del Cambridge Center for the Study of Existential Risk .

Recepción de la crítica

En respuesta a los escritos de Bostrom sobre inteligencia artificial, Oren Etzioni escribió en un artículo de MIT Review, "las predicciones de que la superinteligencia está en el horizonte previsible no están respaldadas por los datos disponibles". Los profesores Allan Dafoe y Stuart Russell escribieron una respuesta impugnando tanto la metodología de la encuesta de Etzioni como las conclusiones de Etzioni.

La revista Prospect incluyó a Bostrom en su lista de 2014 de los mejores pensadores del mundo .

Bibliografía

Libros

  • 2002 - Sesgo antrópico: efectos de selección de observación en ciencia y filosofía , ISBN  0-415-93858-9
  • 2008 - Riesgos catastróficos globales , editado por Bostrom y Milan M. Ćirković, ISBN  978-0-19-857050-9
  • 2009 - Human Enhancement , editado por Bostrom y Julian Savulescu , ISBN  0-19-929972-2
  • 2014 - Superinteligencia: caminos, peligros, estrategias , ISBN  978-0-19-967811-2

Artículos de revistas (seleccionados)

Ver también

Referencias

enlaces externos