Inteligencia artificial - Artificial intelligence


De Wikipedia, la enciclopedia libre

La inteligencia artificial ( AI ), a veces llamado máquina de inteligencia , se inteligencia demostrada por máquinas , en contraste con la inteligencia natural que se muestra por los seres humanos y otros animales. En ciencias de la computación investigación en IA se define como el estudio de los " agentes inteligentes ": cualquier dispositivo que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de lograr con éxito sus objetivos. Coloquialmente, se aplica el término "inteligencia artificial", cuando una máquina imita las funciones cognitivas "" que los seres humanos se asocian con otras mentes humanas , tales como el "aprendizaje" y "resolución de problemas".

El alcance de la IA se disputa: como máquinas son cada vez más capaces, tareas consideradas como que requiere la "inteligencia" a menudo se eliminan de la definición, un fenómeno conocido como el efecto de la IA , que conduce a la ocurrencia en el teorema de Tesler, "AI es todo lo que no tiene ha hecho todavía ". Por ejemplo, el reconocimiento óptico de caracteres es frecuentemente excluido de la "inteligencia artificial", habiéndose convertido en una tecnología de rutina. Capacidades de la máquina modernos generalmente clasificados como AI con éxito incluyen la comprensión del habla humana , compitiendo al más alto nivel en el juego estratégico sistemas (como el ajedrez y Go ), los coches que operan de manera autónoma , y el enrutamiento inteligente de las redes de distribución de contenidos y simulaciones militares .

Los préstamos de la gestión de la literatura, Kaplan y Haenlein clasifican a la inteligencia artificial en tres diferentes tipos de sistemas de inteligencia artificial: la inteligencia artificial analítica, de inspiración humana y humanizada. AI analítica sólo tiene características consistentes con la inteligencia cognitiva generar representación cognitiva del mundo y utilizando el aprendizaje basado en la experiencia pasada para informar las decisiones futuras. Human-inspirada AI tiene elementos de cognitiva, así como la inteligencia emocional , la comprensión, además de los elementos cognitivos, también teniendo en cuenta las emociones humanas en su toma de decisiones . Humanizado AI muestra características de todos los tipos de competencias (es decir, cognitivas, emocionales y sociales de inteligencia ), capaz de ser consciente de sí mismo y consciente de sí mismo en las interacciones con los demás.

La inteligencia artificial fue fundada como una disciplina académica en 1956, y en los años que ha experimentado varias oleadas de optimismo, seguido por la decepción y la pérdida de fondos (conocido como " invierno AI "), seguido de nuevos enfoques, el éxito y la renovación de fondos . Para la mayor parte de su historia, la investigación en IA se ha dividido en subcampos que a menudo no pueden comunicarse entre sí. Estos subcampos se basan en consideraciones técnicas, tales como determinados objetivos (por ejemplo, " robótica " o "aprendizaje automático"), el uso de herramientas específicas ( "lógica" o redes neuronales artificiales ), o profundas diferencias filosóficas. Subcampos también se han basado en los factores sociales (instituciones particulares o el trabajo de investigadores particulares).

Los problemas tradicionales (u objetivos) de la investigación en IA incluyen el razonamiento , la representación del conocimiento , la planificación , el aprendizaje , procesamiento del lenguaje natural , la percepción y la capacidad de moverse y manipular objetos. La inteligencia general es uno de los objetivos a largo plazo del campo. Los enfoques incluyen métodos estadísticos , inteligencia computacional , y AI simbólico tradicional . Muchas herramientas se utilizan en la IA, incluidas las versiones de búsqueda y optimización matemática , redes neuronales artificiales , y los métodos basados en la estadística, la probabilidad y la economía . El campo de la IA se basa en la informática , ingeniería de la información , las matemáticas , la psicología , la lingüística , la filosofía , y muchos otros.

El campo se basa en la afirmación de que la inteligencia humana "puede ser tan describe con precisión que una máquina puede hacerse para simularlo". Esto plantea argumentos filosóficos sobre la naturaleza de la mente y la ética de crear seres artificiales dotados de inteligencia similar a la humana, que son temas que han sido explorados por el mito , la ficción y la filosofía desde la antigüedad . Algunas personas también consideran AI a ser un peligro para la humanidad si se progresa sin cesar. Otros creen que la IA, a diferencia de las revoluciones tecnológicas anteriores, se creará un riesgo de desempleo masivo .

En el siglo XXI, las técnicas de AI han experimentado un resurgimiento siguientes avances concurrentes en potencia de los ordenadores , grandes cantidades de datos , y la comprensión teórica; y las técnicas de IA se han convertido en una parte esencial de la industria de la tecnología , lo que ayuda a resolver muchos problemas difíciles en la ciencia de la computación, ingeniería de software y la investigación de operaciones .

Contenido

Historia

Talos , un antiguo mítica autómata con la inteligencia artificial

De pensamiento capaz seres artificiales aparecieron como dispositivos de narración en la antigüedad, y han sido comunes en la ficción, como en Mary Shelley 's Frankenstein o Karel Capek ' s RUR (Robots Universales de Rossum) . Estos personajes y sus destinos plantearon muchos de los mismos problemas que ahora discutidos en las ética de la inteligencia artificial .

El estudio de la mecánica o el razonamiento "formal" se inició con filósofos y matemáticos de la antigüedad. El estudio de la lógica matemática condujo directamente a Alan Turing 's teoría de la computación , lo que sugiere que una máquina, por el intercambio de símbolos tan simple como '0' y '1', podría simular cualquier acto concebible de la deducción matemática. Esta visión, que los ordenadores digitales pueden simular cualquier proceso de razonamiento formal, es conocida como la tesis de Church-Turing . Junto con descubrimientos concurrentes en la neurobiología , teoría de la información y la cibernética , esto llevó a los investigadores a considerar la posibilidad de construir un cerebro electrónico. Turing propuso que "si un humano no podía distinguir entre las respuestas de una máquina y un ser humano, la máquina podría ser considerado 'inteligente'. La primera obra que ahora se reconoce generalmente como AI era McCullouch y Pitts '1943 diseño formal de Turing completo "neuronas artificiales".

El campo de la investigación en IA nació en un taller en el Dartmouth College en 1956. Los asistentes Allen Newell ( CMU ), Herbert Simon ( CMU ), John McCarthy ( MIT ), Marvin Minsky ( MIT ) y Arthur Samuel ( IBM ) se convirtieron en los fundadores y Los líderes de la investigación en IA. Ellos y sus estudiantes producen programas que la prensa calificó de "sorprendente": los ordenadores estaban aprendiendo damas estrategias (y se dice que en 1959 estaban jugando mejor que el ser humano promedio), resolver problemas de álgebra, la demostración de teoremas lógicos ((c 1954). Lógica teórico , la primera carrera c. 1956) y de habla Inglés. A mediados de la década de 1960, la investigación en los EE.UU. fue fuertemente financiado por el Departamento de Defensa y laboratorios se ha establecido en todo el mundo. Los fundadores de la IA se mostraron optimistas sobre el futuro: Herbert Simon predijo, "máquinas serán capaces, dentro de veinte años, de hacer cualquier trabajo de un hombre puede hacer". Marvin Minsky estuvo de acuerdo, por escrito, "dentro de una generación ... el problema de la creación de 'inteligencia artificial' sustancialmente se resolverá".

No reconocieron la dificultad de algunas de las tareas restantes. El progreso más lento y en 1974, en respuesta a la crítica de Sir James Lighthill y la presión en curso del Congreso de Estados Unidos para financiar proyectos más productivas, tanto en los EE.UU. y los gobiernos británicos cortó la investigación exploratoria en la IA. Los próximos años más tarde se le conoce como " invierno AI ", un período en que la obtención de financiación para proyectos de AI fue difícil.

A principios de la década de 1980, la investigación en IA fue restablecido por el éxito comercial de los sistemas expertos , una forma de programa de inseminación artificial que simula el conocimiento y la capacidad de análisis de los expertos humanos. En 1985, el mercado de AI había llegado a más de mil millones de dólares. Al mismo tiempo, la japonesa quinta generación de computadoras proyecto inspirado los EE.UU. y los gobiernos británicos para restaurar los fondos para la investigación académica. Sin embargo, a partir de la caída de la máquina Lisp mercado en 1987, AI, una vez más cayó en el descrédito, y comenzó un segundo, hiato más duradero.

A finales de 1990 y principios del siglo 21, AI comenzó a ser utilizado para la logística, minería de datos , diagnóstico médico y otras áreas. El éxito se debió al aumento de la potencia de cálculo (véase la ley de Moore ), un mayor énfasis en la solución de problemas específicos, nuevos lazos entre AI y otros campos (por ejemplo, estadísticas , economía y matemáticas ), y un compromiso de los investigadores a los métodos matemáticos y estándares científicos. Deep Blue se convirtió en el primer sistema informático de ajedrez para vencer a un campeón mundial de ajedrez reinante, Garry Kasparov , el 11 de mayo de 1997.

En 2011, un peligro! la demostración del concurso partido de exhibición, IBM 's sistema de contestador pregunta , Watson , venció a los dos más grandes de Jeopardy! campeones, Brad Rutter y Ken Jennings , por un margen significativo. Las computadoras más rápidas , mejoras algorítmicas, y el acceso a grandes cantidades de datos de los avances en la habilitados aprendizaje automático y la percepción; ávidos de datos de aprendizaje profundas métodos empezaron a dominar los puntos de referencia de precisión en torno a 2012 . El Kinect , que proporciona una interfaz corporal de movimiento 3D para la Xbox 360 y la Xbox One , utiliza algoritmos que surgieron de una larga investigación AI igual que los asistentes personales inteligentes en los teléfonos inteligentes . En marzo de 2016, AlphaGo ganó 4 de cada 5 juegos de Go en un partido con el campeón Ir Lee Sedol , convirtiéndose en la primera marcha del sistema de juego de ordenador para vencer a un jugador de go profesional sin desventajas . En el 2017 Futuro de Go Summit , AlphaGo ganó un juego de combinaciones con Ke Jie , quien en ese momento llevó a cabo de forma continua el mundo Nº 1 del ranking durante dos años. Esto marcó la finalización de un hito importante en el desarrollo de la Inteligencia Artificial como Go es un juego extremadamente compleja, más que ajedrez.

De acuerdo con Bloomberg Jack Clark, 2015 fue un año clave para la inteligencia artificial, con el número de proyectos de software que utilizan la IA dentro de Google aumentó de un "uso esporádico" en 2012 a más de 2.700 proyectos. Clark también presenta datos fácticos que indica que las tasas de error en las tareas de procesamiento de imágenes han caído significativamente desde 2011. Él lo atribuye a un aumento de la asequibles redes neuronales , debido a un aumento en la infraestructura de computación en la nube y al aumento de las herramientas de investigación y conjuntos de datos. Otro citó ejemplos incluyen el desarrollo de un sistema de Skype que se puede traducir automáticamente de un idioma a otro y el sistema de Facebook que pueden describir las imágenes para las personas ciegas de Microsoft. En una encuesta de 2017, una de cada cinco empresas informaron de que habían "incorporados IA en algunas ofertas o procesos". Alrededor de 2016, de China se aceleró en gran medida su financiación del gobierno; dada su gran cantidad de datos y su rápido aumento de la producción de la investigación, algunos observadores creen que puede estar en camino de convertirse en una "superpotencia AI".

Lo esencial

Un típico AI percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de lograr con éxito sus objetivos. La intención de una IA función objetivo puede ser simple ( "1 si la AI gana un juego de Go , 0 en caso contrario") o compleja ( "Haz acciones matemáticamente similar a las acciones que recibieron premios en el pasado"). Los objetivos pueden ser definidos de forma explícita, o pueden ser inducidos. Si la IA está programado para " aprendizaje por refuerzo ", las metas pueden ser inducidas de forma implícita al recompensar a algunos tipos de comportamiento y castigar a otros. Alternativamente, un sistema evolutivo puede inducir objetivos mediante el uso de una " función de aptitud " para mutar y preferentemente replicar sistemas de alta puntuación AI; esto es similar a cómo los animales evolucionaron al deseo innato ciertos objetivos, tales como la búsqueda de alimentos, o cómo los perros pueden ser criados por medio de la selección artificial de poseer rasgos deseados. Algunos sistemas de inteligencia artificial, como vecino más cercano, en lugar razonar por analogía; estos sistemas no se dan generalmente objetivos, excepto en la medida en que los objetivos son de alguna manera implícita en sus datos de entrenamiento. Tales sistemas se pueden todavía como punto de referencia si el sistema no-objetivo se ha definido como un sistema cuyo "objetivo" es llevar a cabo con éxito su tarea de clasificación estrecho.

AI a menudo gira en torno al uso de algoritmos . Un algoritmo es un conjunto de instrucciones inequívocas que una computadora mecánica puede ejecutar. Un algoritmo complejo se construye a menudo en la parte superior de los otros, más simples, algoritmos. Un ejemplo simple de un algoritmo es la siguiente receta para el juego óptimo en tic-tac-dedo del pie :

  1. Si alguien tiene una "amenaza" (es decir, dos seguidas), tomar la plaza restante. De otra manera,
  2. Si un movimiento "horquillas" para crear dos amenazas a la vez, jugar a ese movimiento. De otra manera,
  3. tomar la plaza del centro si es gratis. De otra manera,
  4. si su oponente ha jugado en una esquina, tomar la esquina opuesta. De otra manera,
  5. tomar una esquina vacía, si existiera. De otra manera,
  6. tomar cualquier casilla vacía.

Muchos algoritmos de IA son capaces de aprender de los datos; pueden mejorar después de aprender nuevas heurísticas (estrategias, o "reglas de oro", que han funcionado bien en el pasado), o pueden escribir a sí mismos otros algoritmos. Algunos de los "aprendices" que se describen a continuación, incluidas las redes bayesianas, árboles de decisión, y del vecino más próximo, podría, en teoría, si se les da los datos infinitos, el tiempo y la memoria, aprender a aproximar cualquier función , incluyendo cualquier combinación de funciones matemáticas que describen mejor la el mundo entero. Estos alumnos podrían, por lo tanto, en teoría, se derivan todos los conocimientos posibles, teniendo en cuenta todas las hipótesis posibles y comparándola con los datos. En la práctica, casi nunca es posible considerar todas las posibilidades, debido al fenómeno de la " explosión combinatoria ", donde la cantidad de tiempo necesario para resolver un problema que crece exponencialmente. Gran parte de la investigación en IA implica encontrar la manera de identificar y evitar considerar amplios sectores de posibilidades que son poco probable que sea fructífera. Por ejemplo, cuando se visualiza un mapa y en busca de la ruta de conducción más corta desde Denver a Nueva York en el Este, se puede omitir en la mayoría de los casos buscando en cualquier camino a través de San Francisco o de otras áreas hacia el oeste; por lo tanto, una IA empuñando un algoritmo de búsqueda de caminos como A * puede evitar la explosión combinatoria que se produciría si cada ruta posible debía considerarse pesadamente a su vez.

El enfoque más antiguo (y más fácil de entender) a la IA era simbolismo (como la lógica formal): "Si un adulto por lo demás sano tiene fiebre, entonces ellos pueden tener la gripe ". Un segundo, más general, el enfoque es la inferencia bayesiana : "Si el paciente tiene fiebre actual, ajuste la probabilidad que tienen la gripe en tal y tal manera". El tercer enfoque importante, muy popular en aplicaciones de IA comerciales de rutina, son analogizers como SVM y del vecino más próximo : "Después de examinar los registros de pacientes que se sabe pasados, cuya temperatura, síntomas, la edad y otros factores en su mayoría coincide con el paciente actual, X% de esos pacientes resultaron tener la influenza". Un cuarto enfoque es más difícil de entender intuitivamente, pero se inspira en cómo funciona la maquinaria del cerebro: la red neuronal artificial enfoque utiliza "artificiales neuronas " que se pueden aprender mediante la comparación de sí mismo a la salida deseada y la modificación de los puntos fuertes de las conexiones entre sus neuronas internos a "reforzar" las conexiones que parecían ser útiles. Estos cuatro enfoques principales pueden superponerse entre sí y con los sistemas evolutivos; por ejemplo, las redes neuronales pueden aprender a hacer inferencias, generalizar y hacer analogías. Algunos sistemas implícita o explícitamente el uso múltiple de estos enfoques, junto a muchos otros algoritmos de IA y que no sean AI; el mejor enfoque es a menudo diferente dependiendo del problema.

La línea azul podría ser un ejemplo de sobreajuste una función lineal debido a ruido aleatorio.

Algoritmos de aprendizaje trabajan sobre la base de que las estrategias, algoritmos y las inferencias que han funcionado bien en el pasado es probable que continúen funcionando bien en el futuro. Estas inferencias pueden ser obvias, tales como "desde la salida del sol cada mañana durante los últimos 10.000 días, que probablemente saldrá mañana por la mañana, así". Pueden ser matizada, como "X% de las familias tienen especies geográficamente separadas con variantes de color, por lo que no es un Y% de probabilidad de que no descubiertos cisnes negros existen". Los estudiantes también trabajan sobre la base de " la navaja de Occam ": La teoría más sencilla que explica los datos es la más probable. Por lo tanto, para tener éxito, un estudiante debe estar diseñado de tal manera que prefiere teorías más simples a complejas teorías, excepto en los casos en que la compleja teoría ha sido demostrada, sustancialmente mejor. De decidirse por una mala teoría, demasiado complejo gerrymandered para adaptarse a todos los datos de entrenamiento pasado se conoce como un ajuste por exceso . Muchos sistemas intentan reducir sobreajuste al premiar una teoría, de acuerdo con lo bien que se ajusta a los datos, pero penalizando la teoría de acuerdo con la complejidad de la teoría. Además de sobreajuste clásica, los estudiantes también pueden decepcionar por "aprender la lección equivocada". Un ejemplo de juguete es que un clasificador entrenado imagen sólo en cuadros de caballos marrones y gatos negros podría concluir que todas las manchas de color café es probable que sean caballos. Un ejemplo del mundo real es que, a diferencia de los humanos, los clasificadores de imagen actual no determinan la relación espacial entre los componentes de la imagen; en cambio, aprenden patrones abstractos de píxeles que los seres humanos son ajenos a, pero que se correlacionan linealmente con imágenes de ciertos tipos de objetos reales. Débilmente la superposición de un patrón de tales resultados en un legítimos de imagen en una imagen "contradictorio" que los clasifica incorrectamente sistema.

Un sistema del coche de auto-conducción puede utilizar una red neuronal para determinar qué partes de la imagen parecen coincidir con las imágenes previas de entrenamiento de los peatones, y luego modelar esas áreas de movimiento lento pero algo impredecible prismas rectangulares que deben ser evitados.

En comparación con los seres humanos, AI existente carece de varias características de "humano razonamiento de sentido común "; sobre todo, los humanos tienen mecanismos poderosos para razonar acerca de " física ingenua ", como el espacio, el tiempo y las interacciones físicas. Esto permite que incluso los niños pequeños para hacer fácilmente inferencias del tipo "Si ruedo esta pluma de una mesa, se caerá en el suelo". Los seres humanos también tienen un poderoso mecanismo de " psicología popular " que les ayuda a interpretar frases de lenguaje natural tales como "Los concejales de la ciudad se negaron a los manifestantes un permiso porque abogado por la violencia". (A AI genérico tiene dificultades para inferir si los concejales o los manifestantes son los que supuestamente están abogando por la violencia.) Esta falta de "conocimiento común" significa que la IA a menudo hace que los diferentes errores que los seres humanos hacen, de manera que puedan resultar incomprensibles. Por ejemplo, los coches auto-conducción existentes no pueden razonar acerca de la ubicación ni las intenciones de los peatones en la manera exacta en que lo hacen los humanos, y en su lugar debe utilizar modos no humanos de razonamiento para evitar accidentes.

Problemas

El objetivo general de la investigación de la inteligencia artificial es crear una tecnología que permite a los ordenadores y máquinas de funcionar de una manera inteligente. El problema general de la simulación (o crear) inteligencia ha sido dividida en sub-problemas. Estos consisten en rasgos o capacidades particulares que los investigadores esperan que un sistema inteligente que se vea. Los rasgos descritos a continuación han recibido la mayor atención.

Razonamiento, resolución de problemas

Los primeros investigadores desarrollaron algoritmos que imitaban el razonamiento paso a paso que los seres humanos utilizan cuando resuelven un rompecabezas o hacer deducciones lógicas. A finales de los años 1980 y 1990, la investigación en IA ha desarrollado métodos para tratar con incertidumbre información o incompleta, empleando los conceptos de probabilidad y la economía .

Estos algoritmos resultaron ser insuficientes para resolver los grandes problemas de razonamiento, porque experimentaron una "explosión combinatoria": se convirtieron en exponencialmente más lento ya que los problemas se hicieron más grandes. De hecho, incluso los seres humanos rara vez utilizan la deducción paso a paso que las primeras investigaciones de AI fue capaz de modelar. Que resuelven la mayor parte de sus problemas mediante juicios rápidos e intuitivos.

Representación del conocimiento

Una ontología representa el conocimiento como un conjunto de conceptos dentro de un dominio y las relaciones entre esos conceptos.

La representación del conocimiento y de la ingeniería del conocimiento son fundamentales para la investigación IA clásica. Algunos intento de "sistemas expertos" para reunir conocimiento explícito que poseen los expertos en un dominio estrecho. Además, algunos proyectos intentan recoger el "conocimiento común", conocido para la persona promedio en una base de datos que contiene un amplio conocimiento sobre el mundo. Entre las cosas que una amplia base de conocimiento de sentido común podría contener son: objetos, propiedades, las categorías y las relaciones entre los objetos; situaciones, eventos, estados y el tiempo; causas y efectos; conocimiento sobre el conocimiento (lo que sabemos acerca de lo que otras personas sepan); y muchos otros dominios, menos bien investigados. Una representación de "lo que existe" es una ontología : el conjunto de objetos, relaciones, conceptos, propiedades y describe formalmente de modo que los agentes de software pueden interpretarlos. Los semántica de éstos se capturan como descripción de la lógica conceptos, roles y los individuos, y típicamente implementados como clases, propiedades y los individuos en la lengua de la ontología Web . Las ontologías más generales se llaman ontologías superiores , que tratan de proporcionar una base para todos los demás conocimientos, actuando como mediadores entre ontologías de dominio que cubren un conocimiento específico de un dominio de conocimiento particular (campo de interés o área de interés). Tales representaciones formales de conocimiento se pueden utilizar en la indexación basada en el contenido y la recuperación, la interpretación escena, apoyo a la decisión clínica, el descubrimiento de conocimiento (minería "interesantes" y procesables inferencias a partir de grandes bases de datos), y otras áreas.

Entre los problemas más difíciles en la representación del conocimiento son:

Razonamiento por defecto y el problema de calificación
Muchas de las cosas que la gente sabe tomar la forma de "hipótesis de trabajo". Por ejemplo, si un ave aparece en la conversación, la gente suele imaginan un animal que es tamaño de un puño, canta, y las moscas. Ninguna de estas cosas son ciertas acerca de todas las aves. John McCarthy identificó este problema en 1969 como el problema de calificación: para cualquier regla de sentido común de que los investigadores de IA se preocupan para representar, tiende a haber un gran número de excepciones. Casi nada es simplemente verdadera o falsa en la forma en que la lógica abstracta requiere. La investigación en IA ha explorado una serie de soluciones a este problema.
La amplitud de conocimiento común
El número de hechos atómicos que la persona promedio sabe es muy grande. Los proyectos de investigación que tratan de construir una base de conocimiento completo del conocimiento de sentido común (por ejemplo, Cic ) requieren enormes cantidades de laboriosa ingeniería ontológica -ellos se debe construir, con la mano, un concepto complicado a la vez.
La forma de subsimbólico algún conocimiento común
Mucho de lo que la gente sabe que no se representa como "hechos" o "declaraciones" que podían expresar verbalmente. Por ejemplo, un maestro de ajedrez evitará una posición de ajedrez en particular porque "se siente demasiado expuesto" o un crítico de arte puede echar un vistazo a una estatua y darse cuenta de que es una falsificación. Estos son intuiciones o tendencias no conscientes y sub-simbólico en el cerebro humano. El conocimiento como éste informa, apoya y proporciona un contexto para el conocimiento simbólico, consciente. Al igual que con el problema relacionado de razonamiento sub-simbólica, se espera que situado AI , inteligencia computacional , o AI estadística proporcionarán formas de representar este tipo de conocimiento.

Planificación

Un sistema de control jerárquico es una forma de sistema de control en el que un conjunto de dispositivos y el software de gobierno está dispuesto en una jerarquía.

Los agentes inteligentes deben ser capaces de establecer objetivos y alcanzarlos. Que necesitan una manera de visualizar el futuro, una representación del estado del mundo y ser capaz de hacer predicciones acerca de cómo sus acciones se cambian y sean capaces de tomar decisiones que maximicen la utilidad (o "valor") de opciones disponibles .

En los problemas de planificación clásica, el agente puede asumir que es el único sistema que actúa en el mundo, que permite al agente para estar seguro de las consecuencias de sus acciones. Sin embargo, si el agente no es el único actor, entonces se requiere que el agente puede razonar en condiciones de incertidumbre. Esto requiere de un agente que no sólo se puede evaluar su entorno y hacer predicciones, sino también evaluar sus predicciones y se adaptan en función de su evaluación.

La planificación multi-agente utiliza la cooperación y la competencia de muchos agentes para lograr un objetivo determinado. Comportamiento emergente como este es utilizado por los algoritmos evolutivos y la inteligencia de enjambre .

Aprendizaje

aprendizaje automático, un concepto fundamental de la investigación en IA desde el inicio del campo, es el estudio de algoritmos informáticos que mejoran automáticamente a través de la experiencia.

Aprendizaje no supervisado es la capacidad de encontrar patrones en una corriente de entrada, sin necesidad de un ser humano para etiquetar las entradas en primer lugar. El aprendizaje supervisado incluye tanto la clasificación y numérica de regresión , que requiere un ser humano para etiquetar los datos de entrada primero. La clasificación se utiliza para determinar qué categoría pertenece algo en, después de ver una serie de ejemplos de cosas de varias categorías. La regresión es el intento de producir una función que describe la relación entre las entradas y salidas y predice cómo las salidas deben cambiar a medida que el cambio de entradas. Los dos clasificadores y los alumnos de regresión pueden ser vistos como "aproximadores función" tratando de aprender una función (posiblemente implícita) desconocido; por ejemplo, un clasificador de correo no deseado puede ser visto como el aprendizaje de una función que mapea en el texto de un correo electrónico a una de dos categorías, "correo no deseado" o "no spam". La teoría del aprendizaje computacional puede evaluar por los alumnos de la complejidad computacional , por la complejidad de la muestra (la cantidad de datos que se requiere), o por otros conceptos de optimización . En el aprendizaje por refuerzo del agente es recompensado por las buenas respuestas y castigados por las malas. El agente utiliza esta secuencia de premios y castigos para formar una estrategia para operar en su espacio del problema.

Procesamiento natural del lenguaje

Un árbol de análisis representa la sintáctica estructura de una frase de acuerdo con alguna gramática formal .

Procesamiento del lenguaje natural (NLP) da máquinas la capacidad de leer y comprender el lenguaje humano. Una suficientemente potente sistema de procesamiento de lenguaje natural permitiría a las interfaces de usuario de lenguaje natural y la adquisición de conocimientos directamente de fuentes escritas humanos, tales como textos de agencias de noticias. Algunas aplicaciones sencillas de procesamiento del lenguaje natural incluyen la recuperación de información , minería de texto , la respuesta a preguntas y la traducción automática . Muchos enfoques actuales de uso de frecuencias de palabras de co-ocurrencia de construir representaciones sintácticas del texto. "Identificación de palabras clave" para la búsqueda de estrategias son populares y escalable pero mudo; una consulta de búsqueda para "perro", sólo podría coincidir con los documentos con la palabra literal "perro" y se pierda un documento con la palabra "caniche". "Afinidad" estrategias léxico utilizan la ocurrencia de palabras tales como "accidente" para evaluar el sentimiento de un documento. Los enfoques modernos de PNL estadísticos pueden combinar todas estas estrategias, así como los demás, y con frecuencia conseguir una precisión aceptable a nivel de página o un párrafo, pero seguirá careciendo de la comprensión semántica requerida para clasificar bien frases aisladas. Además de las dificultades habituales con la codificación semántica conocimiento de sentido común, semántica existente PNL veces escalas demasiado mal para ser viable en aplicaciones comerciales. Más allá de semántica PNL, el objetivo final de la PNL "narrativa" es encarnar una comprensión completa de razonamiento de sentido común.

Percepción

La detección de características (en la foto: la detección de bordes ) ayuda a AI componer estructuras abstractas informativos de los datos en bruto.

Percepción de la máquina es la capacidad de utilizar entrada de los sensores (tales como cámaras (espectro visible o infrarrojo), micrófonos, señales inalámbricas, y activa lidar , sonar, de radar, y sensores táctiles ) para deducir los aspectos del mundo. Las aplicaciones incluyen el reconocimiento de voz , reconocimiento facial y reconocimiento de objetos . Visión por ordenador es la capacidad de analizar la información visual. Dicha entrada es generalmente ambigua; un gigante, peatonal cincuenta metros de altura lejos puede producir exactamente los mismos pixeles como un peatón de tamaño normal cercano, lo que requiere la AI para juzgar la probabilidad relativa y razonabilidad de interpretaciones diferentes, por ejemplo mediante el uso de su "modelo de objeto" para evaluar que no existen los peatones de cincuenta metros.

El movimiento y la manipulación

AI es muy usada en la robótica . Avanzados brazos robóticos y otros robots industriales , ampliamente utilizado en las fábricas modernas, pueden aprender de la experiencia de cómo se mueva de manera eficiente a pesar de la presencia de la fricción y el deslizamiento de engranajes. Un robot móvil moderno, cuando se le da un ambiente pequeño, estático, y visible, se puede determinar fácilmente su ubicación y el mapa de su entorno; sin embargo, entornos dinámicos, tales como (en endoscopia ) el interior del cuerpo de la respiración de un paciente, suponen un mayor reto. La planificación del movimiento es el proceso de descomposición de una tarea de movimiento en "primitivos", tales como movimientos de las articulaciones individuales. Tal movimiento a menudo implica movimiento compatible, un proceso en el movimiento requiere mantener contacto físico con un objeto. La paradoja de Moravec generaliza que las habilidades sensoriomotoras de bajo nivel que los humanos dan por sentado son, counterintuitively, difíciles de programar en un robot; la paradoja es el nombre de Hans Moravec , quien declaró en 1988 que "es relativamente fácil de hacer que los ordenadores muestran un rendimiento de nivel adulto en las pruebas de inteligencia o jugar damas y difícil o imposible para darles las habilidades de un año de edad, cuando se viene a la percepción y la movilidad". Esto se atribuye al hecho de que, a diferencia de las damas, la destreza física ha sido un objetivo directo de la selección natural durante millones de años.

Inteligencia social

Kismet , un robot con habilidades sociales rudimentarios

La paradoja de Moravec se puede extender a muchas formas de inteligencia social. Distribuido coordinación multiagente de vehículos autónomos sigue siendo un problema difícil. La computación afectiva es un paraguas interdisciplinario que comprende sistemas que reconocer, interpretar, proceso o simulan humana afecta . Éxitos moderados relacionados con la informática afectiva incluyen textual análisis de sentimientos y, más recientemente, multimodal afectar análisis (véase análisis de sentimientos multimodal ), en la que AI clasifica los afectos mostrado por un sujeto grabadas en vídeo.

A la larga, las habilidades sociales y la comprensión de la emoción humana y la teoría de juegos serían valiosos a un agente social. Ser capaz de predecir las acciones de los demás mediante la comprensión de sus motivos y estados emocionales permitirían a un representante para tomar las mejores decisiones. Algunos sistemas informáticos imitan las emociones humanas y expresiones que aparezcan más sensibles a la dinámica emocional de la interacción humana, o de otro modo para facilitar la interacción hombre-máquina . Del mismo modo, algunos asistentes virtuales están programados para hablar coloquial o incluso a bromear con humor; esto tiende a dar a los usuarios ingenuos una concepción realista de cómo los agentes informáticos inteligentes existentes son en realidad.

Inteligencia general

Históricamente, proyectos como la base de conocimientos Cic (1984-) y la japonesa masiva quinta generación de sistemas informáticos iniciativa (1982-1992) intentaron cubrir la amplitud de la cognición humana. Estos primeros proyectos no pudieron escapar de las limitaciones de los modelos lógicos simbólicos no cuantitativos y, en retrospectiva, subestimado en gran medida la dificultad de la IA entre dominios. Hoy en día, la gran mayoría de los investigadores actuales AI trabajar en cambio en las aplicaciones manejables "estrechas AI" (tales como diagnóstico médico o la navegación en automóviles). Muchos investigadores predicen que este tipo de trabajo "estrecha AI" en diferentes dominios individuales, finalmente, será incorporado en una máquina con inteligencia general artificial (AGI), la combinación de la mayor parte de las habilidades estrechas mencionadas en este artículo y en algún momento incluso superior a la capacidad humana en la mayoría o todas estas áreas. Muchos avances tienen en general, la importancia de dominios cruzados. Un ejemplo de alto perfil es que DeepMind en la década de 2010 desarrolló una "inteligencia artificial generalizado" que podría aprender muchas diversas Atari juegos por su cuenta, y más tarde desarrolló una variante del sistema que tiene éxito en el aprendizaje secuencial . Además de la transferencia del aprendizaje , hipotéticos avances AGI podrían incluir el desarrollo de arquitecturas reflectantes que pueden participar en la toma de metareasoning teórico, y encontrar la manera de "sorber" una amplia base de conocimientos de toda la no estructurada Web . Algunos argumentan que una especie de (actualmente no descubierta) conceptualmente sencillo, pero matemáticamente difícil, "Maestro Algoritmo" podría conducir a AGI. Por último, algunos enfoques "emergentes" miran a la simulación de la inteligencia humana muy de cerca, y creen que antropomórficas características como un cerebro artificial o simulada desarrollo de los niños pueden alcanzar algún día un punto crítico en el que emerge la inteligencia general.

Muchos de los problemas en este artículo también puede requerir la inteligencia general, si las máquinas son para resolver los problemas, así como las personas hacen. Por ejemplo, las tareas sencillas, incluso específicos, como la traducción automática , requieren que una máquina de leer y escribir en ambos idiomas ( PNL ), sigue el argumento del autor ( razón ), saber qué se está hablando ( conocimiento ), y la reproducción fiel original del autor intención ( inteligencia social ). Un problema como la traducción automática se considera " ia completo ", porque todos estos problemas tienen que ser resueltos de forma simultánea con el fin de alcanzar un rendimiento a nivel de máquina humana.

Enfoques

No hay teoría unificadora se establece o paradigma que guía la investigación en IA. Los investigadores están de acuerdo sobre muchos temas. Algunas de las preguntas más larga data que han permanecido sin respuesta son las siguientes: deben simular la inteligencia artificial inteligencia natural mediante el estudio de la psicología o la neurobiología ? O es la biología humana como algo irrelevante para la investigación en IA como la biología de aves es a la ingeniería aeronáutica ? Comportamiento inteligente puede ser descrito usando, principios elegantes simples (como la lógica o la optimización )? O se requiere necesariamente la solución de un gran número de problemas que no tienen relación?

La cibernética y la simulación del cerebro

En los años 1940 y 1950, una serie de investigadores exploró la relación entre la neurobiología , teoría de la información y la cibernética . Algunos de ellos construyeron máquinas que utilizan las redes electrónicas para exhibir la inteligencia rudimentaria, como W. Grey Walter 's tortugas y la Johns Hopkins bestia . Muchos de estos investigadores se reunieron para las reuniones de la Sociedad teleológica en la Universidad de Princeton y la Relación de club en Inglaterra. En 1960, este enfoque se abandonó en gran medida, aunque algunos elementos de que se revivió en la década de 1980.

Simbólico

Cuando el acceso a las computadoras digitales se hizo posible en el medio de 1950, la investigación en IA comenzó a explorar la posibilidad de que la inteligencia humana se podría reducir a la manipulación de símbolos. La investigación se centró en tres instituciones: la Carnegie Mellon University , Stanford y MIT , y como se describe a continuación, cada uno desarrolló su propio estilo de investigación. John Haugeland nombrado estos enfoques simbólicos a AI "el bueno de AI de moda" o " BAIA ". Durante la década de 1960, los enfoques simbólicos habían logrado un gran éxito en la simulación de pensamiento de alto nivel en programas de demostración pequeñas. Enfoques basados en la cibernética o redes neuronales artificiales fueron abandonados o empujados a un segundo plano. Los investigadores en las décadas de 1960 y 1970 estaban convencidos de que los enfoques simbólicos serían finalmente tener éxito en la creación de una máquina con inteligencia general artificial y consideran este el objetivo de su campo.

estimulación cognitiva

El economista Herbert Simon y Allen Newell estudiaron las habilidades de resolución de problemas humanos e intentaron formalizar ellos, y su trabajo sentó las bases del campo de la inteligencia artificial, así como la ciencia cognitiva , la investigación de operaciones y gestión de la ciencia . Su equipo de investigación utilizó los resultados de psicológicos experimentos para desarrollar programas que simulan las técnicas que utilizan las personas para resolver problemas. Esta tradición, con centro en la Universidad Carnegie Mellon finalmente culminar en el desarrollo de la Soar arquitectura en el medio de 1980.

La lógica de base

A diferencia de Simon y Newell, John McCarthy sintió que las máquinas no necesitan para simular el pensamiento humano, sino que deben tratar de encontrar la esencia del razonamiento abstracto y la resolución de problemas, independientemente de si las personas utilizan los mismos algoritmos. Su laboratorio de Stanford ( SAIL ) se centró en el uso formal de la lógica para resolver una amplia variedad de problemas, incluyendo la representación del conocimiento , la planificación y el aprendizaje . La lógica era también el enfoque del trabajo en la Universidad de Edimburgo y en otras partes de Europa, que llevó al desarrollo del lenguaje de programación Prolog y la ciencia de la programación lógica .

Anti-lógica o desaliñado

Los investigadores de MIT (como Marvin Minsky y Seymour Papert ) encontraron que la solución de problemas difíciles en la visión y procesamiento de lenguaje natural ad-hoc requiere soluciones argumentaron que no había ningún principio simple y general (como la lógica ) que capturaría todos los aspectos de la comportamiento inteligente. Roger Schank describe sus enfoques "anti-lógicos" como " desaliñado " (en contraposición a los " limpias paradigmas" en CMU y Stanford). Con bases de conocimiento (como Doug Lenat 's Cic ) son un ejemplo de 'desaliñado' AI, ya que deben ser construidos a mano, un concepto complicado a la vez.

basada en el conocimiento

Cuando los equipos con grandes recuerdos llegaron a estar disponibles en 1970, los investigadores de las tres tradiciones comenzaron a construir el conocimiento en aplicaciones de IA. Esta "revolución del conocimiento" llevado al desarrollo y despliegue de sistemas expertos (introducidas por Edward Feigenbaum ), la primera forma verdaderamente exitoso de software de inteligencia artificial. Componente clave en arhitecute sistema para todos los sistemas expertos es la base de conocimientos, que almacena datos y reglas que ilustra AI. La revolución del conocimiento también fue impulsado por la constatación de que enormes cantidades de conocimientos serían necesarios por muchas aplicaciones simples AI.

Sub-simbólica

Por la década de 1980, los avances en IA simbólica parecía estancarse y muchos creyeron que los sistemas simbólicos nunca serían capaces de imitar todos los procesos de la cognición humana, especialmente la percepción , la robótica , el aprendizaje y el reconocimiento de patrones . Un número de investigadores comenzaron a estudiar los enfoques "sub-simbólica" a los problemas específicos de IA. Métodos sub-simbólicos logran acercarse a la inteligencia sin representaciones específicas del conocimiento.

inteligencia encarnada

Esto incluye encarnado , situada , basada en el comportamiento , y la nouvelle AI . Los investigadores del campo relacionado de la robótica , como Rodney Brooks , rechazaron IA simbólica y se centró en los problemas de ingeniería básicos que permitirían los robots se muevan y sobreviven. Su trabajo revivió el punto de vista no simbólica de los primeros cibernética investigadores de la década de 1950 y volvió a introducir el uso de la teoría de control en la IA. Esto coincidió con el desarrollo de la tesis mente encarnada en el campo relacionado de la ciencia cognitiva : la idea de que se requieren los aspectos del cuerpo (tales como el movimiento, la percepción y visualización) para una mayor inteligencia.

Dentro de la robótica de desarrollo , enfoques de aprendizaje de desarrollo se elaboran para permitir a los robots que se acumulen nuevos repertorios de habilidades a través de la auto-exploración autónoma, interacción social con los maestros humanos, y el uso de mecanismos de orientación (aprendizaje activo, la maduración, las sinergias de motor, etc.).

Inteligencia Computacional y Soft Computing

El interés en las redes neuronales y " conexionismo " fue revivida por David Rumelhart y otros en el medio de la década de 1980. Las redes neuronales artificiales son un ejemplo de la computación suave -ellos son soluciones a los problemas que no pueden resolverse con certeza lógica completa, y donde una solución aproximada es a menudo suficiente. Otros computación blanda enfoques de AI incluyen sistemas difusos , la computación evolutiva y muchas herramientas estadísticas. La aplicación de la informática suave para la IA se estudia en conjunto por la nueva disciplina de la inteligencia computacional .

aprendizaje estadístico

Gran parte de la BAIA tradicional se atascaron en ad hoc parches para la computación simbólica que trabajaron en sus propios modelos de juguetes, pero no pudo generalizar los resultados del mundo real. Sin embargo, alrededor de la década de 1990, los investigadores de IA adoptaron herramientas matemáticas sofisticadas, tales como los modelos ocultos de Markov (HMM), teoría de la información , y bayesiano normativa teoría de la decisión de comparar o unificar las arquitecturas de la competencia. El lenguaje matemático compartida permite un alto nivel de colaboración con los campos más establecidos (como las matemáticas , la economía o la investigación de operaciones ). En comparación con la BAIA, las nuevas técnicas de aprendizaje "estadística", como HMM y redes neuronales fueron ganando mayores niveles de precisión en muchos ámbitos prácticos tales como la minería de datos , sin necesidad de adquirir necesariamente la comprensión semántica de los conjuntos de datos. El aumento de los éxitos con los datos del mundo real llevaron a un creciente énfasis en la comparación de diferentes enfoques en contra de los datos de prueba compartidos para ver qué enfoque lleva a cabo mejor en un contexto más amplio que el previsto por los modelos de juguetes idiosincrásicos; La investigación en IA era cada vez más científica . Hoy en día resultados de los experimentos son a menudo rigurosamente medible, y son a veces (con dificultad) reproducible. Diferentes técnicas de aprendizaje estadístico tienen diferentes limitaciones; por ejemplo, HMM básica no puede modelar las posibles combinaciones infinitas de lenguaje natural. Los críticos señalan que el paso de la BAIA de aprendizaje estadístico es a menudo también un alejamiento de las explicable AI . En la investigación AGI, algunos expertos advierten contra la excesiva dependencia de aprendizaje estadístico, y argumentan que la continuación de la investigación en la BAIA todavía será necesario para alcanzar la inteligencia general.

La integración de los enfoques

paradigma de agentes inteligentes
Un agente inteligente es un sistema que percibe su entorno y toma las acciones que optimicen sus posibilidades de éxito. Los agentes inteligentes son más simples programas que resuelvan problemas específicos. Los agentes más complicados son los seres humanos y las organizaciones de los seres humanos (por ejemplo, empresas ). El paradigma permite a los investigadores comparar directamente o incluso combinar diferentes enfoques a problemas aislados, preguntando qué agente es el mejor en la maximización de una determinada "función objetivo". Un agente que resuelve un problema específico puede utilizar cualquier método que funciona-algunos agentes son simbólicas y lógico, algunos son sub-simbólica redes neuronales artificiales y otros pueden utilizar nuevos enfoques. El paradigma también da a los investigadores una lengua común para comunicarse con otros campos, tales como la teoría de decisión y la economía-que también utilizan conceptos de agentes abstractos. La construcción de un agente completa requiere que los investigadores para hacer frente a los problemas reales de la integración; por ejemplo, porque los sistemas sensoriales dan información incierta por el medio ambiente, los sistemas de planificación deben ser capaces de funcionar en presencia de incertidumbre. El paradigma de agente inteligente se aceptó extensamente durante la década de 1990.
Arquitecturas de agentes y arquitecturas cognitivas
Los investigadores han diseñado sistemas para construir sistemas inteligentes de interactuar agentes inteligentes en un sistema multi-agente . Un sistema de control jerárquico proporciona un puente entre la IA sub-simbólica, en sus niveles más bajos y reactivos IA simbólica tradicional en sus más altos niveles, donde las limitaciones de tiempo relajados permiten la planificación y el mundo de la moda. Algunas arquitecturas cognitivas están hechos a medida para resolver un problema estrecha; otros, tales como Soar , están diseñados para imitar la cognición humana y para proporcionar una idea de la inteligencia general. Extensiones modernos de Soar son sistemas inteligentes híbridos que incluyen tanto componentes simbólicos y sub-simbólicos.

Herramientas

AI ha desarrollado un gran número de herramientas para resolver los problemas más difíciles en la informática . Algunos de los más generales de estos métodos se discuten a continuación.

Búsqueda y optimización

Muchos problemas en la IA se pueden resolver en la teoría de forma inteligente buscando a través de muchas soluciones posibles: Razonamiento puede reducirse a realizar una búsqueda. Por ejemplo, la prueba lógica se puede ver como la búsqueda de un camino que conduce de premisas a conclusiones , donde cada paso es la aplicación de una regla de inferencia . Planificación algoritmos de búsqueda a través de árboles de objetivos y sub-objetivos, tratando de encontrar un camino hacia una meta objetivo, un proceso llamado de medios y fines de análisis . Robótica algoritmos para mover las extremidades y agarrar objetos utilizan las búsquedas locales en el espacio de configuración . Muchos de aprendizaje algoritmos utilizan algoritmos de búsqueda basados en la optimización .

Exhaustivas búsquedas simples rara vez son suficientes para la mayoría de los problemas del mundo real: el espacio de búsqueda (el número de lugares para buscar) crece rápidamente a cifras astronómicas . El resultado es una búsqueda que es demasiado lento o no se completa nunca. La solución, para muchos problemas, es el uso de " heurística " o "reglas de oro" que dan prioridad a las opciones a favor de los que tienen más probabilidades de alcanzar una meta y para hacerlo de una menor cantidad de pasos. En algunas metodologías de búsqueda heurística también puede servir para eliminar por completo algunas opciones que son poco probable que conduzca a una meta (llamada " poda del árbol de búsqueda "). Heurística suministran el programa con una "mejor estimación" de la ruta en la que se encuentra la solución. Heurística limitar la búsqueda de soluciones en un tamaño de muestra más pequeño.

Un tipo muy diferente de búsqueda llegó a la prominencia en la década de 1990, basado en la teoría matemática de la optimización . Para muchos problemas, es posible iniciar la búsqueda con alguna forma de una conjetura y luego refinar la conjetura de forma incremental hasta que no haya más opciones se pueden hacer. Estos algoritmos se pueden visualizar como ciegos subida de pendientes : comenzamos la búsqueda en un punto aleatorio en el paisaje, y luego, mediante saltos o pasos, que se mantienen en movimiento nuestra suposición cuesta arriba, hasta llegar a la cima. Otros algoritmos de optimización se recocido simulado , búsqueda en haz y optimización aleatoria .

La computación evolutiva utiliza una forma de búsqueda de optimización. Por ejemplo, pueden empezar con una población de organismos (las conjeturas) y luego permitir que mutan y se recombinan, seleccionando sólo los más aptos para sobrevivir cada generación (refinando las conjeturas). Clásicos algoritmos evolutivos incluyen algoritmos genéticos , programación de la expresión génica , y la programación genética . Por otra parte, los procesos de búsqueda distribuidos pueden coordinar a través de la inteligencia de enjambre algoritmos. Dos algoritmos de enjambre populares utilizados en la búsqueda son la optimización de enjambre de partículas (inspirado en las aves que acuden ) y optimización de colonias de hormigas (inspirado por caminos de las hormigas ).

Lógica

La lógica se utiliza para la representación del conocimiento y la resolución de problemas, pero se puede aplicar a otros problemas también. Por ejemplo, el satplan algoritmo utiliza la lógica para la planificación y la programación lógica inductiva es un método para el aprendizaje .

Varias formas diferentes de lógica se utilizan en la investigación de AI. La lógica proposicional implica funciones de verdad tales como "o" y "no". La lógica de primer orden añade cuantificadores y predicados , y puede expresar hechos sobre los objetos, sus propiedades y sus relaciones entre sí. Teoría de conjuntos difusos asigna un "grado de verdad" (entre 0 y 1) a las declaraciones vagas como "Alicia es viejo" (o rico, alto o bajo, o con hambre) que son demasiado imprecisos para lingüísticamente ser completamente verdadero o falso. La lógica difusa se utiliza con éxito en los sistemas de control para permitir a los expertos contribuyen reglas vagas tales como "si no está cerca de la estación de destino y se mueve rápidamente, aumentar la presión de los frenos del tren"; estas normas vagas y luego se pueden refinar numéricamente dentro del sistema. La lógica difusa no escala bien en bases de conocimiento; muchos investigadores de la IA en duda la validez de encadenamiento de inferencias de lógica difusa.

Lógica por defecto , lógicas no monótonas y de circunscripción son las formas de la lógica diseñados para ayudar con el razonamiento defecto y el problema de la calificación . Varias extensiones de la lógica se han diseñado para manejar dominios específicos de conocimiento , tales como: Descripción lógicas ; cálculo situación , cálculo evento y cálculo fluidez (para la representación de eventos y tiempo); cálculo causal ; cálculo de creencias; y lógicas modales .

En general, la lógica simbólica qualitiative es frágil y se redimensiona en presencia de ruido u otras incertidumbres. Excepciones a reglas son numerosas, y es difícil para los sistemas lógicos que funcionen en presencia de reglas contradictorias.

métodos probabilísticos para el razonamiento incierto

Expectativa de maximización agrupación de Old Faithful datos erupción comienza a partir de una conjetura al azar, pero luego converge con éxito en una agrupación precisa de los dos modos físicamente distintos de erupción.

Muchos problemas en la IA (en el razonamiento, la planificación, el aprendizaje, la percepción y robótica) requieren el agente de operar con información incompleta o incierta. Investigadores de la IA han ideado una serie de potentes herramientas para resolver estos problemas utilizando métodos de probabilidad de la teoría y la economía.

Redes bayesianas son una herramienta muy general que puede ser utilizado para un gran número de problemas: el razonamiento (utilizando la inferencia bayesiana algoritmo), el aprendizaje (utilizando el algoritmo de expectativa de maximización ), planificación (utilizando redes de decisión ) y la percepción (utilizando redes bayesianas dinámicas ). Algoritmos de probabilidad también se pueden utilizar para el filtrado, la predicción, el alisado y la búsqueda de explicaciones para los flujos de datos, ayudando a la percepción de los sistemas para analizar los procesos que ocurren en el tiempo (por ejemplo, los modelos ocultos de Markov o filtros de Kalman ). En comparación con la lógica simbólica, la inferencia bayesiana formal es computacionalmente caro. Por inferencia sea manejable, la mayoría de las observaciones deben ser condicionalmente independientes el uno del otro. Gráficos complicados con diamantes u otras "loops" (no dirigidos ciclos ) pueden requerir un método sofisticado tales como la cadena de Markov Monte Carlo , que se extiende un conjunto de caminantes al azar a lo largo de la red bayesiana y los intentos para converger a una evaluación de las probabilidades condicionales. Redes bayesianas se utilizan en Xbox Live a los jugadores de tasas y de los partidos; victorias y derrotas son "evidencia" de lo bueno que es un jugador. AdSense utiliza una red bayesiana con más de 300 millones bordes de aprender qué anuncios se publican.

Un concepto clave de la ciencia de la economía es " utilidad ": una medida de cómo es algo valioso a un agente inteligente. Herramientas matemáticas precisas han sido desarrollados para analizar la forma en que un agente puede tomar decisiones y planificar, utilizando la teoría de decisión , análisis de decisión , y la teoría del valor de información . Estas herramientas incluyen modelos como los procesos de Markov de decisiones y dinámicas redes de decisión , la teoría de juegos y diseño de mecanismos .

Clasificadores y métodos de aprendizaje estadístico

Las aplicaciones más sencillas de IA se pueden dividir en dos tipos: los clasificadores ( "si es brillante a continuación diamante") y los controladores ( "si es brillante, luego tome"). Controladores hacen, sin embargo, también clasifican condiciones antes de inferir las acciones, y por lo tanto la clasificación constituye una parte central de muchos sistemas de inteligencia artificial. Los clasificadores son funciones que utilizan la coincidencia de patrones para determinar una coincidencia más cercana. Ellos pueden ajustarse según los ejemplos, que los hace muy atractivos para su uso en la IA. Estos ejemplos se conocen como observaciones o patrones. En el aprendizaje supervisado, cada patrón pertenece a una determinada clase predefinida. Una clase puede ser visto como una decisión que tiene que ser hecho. Todas las observaciones combinadas con sus etiquetas de clase se conocen como un conjunto de datos. Cuando se recibe una nueva observación, que la observación se clasifica con base en la experiencia previa.

Un clasificador puede ser entrenado en varias formas; hay muchas estadísticas y de aprendizaje automático enfoques. El árbol de decisión es tal vez el algoritmo de aprendizaje automático más utilizado. Otros clasificadores ampliamente utilizados son la red neuronal , k-más cercano algoritmo vecino , núcleo métodos tales como la máquina de vectores de soporte (SVM), modelo de mezcla gaussiana , y la extremadamente popular ingenuo clasificador de Bayes . Rendimiento clasificador depende en gran medida de las características de los datos a ser clasificados, tales como el tamaño conjunto de datos, la distribución de las muestras a través de las clases, la dimensionalidad, y el nivel de ruido. Clasificadores basados en modelos funcionan bien si el modelo asumido es un muy buen ajuste para los datos reales. De lo contrario, si no hay un modelo juego está disponible, y si la precisión (en lugar de la velocidad o la escalabilidad) es la única preocupación, la sabiduría convencional es que los clasificadores discriminativos (especialmente SVM) tienden a ser más precisa que los clasificadores basados en modelos tales como "naive Bayes" en la mayoría de los conjuntos de datos prácticos.

Redes neuronales artificiales

Una red neuronal es un grupo interconectado de nodos, similar a la vasta red de neuronas en el cerebro humano .

Las redes neuronales, o redes neuronales, fueron inspirados por la arquitectura de las neuronas en el cerebro humano. Un simple "neurona" N acepta la entrada de múltiples otras neuronas, cada uno de los cuales, cuando se activa (o "disparado"), "voto" ponderado para o en contra de si neurona N debe en sí activar. El aprendizaje requiere un algoritmo para ajustar estos pesos en base a los datos de entrenamiento; un simple algoritmo (denominado " fuego juntos, alambre juntos ") es para aumentar el peso entre dos neuronas conectadas cuando la activación de uno desencadena la activación exitosa de otro. Las formas netas "conceptos" que se distribuyen entre una subred de las neuronas compartidos que tienden a disparar juntos; un concepto que significa "pierna" podría ir acompañado de una subred que significa "pie" que incluye el sonido de "pie". Las neuronas tienen un espectro continuo de la activación; Además, las neuronas pueden procesar entradas de una manera no lineal en lugar de un peso de votos simples. Modernas redes neuronales pueden aprender dos funciones continuas y, sorprendentemente, las operaciones lógicas digitales. Los primeros éxitos redes neuronales incluyen la predicción del mercado de valores y (en 1995) un coche en su mayoría auto-conducción. En la década de 2010, los avances en las redes neuronales utilizando el aprendizaje profundo empuje AI en la conciencia pública generalizada y ha contribuido a un enorme cambio ascendente en el gasto corporativo AI; por ejemplo, relacionados con AI- M & A en 2017 fue de más de 25 veces mayor que en 2015.

El estudio de los no-aprendizaje redes neuronales artificiales se inició en la década anterior fue fundada el campo de la investigación en IA, en la obra de Walter Pitts y Warren McCullouch . Frank Rosenblatt inventó el perceptrón , una red de aprendizaje con una sola capa, similar al antiguo concepto de regresión lineal . Los pioneros también incluyen Alexey Grigorevich Ivakhnenko , Teuvo Kohonen , Stephen Grossberg , Kunihiko Fukushima , Christoph von der Malsburg, David Willshaw, Shun-Ichi Amari , Bernard Widrow , John Hopfield , EDUARDO R. CAIANIELLO , y otros.

Las principales categorías de redes son acíclicos o redes feedforward neuronales (donde la señal pasa en una sola dirección) y redes neuronales recurrentes (que permiten retroalimentación y corto plazo recuerdos de eventos de entrada anterior). Entre las redes de alimentación directa más populares son los perceptrones , perceptrones multicapa y redes de base radial . Las redes neuronales se pueden aplicar al problema de control inteligente (para la robótica) o de aprendizaje , utilizando técnicas tales como el aprendizaje de Hebb ( "fuego juntos, alambre juntos"), GMDH o aprendizaje competitivo .

Hoy en día, las redes neuronales son a menudo entrenados por la propagación hacia atrás algoritmo, que había estado presente desde 1970 como el modo inverso de la diferenciación automática publicado por Seppo Linnainmaa , y se introdujo a las redes neuronales por Paul Werbos .

La memoria temporal jerárquica es un enfoque que algunos modelos de las propiedades estructurales y algorítmicos de la neocorteza .

En resumen, las redes neuronales más usan alguna forma de descenso de gradiente en una topología neuronal creada a mano. Sin embargo, algunos grupos de investigación, tales como Uber , argumentan que sencilla neuroevolución para mutar nuevas topologías de redes neuronales y los pesos puede ser competitivo con las aproximaciones de descenso de gradiente sofisticados. Una ventaja de neuroevolución es que puede ser menos propensos a quedar atrapados en "callejones sin salida".

redes neuronales feedforward profunda

El aprendizaje profundo es cualquier red neuronal artificial que puede aprender una larga cadena de relaciones causales. Por ejemplo, una red de alimentación directa con seis capas ocultas puede aprender una cadena causal de siete enlace (seis capas ocultas + capa de salida) y tiene un "camino de asignación de crédito" (CAP) profundidad de siete. Muchos sistemas de aprendizaje profundas tienen que ser capaces de aprender las cadenas de diez o más enlaces causales de longitud. El aprendizaje profundo ha transformado muchos subcampos importantes de la inteligencia artificial, incluyendo la visión artificial , reconocimiento de voz , procesamiento del lenguaje natural y otros.

De acuerdo con una descripción, la expresión "aprendizaje profundo" fue introducido a la máquina de aprendizaje de la comunidad por Rina Dechter en 1986 y ganó fuerza después de Igor Aizenberg y sus colegas lo introdujo en redes neuronales artificiales en 2000. Las primeras redes de aprendizaje profundo funcionales fueron publicadas por Alexey grigorevich Ivakhnenko y VG Lapa en 1965. Estas redes están capacitados una capa a la vez. El artículo de Ivakhnenko 1971 describe el aprendizaje de un perceptrón multicapa de alimentación directa de profundidad con ocho capas, ya mucho más profundo que muchas redes posteriores. En 2006, una publicación de Geoffrey Hinton y Ruslan Salakhutdinov introdujo otra forma de pre-formación a muchas capas redes feedforward neuronales (FNNs) una capa a la vez, el tratamiento de cada capa a su vez como un sin supervisión máquina de Boltzmann restringido , a continuación, utilizando supervisada backpropagation para sintonia FINA. Al igual que en las redes neuronales artificiales poco profundos, las redes neuronales profundas pueden modelar relaciones no lineales complejas. En los últimos años, los avances en ambos algoritmos de aprendizaje automático y equipos informáticos han dado lugar a métodos más eficientes para la formación de redes neuronales profundos que contienen muchas capas de unidades ocultas no lineales y una capa de salida muy grande.

El aprendizaje profundo utiliza a menudo redes neuronales convolucionales (CNNs), cuyos orígenes se remontan a la Neocognitrón introducido por Kunihiko Fukushima en 1980. En 1989, Yann LeCun y sus colegas aplicaron backpropagation a una arquitectura tal. En la década de 2000, en una aplicación industrial CNNs ya procesados un estimado de 10% a 20% de todos los cheques emitidos en los EE.UU.. Desde 2011, las implementaciones rápidas de CNNs en las GPU han ganado muchos concursos de reconocimiento de patrones visuales.

CNNs con 12 capas convolucionales se utiliza en conjunción con el aprendizaje por refuerzo por "de Deepmind AlphaGo Lee", el programa que se batió en la parte superior Go campeón en 2016.

redes neuronales recurrentes profundas

Desde el principio, también se aplicó el aprendizaje profundo para secuenciar el aprendizaje con redes neuronales recurrentes (RNNs) que están en Turing teoría completa y se pueden ejecutar programas arbitrarios para procesar secuencias arbitrarias de los insumos. La profundidad de un RNN es ilimitado y depende de la longitud de su secuencia de entrada; por lo tanto, un RNN es un ejemplo de aprendizaje profundo. RNNs pueden ser entrenados por el descenso de gradiente , pero adolecen del problema de fuga de gradiente . En 1992, se demostró que el pre-entrenamiento no supervisado de una pila de redes neuronales recurrentes puede acelerar el aprendizaje supervisado subsiguiente de problemas secuenciales profundas.

Numerosos investigadores ahora utilizan variantes de un aprendizaje profundo recurrente NN llama la memoria de largo a corto plazo de la red (LSTM) publicado por Hochreiter y Schmidhuber en 1997. LSTM menudo es entrenado por Conexionista Temporal Clasificación (CTC). En Google, Microsoft y Baidu este enfoque ha revolucionado el reconocimiento de voz . Por ejemplo, en 2015, el reconocimiento de voz de Google experimentó un salto espectacular rendimiento del 49% a través de LSTM entrenado CTC, que ya está disponible a través de Google Voice a los mil millones de usuarios de teléfonos inteligentes. Google también utiliza LSTM para mejorar la traducción automática, Lenguaje de Modelado y procesamiento del lenguaje multilingüe. LSTM combinado con CNNs también mejoró la subtitulación automática de la imagen y una plétora de otras aplicaciones.

evaluar el progreso

AI, como la electricidad o la máquina de vapor, es una tecnología de propósito general. No hay consenso sobre cómo caracterizar las tareas IA tiende a sobresalir. Si bien los proyectos tales como AlphaZero han tenido éxito en la generación de su propio conocimiento a partir de cero, muchos otros proyectos de aprendizaje automático requieren grandes conjuntos de datos de entrenamiento. Investigador Andrew Ng ha sugerido, como una "regla de oro muy imperfecto", que "casi cualquier cosa que un humano típico puede hacer con menos de un segundo de pensamiento mental, es probable que ahora o en el futuro cercano podemos automatizar el uso de AI." La paradoja de Moravec sugiere que la IA se queda seres humanos en muchas tareas que el cerebro humano ha evolucionado específicamente para un buen desempeño.

Juegos proporcionan un punto de referencia muy publicitado para evaluar las tasas de progreso. AlphaGo alrededor de 2016 trajo la era de los puntos de referencia juego de mesa clásicos a su fin. Juegos de conocimiento imperfecto proporcionan nuevos retos a la IA en el campo de la teoría de juegos . E-Sports como StarCraft siguen proporcionando puntos de referencia públicas adicionales. Hay muchos concursos y premios, como el Desafío Imagenet , para promover la investigación en inteligencia artificial. Las áreas más comunes de la competencia incluyen máquina de inteligencia general, el comportamiento de conversación, de minería de datos, coches robóticos , y fútbol de robots, así como juegos convencionales.

El "juego de imitación" (una interpretación de la 1950 prueba de Turing que evalúa si un equipo puede imitar a un ser humano) se considera hoy en día demasiado explotable a ser un buen punto de referencia. Un derivado de la prueba de Turing es la prueba completamente Turing pública y automática para contar máquinas y humanos ( CAPTCHA de ). Como su nombre lo indica, esto ayuda a determinar que un usuario es una persona real y no un equipo posando como un ser humano. En contraste con la prueba de Turing estándar, de CAPTCHA se administra por una máquina y dirigido a un ser humano en lugar de ser administrado por un humano y dirigida a una máquina. Un ordenador le pide a un usuario para completar una prueba simple genera entonces una calificación para esa prueba. Los ordenadores son incapaces de resolver el problema, por lo que las soluciones correctas se considera que es el resultado de una persona que toma la prueba. Un tipo común de CAPTCHA es la prueba que requiere la tipificación de las letras distorsionadas, números o símbolos que aparecen en una imagen indescifrable por un ordenador.

Propuestas pruebas de inteligencia "universal" tienen como objetivo comparar qué tan bien las máquinas, los seres humanos, e incluso los animales no humanos realizan en conjuntos de problemas que son más genérica posible. En casos extremos, el conjunto de pruebas puede contener todos los problemas posibles, ponderada por la complejidad de Kolmogorov ; Por desgracia, estos conjuntos de problemas tienden a estar dominados por los ejercicios de patrones de coincidencia empobrecidas donde un AI sintonizado puede superar fácilmente los niveles de rendimiento humano.

aplicaciones

Un asistente automatizado en línea que proporciona el servicio al cliente en una página web - una de las muchas aplicaciones muy primitivas de la inteligencia artificial

AI es relevante para cualquier tarea intelectual. Técnicas de inteligencia artificial modernos son omnipresentes y son demasiado numerosos para enumerarlos aquí. Con frecuencia, cuando una técnica alcanza su uso corriente, que ya no se considera la inteligencia artificial; este fenómeno se describe como el efecto de la IA .

Ejemplos de alto perfil de la IA incluyen vehículos autónomos (tales como aviones y coches de auto-conducción ), el diagnóstico médico, la creación de arte (como la poesía), la demostración de teoremas matemáticos, juegos (como el ajedrez o Ir), motores de búsqueda (por ejemplo, la búsqueda de google ), asistentes de línea (como Siri ), reconocimiento de imágenes en las fotografías, filtrado de correo no deseado, la predicción de retrasos en los vuelos, la predicción de las decisiones judiciales y la orientación de anuncios en línea.

Con los sitios de medios sociales superando a la televisión como una fuente de noticias para los jóvenes y las organizaciones de noticias cada vez que dependen de las plataformas de medios sociales para generar la distribución, los editores más importantes ahora utilizan la tecnología de inteligencia artificial (AI) para publicar historias de manera más eficaz y generar un mayor volumen de tráfico.

Cuidado de la salud

Un brazo quirúrgico del lado del paciente del sistema quirúrgico Da Vinci

AI está siendo aplicada al problema de alto coste de las emisiones de dosis-donde hallazgos sugieren que la IA podría ahorrar $ 16 mil millones. En 2016, un estudio innovador en California encontró que una fórmula matemática desarrollada con la ayuda de AI determinó correctamente la dosis exacta de fármacos inmunosupresores para dar a los pacientes de órganos.

De rayos X de una mano, con cálculo automático de la edad ósea por los programas informáticos

La inteligencia artificial se está rompiendo en la industria de la salud, ayudando a los médicos. De acuerdo con Bloomberg Tecnología, Microsoft ha desarrollado AI para ayudar a los médicos a encontrar los tratamientos adecuados para el cáncer. Hay una gran cantidad de investigación y las drogas desarrollada en relación con el cáncer. En detalle, hay más de 800 medicamentos y vacunas para tratar el cáncer. Esto afecta negativamente a los médicos, porque hay demasiadas opciones para elegir, lo que hace más difícil elegir los medicamentos adecuados para los pacientes. Microsoft está trabajando en un proyecto para desarrollar una máquina llamada "Hannover". Su objetivo es memorizar todos los documentos necesarios para el cáncer y ayudar a predecir qué combinaciones de fármacos serán más eficaces para cada paciente. Un proyecto que se está trabajando en este momento está luchando contra la leucemia mieloide , un cáncer mortal en el que el tratamiento no ha mejorado en las últimas décadas. Se informó de otro estudio que ha descubierto que la inteligencia artificial era tan bueno como los médicos formados en la identificación de los cánceres de piel. Otro estudio es el uso de la inteligencia artificial para tratar de controlar múltiples pacientes de alto riesgo, y esto se hace preguntando a cada paciente numerosas preguntas basadas en datos obtenidos de médico en vivo a las interacciones de los pacientes.

De acuerdo con CNN , un estudio reciente realizado por los cirujanos del Centro Médico Nacional Infantil en Washington demostró con éxito la cirugía con un robot autónomo. El equipo supervisó el robot mientras se realiza la cirugía de los tejidos blandos, cosiendo juntos intestino de un cerdo durante la cirugía abierta, y hacerlo mejor que un cirujano humano, el equipo se reivindica. IBM ha creado su propio equipo de inteligencia artificial, el IBM Watson , que ha vencido a la inteligencia humana (en algunos niveles). Watson no sólo ganó en la demostración de juego de Jeopardy! contra los ex campeones, pero fue declarado un héroe después de diagnosticar correctamente una mujer que sufría de leucemia.

Automotor

Los avances en la IA han contribuido al crecimiento de la industria del automóvil a través de la creación y la evolución de los vehículos de auto-conducción. A partir de 2016, hay más de 30 empresas que utilizan la IA en la creación de los coches sin conductor . Algunas compañías involucradas con la IA incluyen Tesla , Google y de Apple .

Muchos de los componentes contribuyen al funcionamiento de los coches de auto-conducción. Estos vehículos incorporan sistemas tales como frenado, cambio de carril, la prevención de colisión, la navegación y la cartografía. Juntos, estos sistemas, así como ordenadores de alto rendimiento, se integran en un complejo del vehículo.

La evolución reciente de los automóviles autónomos han hecho de la innovación de camiones auto-conducción posibles, aunque todavía están en la fase de prueba. El gobierno del Reino Unido ha aprobado una ley para comenzar las pruebas de pelotones de camiones auto-conducción en 2018. Los pelotones de camiones auto-conducción son una flota de camiones auto-conducción siguiendo el ejemplo de un camión no auto-conducción, por lo que los pelotones de camiones no son totalmente autónoma todavía. Mientras tanto, el Daimler, una empresa automovilística alemana, es la prueba de la inspiración Freightliner que es un camión semi-autónomo que sólo se utilizará en la carretera.

Un factor principal que influye en la capacidad de un automóvil conductor-menos a la función es la cartografía. En general, el vehículo podría ser pre-programado con un mapa del área que está siendo impulsado. Este mapa incluye datos sobre las aproximaciones de la luz de la calle y las alturas de las aceras para que el vehículo sea consciente de su entorno. Sin embargo, Google ha estado trabajando en un algoritmo con el fin de eliminar la necesidad de mapas pre-programados y en su lugar, la creación de un dispositivo que sea capaz de adaptarse a una variedad de nuevos entornos. Algunos coches auto-conducción no están equipados con ruedas de dirección o los pedales de freno, por lo que también ha sido la investigación se centró en la creación de un algoritmo que es capaz de mantener un ambiente seguro para los pasajeros en el vehículo a través del conocimiento de la velocidad y las condiciones de conducción.

Otro factor que está influyendo la capacidad de un automóvil conductor-menos es la seguridad del pasajero. Para hacer un automóvil sin conductor, los ingenieros deben programar para manejar situaciones de alto riesgo. Estas situaciones podrían incluir una colisión de frente con los peatones. El objetivo principal del coche debe ser para tomar una decisión que evitar golpear los peatones y el ahorro de los pasajeros en el coche. Pero hay una posibilidad el coche tendría que tomar una decisión que pondría en peligro a alguien. En otras palabras, el coche tendría que decidir para guardar los peatones o los pasajeros. La programación del coche en estas situaciones es crucial para el éxito de automóviles sin conductor.

Finanzas y economía

Las instituciones financieras han utilizado durante mucho tiempo de redes neuronales artificiales sistemas para detectar cargas o reclamaciones fuera de la norma, marcar estos para la investigación humana. El uso de la IA en la banca se remonta a 1987, cuando Security Pacific National Bank de los Estados Unidos estableció en marcha una fuerza de tareas de Prevención de Fraude para contrarrestar el uso no autorizado de las tarjetas de débito. Programas como Kasisto y Moneystream están utilizando la IA en los servicios financieros.

Los bancos utilizan sistemas de inteligencia artificial hoy para organizar las operaciones, mantener la contabilidad, invertir en acciones y administrar propiedades. IA puede reaccionar a los cambios durante la noche o cuando la empresa no está teniendo lugar. En agosto de 2001, los robots golpearon los seres humanos en una simulación de las operaciones financieras de la competencia. AI también ha reducido el fraude y delitos financieros mediante el control de los patrones de comportamiento de los usuarios de cualquier cambio anormal o anomalías.

El uso de máquinas de AI en el mercado en aplicaciones tales como comercio en línea y la toma de decisiones ha cambiado principales teorías económicas. Por ejemplo, AI compra basada y plataformas de venta han cambiado la ley de la oferta y la demanda , ya que ahora es posible estimar fácilmente la demanda individualizada y las curvas de oferta y los precios de este modo individualizado. Por otra parte, las máquinas de AI reducir la asimetría de la información en el mercado y con lo que los mercados más eficiente al tiempo que reduce el volumen de las operaciones. Por otra parte, la IA en los mercados limita las consecuencias de la conducta en los mercados de nuevo hacer que los mercados más eficientes. Otras teorías donde AI ha tenido un impacto incluyen en la elección racional , las expectativas racionales , la teoría de juegos , punto de inflexión de Lewis , optimización de la cartera y el pensamiento contrafactual .

Videojuegos

En los videojuegos, la inteligencia artificial se utiliza rutinariamente para generar un comportamiento dinámico en un propósito personajes no jugadores (NPC). Además, las técnicas de IA bien entendidos se utilizan rutinariamente para pathfinding . Algunos investigadores consideran que la APN IA en los juegos a ser un "problema resuelto" para la mayoría de las tareas de producción. Juegos con más atípica AI incluyen el director de AI de Left 4 Dead (2008) y la formación de pelotones neuroevolutionary en Supreme Commander 2 (2010).

Militar

Gasto militar anual mundial en robótica aumentó de US $ 5,1 mil millones en 2010 a US $ 7.5 mil millones en 2015. Los aviones militares capaces de acción autónoma son ampliamente considerado como un recurso útil. En 2017, Vladimir Putin declaró que "El que se convierte en el líder en (inteligencia artificial) se convertirá en el gobernante del mundo". Muchos investigadores de inteligencia artificial tratan de distanciarse de las aplicaciones militares de la IA.

Auditoría

Para auditoría estados financieros, AI hace posible auditoría continua. herramientas de IA podrían analizar muchos conjuntos de información distinta de inmediato. El beneficio potencial sería se reducirá el riesgo general de auditoría, se incrementará el nivel de garantía y se reducirá el tiempo de duración de la auditoría.

Publicidad

Es posible utilizar la IA de predecir o generalizar el comportamiento de los clientes de sus huellas digitales con el fin de dirigirse a ellos con promociones personalizadas o construir personajes de los clientes de forma automática. Un caso documentado informa que las empresas de juego en línea estaban usando IA para mejorar la focalización del cliente.

Por otra parte, la aplicación de la personalidad de computación modelos de IA puede ayudar a reducir el costo de las campañas de publicidad mediante la adición de orientación psicológica para la segmentación sociodemográfica o de comportamiento más tradicional.

Art º

La inteligencia artificial ha inspirado numerosas aplicaciones creativas incluyendo su uso para producir arte visual. La exposición "Thinking Machines: Arte y Diseño de la era del ordenador, 1959-1989" en el MoMA ofrece una buena visión general de las aplicaciones históricas de AI para el arte, la arquitectura y el diseño. Exposiciones recientes que muestran el uso de la IA para producir arte incluyen el beneficio patrocinado por Google y la subasta en la Fundación área gris en San Francisco, donde los artistas experimentaron con el algoritmo deepdream y la exposición "no humano: arte en la época de la gripe aviar", que tuvo lugar en los Ángeles y Frankfurt en el otoño de 2017. en la primavera de 2018, la Asociación de Maquinaria de Computación dedicó un número especial a la revista el tema de las computadoras y el arte que destacan el papel de la máquina de aprendizaje en las artes.

Filosofía y ética

Hay tres cuestiones filosóficas relacionadas con AI:

  1. Es ia fuerte posible? ¿Puede una máquina de resolver cualquier problema que un ser humano puede resolver utilizando la inteligencia? O hay límites estrictos a lo que una máquina puede lograr?
  2. Son máquinas inteligentes peligroso? ¿Cómo podemos asegurar que las máquinas se comportan de manera ética y que se usan éticamente?
  3. ¿Puede una máquina de tener una mente , la conciencia y los estados mentales exactamente en el mismo sentido que los seres humanos hacen? Puede ser una máquina sensible , y por lo tanto merecen ciertos derechos? ¿Puede una máquina intencionalmente causar daño?

Los límites de la inteligencia artificial en general

Puede ser una máquina inteligente? Puede "pensar"?

"Convención educado" de Alan Turing
No necesitamos decidir si una máquina puede "pensar"; sólo tenemos que decidir si una máquina puede actuar como inteligente como un ser humano. Este enfoque a los problemas filosóficos asociados con la inteligencia artificial constituye la base de la prueba de Turing .
La propuesta de Dartmouth
"Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede ser descrito de manera tan precisa que una máquina puede hacerse para simularlo." Esta conjetura fue impreso en la propuesta de la Conferencia de Dartmouth de 1956, y representa la posición de la mayoría de los investigadores que trabajan AI.
Newell y Simon hipótesis del sistema de símbolos físicos
"Un sistema de símbolo físico tiene los medios necesarios y suficientes de acción inteligente general." Newell y Simon argumentan que la inteligencia consiste en operaciones formales sobre los símbolos. Hubert Dreyfus argumentó que, por el contrario, la experiencia humana depende del instinto inconsciente en lugar de la manipulación de símbolos consciente y en tener una "sensación" para la situación en lugar de conocimiento simbólico explícito. (Ver crítica de AI Dreyfus ).
argumentos Gödeliana
Gödel mismo, John Lucas (en 1961) y Roger Penrose (en una discusión más detallada a partir de 1989) hicieron argumentos altamente técnicos que los matemáticos humanos pueden ver constantemente la verdad de sus propias "declaraciones Gödel" y por lo tanto tienen capacidades computacionales más allá de la mecánica máquinas de Turing. Sin embargo, el consenso moderna en la comunidad científica y matemática es que estos "argumentos" Gödeliana fallan.
El cerebro artificial argumento
El cerebro puede ser simulado por las máquinas y porque los cerebros son inteligentes, los cerebros simulados también debe ser inteligente; Así, las máquinas pueden ser inteligentes. Hans Moravec , Ray Kurzweil y otros han argumentado que es tecnológicamente posible copiar el cerebro directamente en hardware y software y que tal simulación será esencialmente idéntica a la original.
El efecto de la IA
Las máquinas son ya inteligente, pero los observadores no han podido reconocerlo. Cuando Deep Blue venció a Garry Kasparov en ajedrez, la máquina estaba actuando de forma inteligente. Sin embargo, los espectadores de descuento comúnmente el comportamiento de un programa de inteligencia artificial con el argumento de que no es la inteligencia "real" después de todo; por lo tanto "real" la inteligencia es lo que la gente comportamiento inteligente puede hacer que las máquinas todavía no puede. Esto se conoce como el Efecto AI: "AI es todo lo que no se ha hecho todavía."

Daño potencial

El uso generalizado de la inteligencia artificial podría tener consecuencias no deseadas que son peligrosos o indeseables. Los científicos del futuro de Life Institute , entre otros, describen algunos de los objetivos de investigación a corto plazo para ver cómo influye en la economía AI, las leyes y la ética que están involucrados con AI y cómo minimizar los riesgos de seguridad de IA. A largo plazo, se han propuesto los científicos para seguir optimizando la función y reducir al mínimo los posibles riesgos de seguridad que vienen junto con las nuevas tecnologías.

riesgo existencial

El físico Stephen Hawking , Microsoft fundador , Bill Gates , y SpaceX fundador Elon Musk han expresado su preocupación por la posibilidad de que la IA podría evolucionar hasta el punto de que los seres humanos no podían controlarlo, con Hawking la teoría de que esto podría " significar el fin de la raza humana ".

El desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana. Una vez que los seres humanos desarrollan la inteligencia artificial, que va a despegar por sí mismo y rediseñarse a un ritmo cada vez mayor. Los seres humanos, que están limitados por la evolución biológica lenta, no podían competir y serían reemplazados.

En su libro super-inteligencia , Nick Bostrom proporciona un argumento de que la inteligencia artificial supondrá una amenaza para la humanidad. Sostiene que lo suficientemente inteligente AI, si así lo decide las acciones basadas en el logro de algún objetivo, exhibirá convergente comportamiento tales como la adquisición de recursos o protegerse de ser cerrado. Si los objetivos de este AI no reflejan humanity's-Un ejemplo es una IA dijo a computar tantos dígitos de pi como sea posible, que podría dañar a la humanidad con el fin de adquirir más recursos o prevenirse del ser cerrado, en última instancia, para alcanzar mejor su objetivo.

La preocupación por el riesgo de la inteligencia artificial ha dado lugar a algunas donaciones de alto perfil y las inversiones. Un grupo de titanes de la tecnología prominentes incluyendo Peter Thiel , Amazon Web Services y almizcle se han comprometido $ 1 mil millones a OpenAI , una empresa sin fines de lucro destinada a la defensa de un desarrollo responsable de AI. La opinión de expertos en el campo de la inteligencia artificial es mixta, con fracciones de tamaño considerable, tanto en cuestión y despreocupados por el riesgo de una eventual AI-sobrehumanamente capaz. En enero de 2015, Elon Musk donó diez millones de dólares para el futuro de Life Institute para financiar la investigación en la comprensión de la toma de decisiones AI. El objetivo del instituto es "crecer sabiduría con la que manejamos" el creciente poder de la tecnología. Almizcle también financia empresas que desarrollan la inteligencia artificial, tales como Google DeepMind y Vicarious a "sólo mantener un ojo en lo que está pasando con la inteligencia artificial. Creo que hay potencialmente un resultado peligroso allí."

Para este peligro se haga realidad, la hipotética AI tendría que dominar o fuera de pensar en toda la humanidad, que una minoría de expertos argumentan es una posibilidad lo suficientemente lejos en el futuro a no valer la pena investigar. Otros argumentos en contra giran en torno a los seres humanos ser ya sea intrínsecamente o convergente valiosa desde la perspectiva de una inteligencia artificial.

La devaluación de la humanidad

Joseph Weizenbaum escribió que las aplicaciones de IA no puede, por definición, simular con éxito genuina empatía humana y que el uso de la tecnología de la IA en campos tales como el servicio al cliente o la psicoterapia era profundamente equivocada. Weizenbaum también le molestaba que los investigadores de IA (y algunos filósofos) estaban dispuestos a ver la mente humana como nada más que un programa de ordenador (una posición que ahora se conoce como computacionalismo ). Para Weizenbaum estos puntos sugieren que la investigación en IA devalúa la vida humana.

Disminución de la demanda de mano de obra humana

La relación entre la automatización y el empleo se complica. Si bien la automatización elimina puestos de trabajo de edad, sino que también crea nuevos puestos de trabajo a través de efectos de micro-económico y macro-económicas. A diferencia de las anteriores olas de automatización, muchos trabajos de clase media pueden ser eliminadas por la inteligencia artificial; The Economist afirma que "la preocupación de que la IA podía hacer para trabajos de oficina lo que la energía de vapor hizo a los obreros durante la revolución industrial" es "digno de tomar en serio". Estimaciones subjetivas del riesgo varían ampliamente; por ejemplo, Michael Osborne y Carl Benedikt Frey estiman 47% de los empleos en Estados Unidos están en "alto riesgo" de la automatización potencial, mientras que un informe de la OCDE clasifica sólo el 9% de los empleos en Estados Unidos como de "alto riesgo". Puestos de trabajo en riesgo extremo rango de asistentes legales que ayunas comida se cocina, mientras que la demanda de trabajo es probable que aumente para las profesiones relacionadas con el cuidado de la salud que van desde personal para el clero. Autor Martin Ford y otros van más allá y afirman que un gran número de puestos de trabajo son rutinarios, repetitivos y (a una IA) predecible; Ford advierte que estos trabajos pueden ser automatizados en el próximo par de décadas, y que muchos de los nuevos puestos de trabajo no puede ser "accesible para personas con capacidad media", incluso con el reciclaje. Los economistas señalan que en el pasado la tecnología ha tendido a aumentar en vez de reducir el empleo total, pero reconoce que "estamos en un territorio desconocido" con AI.

armas autónomas

Actualmente, más de 50 países están investigando los robots de batalla, incluyendo los Estados Unidos, China, Rusia y el Reino Unido. Muchas personas preocupadas por el riesgo de superinteligente AI también quieren limitar el uso de soldados y aviones no tripulados artificiales.

máquinas éticos

Las máquinas con inteligencia tienen la posibilidad de utilizar su inteligencia para prevenir el daño y minimizar los riesgos; que pueden tener la capacidad de utilizar el razonamiento ético para elegir mejor sus acciones en el mundo. La investigación en esta área incluye la ética de la máquina , los agentes morales artificiales y amigable AI .

agentes morales artificiales

Wendell Wallach introdujo el concepto de agentes morales artificiales (AMA) en su libro Máquinas morales para Wallach, AMA se han convertido en una parte del panorama de la investigación de la inteligencia artificial como guiados por sus dos cuestiones centrales que se identifica como "¿Tiene la humanidad desea que los equipos Haciendo Moral decisiones" y "Can (Ro) contra los robots realmente ser moral". Para Wallach la cuestión no se centra en la cuestión de si las máquinas pueden demostrar el equivalente de la conducta moral, en contraste con las limitaciones de la cual la sociedad puede colocar en el desarrollo de los AMA.

ética de las máquinas

El campo de la ética de la máquina se ocupa de dotar a las máquinas principios éticos, o un procedimiento para descubrir una manera de resolver los dilemas éticos que pueden encontrar, lo que les permite funcionar de una manera éticamente responsable a través de su propia toma de decisiones éticas. El campo se delineó en el AAAI otoño de 2005 Simposio sobre Ética de la máquina: "Las investigaciones anteriores sobre la relación entre la tecnología y la ética se ha centrado en gran medida en el uso responsable e irresponsable de la tecnología por los seres humanos, con algunas personas estar interesado en los seres cómo humanos deben el tratamiento de las máquinas. en todos los casos, sólo los seres humanos se han involucrado en el razonamiento ético. ha llegado el momento para añadir una dimensión ética a por lo menos algunas máquinas. El reconocimiento de las ramificaciones éticas de comportamiento relacionados con las máquinas, así como los acontecimientos recientes y potenciales en la máquina autonomía, requieren esto. en contraste con la piratería informática, cuestiones de propiedad de software, problemas de privacidad y otros temas que normalmente se atribuyen a la ética informática, la ética de la máquina se ocupa del comportamiento de las máquinas hacia los usuarios humanos y otras máquinas. la investigación en ética de las máquinas es clave para aliviar preocupaciones con sistemas autónomos, se podría argumentar que la noción de máquinas autónomas sin tal una dimensión está en la raíz de todo temor en relación con la inteligencia artificial. Además, la investigación de la ética de la máquina podría permitir el descubrimiento de problemas con las teorías éticas actuales, el avance de nuestro pensamiento sobre la ética." Ética de la máquina se refiere a veces como la moralidad de la máquina, la ética computacional o la moralidad de cálculo. Una variedad de perspectivas de este campo emergente puede ser encontrado en la edición recogida "máquina de Ética" que se deriva de la caída AAAI 2005 Simposio sobre Ética de la máquina.

Malévola y agradable AI

El politólogo Charles T. Rubin cree que la IA puede ser diseñado ni garantiza que sea benévolo. Sostiene que "ninguna benevolencia suficientemente avanzada puede ser indistinguible de la malevolencia." Los seres humanos no deben asumir máquinas o robots nos tratarían favorablemente porque no hay a priori razones para creer que iban a ser comprensivos con nuestro sistema de moralidad, que ha evolucionado junto con nuestra biología particular (que no compartiría IA). Software de hiper-inteligente no necesariamente puede decidir para apoyar la existencia continuada de la humanidad y sería extremadamente difícil de detener. Este tema también ha comenzado recientemente a ser discutido en publicaciones académicas como una verdadera fuente de riesgos para la civilización, los seres humanos y el planeta Tierra.

Una de las propuestas para hacer frente a esto es para asegurar que la primera IA en general, es inteligente ' AI friendly ', y será entonces capaz de controlar posteriormente desarrollado inhibidores de la aromatasa. Algunos se preguntan si este tipo de cheque realmente podría permanecer en su lugar.

Investigador principal de AI Rodney Brooks escribe: "Creo que es un error que se ha de preocuparse por nosotros desarrollar malévola AI en cualquier momento en los próximos cien años. Creo que la preocupación se debe a un error fundamental de no distinguir la diferencia entre los recientes avances muy reales en un aspecto particular de la IA, y la magnitud y la complejidad de la construcción de la inteligencia consciente volitivo ".

conciencia de la máquina, la sensibilidad y la mente

Si un sistema de inteligencia artificial se replica todos los aspectos clave de la inteligencia humana, tendrá que ser sistema también sensible -Will que tiene una mente que tiene experiencias conscientes ? Esta cuestión está estrechamente relacionada con el problema filosófico sobre la naturaleza de la conciencia humana, generalmente conocido como el duro problema de la conciencia .

Conciencia

David Chalmers identificó dos problemas en la comprensión de la mente, a la que llamó los problemas "duros" y "fáciles" de la conciencia. El problema fácil es entender cómo el cerebro procesa las señales, hace planes y controles de comportamiento. El problema difícil es explicar cómo se siente o por qué se debe sentir como nada en absoluto. Humana procesamiento de la información es fácil de explicar, sin embargo humana experiencia subjetiva es difícil de explicar.

Por ejemplo, considere lo que sucede cuando una persona se muestra una muestra de color y lo identifica, diciendo "es roja". El problema fácil sólo requiere la comprensión de los mecanismos en el cerebro que hace posible que una persona sepa que la muestra de color es rojo. El problema difícil es que la gente también saben algo más, también saben lo que se ve roja gusta . (Tenga en cuenta que una persona que nació ciego puede saber que algo es de color rojo, sin saber lo que parece rojos similares.) Todo el mundo sabe que existe la experiencia subjetiva, porque lo hacen todos los días (por ejemplo, todas las personas videntes saben lo que se ve como rojas). El problema difícil es explicar cómo el cerebro crea, por qué existe, y cómo es diferente de conocimientos y otros aspectos del cerebro.

Computacionalismo y el funcionalismo

Computacionalismo es la posición en la filosofía de la mente que la mente humana o el cerebro humano (o ambos) es un sistema de procesamiento de información y que el pensamiento es una forma de computación. Computacionalismo sostiene que la relación entre la mente y el cuerpo es similar o idéntica a la relación entre el software y el hardware y por lo tanto puede ser una solución al problema mente-cuerpo . Esta posición filosófica se inspiró en el trabajo de los investigadores de IA y científicos cognitivos en la década de 1960 y fue originalmente propuesto por los filósofos Jerry Fodor y Hilary Putnam .

Hipótesis fuerte AI

La posición filosófica que John Searle ha llamado "IA fuerte" dice lo siguiente: "El ordenador programado adecuadamente con las entradas y salidas correctas sería por lo tanto tienen una mente exactamente en los seres humanos tienen mentes mismo sentido." Searle contrarresta esta afirmación con su habitación china argumento, que nos invita a mirar el interior de la computadora y tratar de encontrar en la "mente" podría ser.

derechos de los robots

Si una máquina puede ser creado que tiene inteligencia, podría también sentir ? Si se puede sentir, ¿tiene los mismos derechos que un ser humano? Este problema, conocido ahora como " derechos de los robots ", actualmente se está estudiando, por ejemplo, en California Institute for the Future , aunque muchos críticos creen que la discusión es prematura. Algunos críticos del transhumanismo argumentan que cualquier derecho hipotéticos robot se encontrarían en un espectro con derechos de los animales y de los derechos humanos. El tema se analiza profundamente en la película documental de 2010 Plug & Pray .

super-inteligencia

¿Hay límites para lo inteligente máquinas-o-híbridos pueden ser hombre-máquina? A superinteligencia, hiperinteligencia, o inteligencia sobrehumana es un agente hipotético que poseer inteligencia muy superior a la de la mente humana más brillante y más dotado. Superinteligencia también puede referirse a la forma o grado de inteligencia poseído por un agente tal.

singularidad tecnológica

Si la investigación en IA fuerte produce el software lo suficientemente inteligentes, podría ser capaz de reprogramar y mejorar la misma. El software mejorado sería aún mejor en la mejora de sí mismo, lo que lleva a recursivo auto-mejora . La nueva inteligencia podría así aumentar exponencialmente y superar de manera espectacular los seres humanos. Escritor de ciencia ficción Vernor Vinge nombrado este escenario " singularidad ". Singularidad tecnológica es al acelerar el progreso en tecnologías causará un efecto fuera de control en el que la inteligencia artificial superará la capacidad intelectual humana y el control, cambiando así radicalmente o incluso poner fin a la civilización. Debido a las capacidades de una inteligencia tales pueden ser imposibles de comprender, la singularidad tecnológica es una ocurrencia más allá del cual los eventos son impredecibles o incluso incomprensible.

Ray Kurzweil ha utilizado la ley de Moore (que describe la mejora exponencial implacable en la tecnología digital) para calcular que las computadoras de escritorio tendrán la misma capacidad de procesamiento como los cerebros humanos para el año 2029, y predice que la singularidad se producirá en 2045.

El transhumanismo

Diseñador del robot Hans Moravec , en cibernética Kevin Warwick e inventor Ray Kurzweil han predicho que los seres humanos y máquinas se fusionarán en un futuro en cyborgs que son más capaz y poderoso que sea. Esta idea, llamada transhumanismo , que tiene sus raíces en Aldous Huxley y Robert Ettinger .

Edward Fredkin sostiene que la "inteligencia artificial es la siguiente etapa en la evolución", una idea propuesta por primera vez por Samuel Butler 's ' Darwin entre las máquinas '(1863), y ampliado por George Dyson en su libro del mismo nombre en 1998.

En ficción

La palabra "robot" fue acuñado por Karel Capek en su 1921 obra RUR , el título que significa " Los robots universales de Rossum "

Seres artificiales capaces de pensamiento-aparecieron como dispositivos de narración desde la antigüedad, y han sido un tema recurrente en la ciencia ficción .

Un común tropo en estas obras se inició con Mary Shelley 's Frankenstein , donde una creación humana se convierte en una amenaza para sus amos. Esto incluye obras como de Arthur C. Clarke y Stanley Kubrick 2001: Una odisea del espacio (ambos 1968), con HAL 9000 , el ordenador asesina a cargo del Descubrimiento Una nave espacial, así como The Terminator (1984) y The Matrix (1999 ). En contraste, los robots leales raras como Gort de El día que la Tierra se detuvo (1951) y Bishop de Extranjeros (1986) son menos prominentes en la cultura popular.

Isaac Asimov introducir las Tres Leyes de la Robótica en muchos libros e historias, más notablemente la serie "Multivac" acerca de un equipo de super-inteligente del mismo nombre. Leyes de Asimov son llevados a menudo durante las discusiones laico de la ética de la máquina; mientras que los investigadores de inteligencia artificial casi todos están familiarizados con las leyes de Asimov a través de la cultura popular, por lo general consideran que las leyes inútiles por muchas razones, una de ellas es su ambigüedad.

El transhumanismo (la fusión de los seres humanos y máquinas) se explora en la manga de Ghost in the Shell la serie de ciencia-ficción y la duna . En la década de 1980, el artista Hajime Sorayama serie de atractivas Robots 's fueron pintadas y publicado en Japón que representa la forma humana real orgánica con pieles metálicas musculares realistas y más tarde 'los Gynoids' libro siguieron que fue utilizado por o encargados de la película influido incluyendo George Lucas y otra creativos. Sorayama nunca se consideró a estos robots orgánicos para ser real parte de la naturaleza, pero siempre producto no natural de la mente humana, una fantasía que existe en la mente incluso cuando se dio cuenta en forma real.

Varios trabajos utilizan AI para obligarnos a hacer frente a la fundamental de la cuestión de lo que nos hace humanos, mostrándonos seres artificiales que tienen la capacidad de sentir , y por lo tanto sufrir. Esto aparece en Karel Capek 's ' RUR ', las películas ' Inteligencia Artificial AI ' y ' Ex Machina ', así como la novela ¿Sueñan los androides con ovejas eléctricas? , Por Philip K. Dick . Dick considera la idea de que nuestra comprensión de la subjetividad humana se ve alterado por la tecnología creada con la inteligencia artificial.

Ver también

Notas explicatorias

referencias

los libros de texto de AI

Historia de la IA

Otras fuentes

Otras lecturas

enlaces externos