Lo que la historia de la IA nos dice sobre su futuro

0


Pero en lo que tradicionalmente las computadoras han sido malas era en la estrategia: la capacidad de pensar en la forma de un juego con muchos, muchos movimientos en el futuro. Aquí es donde los humanos todavía tenían la ventaja.

O eso pensó Kasparov, hasta que el movimiento de Deep Blue en el Juego 2 lo sorprendió. Parecía tan sofisticado que Kasparov comenzó a preocuparse: ¡tal vez el auto era mucho mejor de lo que había pensado! Convencido de que no tenía forma de ganar, renunció al segundo juego.

Pero no debería haberlo hecho. Resulta que Deep Blue, en realidad, no era tan bueno. Kasparov no había logrado identificar un movimiento que dejaría el juego empatado. Se estaba poniendo nervioso: preocupado de que la máquina pudiera ser mucho más poderosa de lo que realmente era, había comenzado a ver un razonamiento humano donde no existía.

Con el ritmo quitado, Kasparov siguió jugando cada vez peor. Se despertó una y otra vez. Al comienzo del sexto juego, el ganador se lo lleva todo, hizo un movimiento tan malo que los observadores de ajedrez gritaron en estado de shock. «No estaba de humor para jugar en absoluto», dijo más tarde en una conferencia de prensa.

IBM se benefició de su luz de la luna. En el frenesí de la prensa que siguió al éxito de Deep Blue, la capitalización de mercado de la empresa aumentó en 11.400 millones de dólares en solo una semana. Sin embargo, lo que es más importante, el triunfo de IBM se sintió como un deshielo en el largo invierno de la IA. Si se pudiera conquistar el ajedrez, ¿qué pasaría después? La mente de la audiencia vaciló.

«Esto», me dice Campbell, «es lo que llamó la atención de la gente».


La verdad es que no sorprende que una computadora venciera a Kasparov. La mayoría de las personas que habían prestado atención a la IA y al ajedrez esperaban que eventualmente sucediera.

El ajedrez puede parecer el pináculo del pensamiento humano, pero no lo es. De hecho, es una tarea mental bastante susceptible al cálculo de fuerza bruta: las reglas son claras, no hay información oculta y una computadora ni siquiera necesita realizar un seguimiento de lo que sucedió en los movimientos anteriores. Solo evalúa la posición de las piezas en este momento.

«Hay muy pocos problemas en los que, como con el ajedrez, tienes toda la información que podrías necesitar para tomar la decisión correcta».

Todos sabían que una vez que las computadoras fueran lo suficientemente rápidas, abrumarían a un ser humano. Era solo una cuestión de cuándo. A mediados de la década de 1990, «la escritura ya estaba en la pared, en cierto modo», dice Demis Hassabis, director de la empresa de inteligencia artificial DeepMind, parte de Alphabet.

La victoria de Deep Blue fue el momento que mostró lo limitados que pueden ser los sistemas codificados a mano. IBM había gastado años y millones de dólares en el desarrollo de una computadora para jugar al ajedrez. Pero no había nada más que pudiera hacer.

“No condujo a los descubrimientos que permitieron la [Deep Blue] La inteligencia artificial tendrá un gran impacto en el mundo «, dice Campbell. Realmente no han descubierto ningún principio de inteligencia, porque el mundo real no se parece al ajedrez». Hay muy pocos problemas en los que, como con el ajedrez. , los tienes todos. La información que podrías necesitar para tomar la decisión correcta «, agrega Campbell. La mayoría de las veces hay incógnitas. Hay aleatoriedad «.

Pero incluso mientras Deep Blue fregaba el suelo con Kasparov, un puñado de alegres recién llegados estaba jugando con una forma de inteligencia artificial radicalmente más prometedora: la red neuronal.

Con las redes neuronales, la idea no era, como con los sistemas expertos, escribir reglas pacientemente para cada decisión que tomará una IA. En cambio, el entrenamiento y el refuerzo fortalecen las conexiones internas en la emulación aproximada (como dice la teoría) de cómo aprende el cerebro humano.

1997: Después de que Garry Kasparov venciera a Deep Blue en 1996, IBM le pidió al campeón mundial de ajedrez una revancha, que se llevó a cabo en la ciudad de Nueva York con una máquina mejorada.

AP FOTO / ADAM NADEL

La idea ha existido desde la década de 1950. Pero entrenar una red neuronal útilmente grande requería computadoras ultrarrápidas, toneladas de memoria y una gran cantidad de datos. Nada de esto estaba disponible entonces. Incluso en la década de 1990, las redes neuronales se consideraban una pérdida de tiempo.

«En ese momento, la mayoría de las personas en inteligencia artificial pensaban que las redes neuronales eran simplemente basura», dice Geoff Hinton, profesor emérito de informática en la Universidad de Toronto y pionero en el campo. “Me han llamado ‘verdadero creyente’”, no es un cumplido.

Pero en la década de 2000, la industria informática estaba evolucionando para hacer viables las redes neuronales. El anhelo de los jugadores de videojuegos por obtener gráficos cada vez mejores ha creado una enorme industria de unidades de procesamiento de gráficos ultrarrápidos, que han demostrado ser perfectamente adecuadas para las matemáticas de redes neuronales. Mientras tanto, Internet estaba explotando, produciendo un torrente de imágenes y texto que podrían usarse para entrenar sistemas.

A principios de la década de 2010, estos avances técnicos permitieron que Hinton y su equipo de verdaderos creyentes llevaran las redes neuronales a nuevas alturas. Ahora podrían crear redes con muchas capas de neuronas (que es lo que significa «profundo» en «aprendizaje profundo»). En 2012, su equipo ganó fácilmente la competencia anual Imagenet, en la que las IA compiten para reconocer elementos en imágenes. El mundo de la informática quedó atónito: las máquinas de autoaprendizaje finalmente eran posibles.

Diez años después de la revolución del aprendizaje profundo, las redes neuronales y sus capacidades de reconocimiento de patrones han colonizado todos los rincones de la vida cotidiana. Ayudan a Gmail a completar automáticamente sus oraciones, ayudan a los bancos a detectar fraudes, permiten que las aplicaciones de fotos reconozcan rostros automáticamente y, en el caso de GPT-3 de OpenAI y Gopher de DeepMind, escriben ensayos largos que parecen humanos y resumen los textos. También están cambiando la forma en que se hace ciencia; En 2020, DeepMind presentó AlphaFold2, una inteligencia artificial que puede predecir cómo se plegarán las proteínas, una habilidad sobrehumana que puede ayudar a guiar a los investigadores en el desarrollo de nuevos medicamentos y tratamientos.

Mientras tanto, Deep Blue ha desaparecido, sin dejar inventos útiles. Resulta que jugar al ajedrez no era una habilidad informática necesaria en la vida cotidiana. «Lo que finalmente mostró Deep Blue fueron las deficiencias de tratar de crear todo a mano», dice Hassabis, fundador de DeepMind.

IBM buscó remediar la situación con Watson, otro sistema especializado, este diseñado para abordar un problema más práctico: hacer que una máquina responda preguntas. Usó el análisis estadístico de grandes cantidades de texto para obtener una comprensión del lenguaje que era, en ese momento, de vanguardia. Era más que un simple sistema si-entonces. Pero Watson se enfrentó a un momento desafortunado: fue eclipsado solo unos años más tarde por la revolución del aprendizaje profundo, que resultó en una generación de modelos de procesamiento de lenguaje mucho más matizados que las técnicas estadísticas de Watson.

El aprendizaje profundo ha pisoteado la IA de la vieja escuela precisamente porque «el reconocimiento de patrones es increíblemente poderoso», dice Daphne Koller, exprofesora de Stanford que fundó y dirige Insitro, que utiliza redes neuronales y otras formas de aprendizaje automático para estudiar nuevos tratamientos farmacológicos. La flexibilidad de las redes neuronales, la amplia variedad de formas en que se puede usar el reconocimiento de patrones, es la razón por la que no ha habido otro invierno de IA. «El aprendizaje automático en realidad ha brindado valor», dice, lo que «anteriores oleadas de exuberancia» en IA nunca lograron.

Las fortunas inversas de Deep Blue y las redes neuronales muestran cuán malos hemos sido, durante tanto tiempo, al juzgar qué es difícil y qué es valioso en la IA.

Durante décadas, la gente ha pensado que dominar el ajedrez sería importante porque, bueno, el ajedrez es difícil de jugar para los humanos de alto nivel. Pero el ajedrez resultó ser bastante fácil de dominar para las computadoras, porque es muy lógico.

Lo que era mucho más difícil de aprender para las computadoras era el trabajo mental casual e inconsciente realizado por los humanos, como mantener una conversación animada, conducir un automóvil en el tráfico o leer el estado emocional de un amigo. Hacemos estas cosas con tanta facilidad que rara vez nos damos cuenta de lo complicadas que son y de lo confuso que requiere un juicio en escala de grises. La gran utilidad del aprendizaje profundo proviene de poder capturar pequeños fragmentos de esta inteligencia humana sutil y no anunciada.


Sin embargo, no hay victoria final en inteligencia artificial. El aprendizaje profundo puede estar disparándose ahora, pero también está recibiendo críticas amargas.

«Durante mucho tiempo ha habido este entusiasmo tecno-chovinista de que está bien, ¡la IA resolverá todos los problemas!» dice Meredith Broussard, programadora convertida en profesora de periodismo en la Universidad de Nueva York y autora de Inteligencia artificial. Pero como ella y otros críticos han señalado, los sistemas de aprendizaje profundo a menudo se entrenan con datos sesgados y absorben dichos sesgos. Los informáticos Joy Buolamwini y Timnit Gebru descubrieron que tres sistemas de IA visual disponibles comercialmente eran terribles para analizar los rostros de mujeres de piel más oscura. Amazon entrenó una IA para verificar los currículums, solo para descubrir que degradaba a las mujeres.

Aunque los informáticos y muchos ingenieros de IA ahora son conscientes de estos problemas de distorsión, no siempre están seguros de cómo abordarlos. Además, las redes neuronales también son «cajas negras masivas», dice Daniela Rus, una veterana de IA que actualmente dirige el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT. Una vez que se ha entrenado una red neuronal, sus mecanismos no son fáciles de comprender ni siquiera por su creador. No está claro cómo llega a sus conclusiones o cómo fallará.

«Durante mucho tiempo, ha habido este entusiasmo tecno-chovinista de que ¡Bien, la IA resolverá todos los problemas!»

Puede que no sea un problema, considera Rus, confiar en una caja negra para una actividad que no es «crítica para la seguridad». Pero, ¿qué pasa con un trabajo de alto riesgo, como la conducción autónoma? «Es realmente asombroso que pudiéramos haber puesto tanta fe en ellos», dice.

Aquí es donde Deep Blue tenía una ventaja. El estilo de las reglas artesanales de la vieja escuela podría ser endeble, pero era comprensible. La máquina era compleja, pero no era un misterio.


Irónicamente, ese viejo estilo de programación podría representar una especie de regreso a medida que los ingenieros y científicos informáticos se enfrentan a las limitaciones de la coincidencia de patrones.

Los generadores de lenguaje, como GPT-3 de OpenAI o Gopher de DeepMind, pueden tomar algunas oraciones que escribió y continuar, escribiendo páginas y páginas en prosa que suenan plausibles. Pero a pesar de algunas imitaciones impresionantes, Gopher «todavía no entiende realmente lo que dice», dice Hassabis. «No en el verdadero sentido de la palabra».

Del mismo modo, la IA visual puede cometer errores terribles cuando se encuentra con un caso extremo. Los autos sin conductor chocaron contra camiones de bomberos estacionados en las carreteras, porque en todas las millones de horas de video en las que habían sido entrenados, nunca habían estado en esa situación. Las redes neuronales tienen, a su manera, una versión del problema de la «fragilidad».

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More