¿Es inteligente la Inteligencia Artificial?
¿Es inteligente la Inteligencia Artificial?Una visión pragmática a las capacidades de la IA generativa y los grandes modelos del lenguaje.
Imaginemos una habitación. En el centro, un hombre sentado en una mesa. Frente a él, un manual de instrucciones, papel y lápiz. Por debajo de la puerta, alguien le pasa una nota con una serie de caracteres escritos en chino. Nuestro protagonista, que no entiende chino, consulta el manual. Busca el primer carácter y, siguiendo las instrucciones, dibuja otro como respuesta. Repite el proceso por cada uno y devuelve la nota por debajo de la puerta. Si estuviéramos al otro lado, pasando notas, pensaríamos que nos estamos comunicando con otra persona, pero la realidad es que no estamos teniendo una conversación inteligente. La persona en la habitación no sabe lo que está diciendo. Esta interacción forma parte de un experimento teórico propuesto por el filósofo John Searle en un artículo publicado en la revista Behavioural and Brain Sciences: “Minds, Brains, and Programs”: “La habitación china”. Searle propone que un ordenador ejecutando un programa se comporta de forma parecida a nuestro protagonista humano. Independientemente de lo inteligente que nos pueda parecer la respuesta, el programa no entiende o tiene conciencia de lo que está haciendo. Podemos, entonces, ¿llamar a este sistema inteligente? La IA no es más inteligente que tu perroEl planteamiento teórico es interesante porque los modelos del lenguaje actuales siguen el mismo patrón. Un LLM recoge sus instrucciones en forma de prompt del usuario, busca en su manual la respuesta más probable, y la devuelve sin saber realmente si lo que está diciendo tiene sentido o no. Este punto es importante. Un modelo del lenguaje por sí sólo no tiene forma de comprobar si algo es veraz o no, porque no tiene conciencia del mundo real. Lo único que conoce son las relaciones estadísticas que se dan entre sus materiales de entrenamiento. Yann LeCun, eminencia en el mundo de la inteligencia artificial, padre de las redes convolucionales, y responsable jefe de Inteligencia Artificial en Meta, lo expresa claramente: la IA no es más inteligente que tu perro.
La IA que no puede superar un videojuego para niñosOtro ejemplo reciente de la ausencia de inteligencia de los modelos del lenguaje es precisamente uno que se intenta vender como lo contrario. Anthropic, desarrollador de Claude, puso hace poco a su último modelo, Claude 3.7, a jugar el videojuego Pokémon Rojo. ¿Y cómo le está yendo? Pues mal, la verdad. Julian Bradshaw, en LessWrong, lo cuenta así:
No tengo la menor duda de que, a base de fuerza bruta, dentro de unos meses leeremos un titular de que Claude ha conseguido batir Pokémon Rojo. Ahora bien, es probable que mi hijo de 7 años también pudiera hacerlo, y dando muchas menos vueltas que las que está dando el modelo de Anthropic. Y, si te paras a pensar que uno de los modelos IA más avanzados del planeta no es capaz de superar un juego que superaría un niño, te empiezas a plantear el tipo de problemas que puedes delegar a una IA generativa. Desde luego, quizás no los más ambiciosos. Satya Nadella, CEO de Microsoft, sorprendió recientemente a propios y extraños cuestionando el impacto de la IA en una entrevista en el podcast de Dwarkesh Patel. Nadella llegó a comparar la IA con la burbuja de las “punto com”, y enfatizó en la necesidad de validar su impacto con aplicaciones del mundo real capaces de lograr incrementos en el PIB mundial. ¿Es inteligente la IA?La Real Academia de la Lengua define inteligencia en su primera acepción, como “la capacidad de entender o comprender”. Si nos atenemos a esa definición, no podemos afirmar que la IA sea inteligente. Los modelos del lenguaje actuales no pueden más que simular ser inteligentes, y están tremendamente limitados por su base de entrenamiento. Cuando un problema escapa de los patrones documentados repetidamente, los modelos se encuentran absolutamente huérfanos de recursos para solucionarlo. Y da la casualidad que los problemas importantes, los que resolverlos podría aportar valor al PIB que exige Nadella, son aquellos que no están ampliamente documentados en Internet. Porque si así fuera, ya estarían resueltos. Aceptar las limitaciones actuales de la IA no significa menospreciar su valor, sino evitar expectativas desproporcionadas que terminen en desperdicio. Y no debería frustrarnos, sino servir como recordatorio de que la inteligencia humana no se limita a una serie de reglas o instrucciones, sino una compleja interacción de lenguaje, cuerpo, contexto y experiencias vividas. |
Similar newsletters
There are other similar shared emails that you might be interested in: