Systems Thinking Radar - Vol. 8
- Alfredo Artiles from Pensando en Sistemas el Desarrollo de Producto <alfredoartiles@substack.com>
- Hidden Recipient <hidden@emailshot.io>
Systems Thinking Radar - Vol. 8Atrofia de habilidades por IA. Garbage can model. Efecto Gell-Mann Amnesia
Últimamente gran parte de lo que consumo gira en torno a la IA. Me resisto bastante a traer esos temas aquí porque se vuelven obsoletos muy rápido, y suelo ser lento ordenando mis ideas sobre el papel. Aun así, hay cuestiones que envejecen más lentamente: los modelos mentales que voy coleccionando para entender cómo nos está afectando esta disrupción tecnológica. Así que hoy comparto algunos de ellos. 🔄 Un bucleEl círculo vicioso de la atrofia de habilidades por IAQue la IA nos hace más productivos en muchos aspectos tiene poca discusión a día de hoy. El debate está más bien en qué tipo de tareas, en qué fases del desarrollo, bajo qué condiciones. Pero el porcentaje de áreas donde estas herramientas nos vuelven más eficaces es ya notable. No quiero entrar en ese debate (que además, quedaría obsoleto en un par de semanas), sino centrarme en un efecto colateral que empieza a preocupar: la atrofia de habilidades. Allí donde dejamos que la IA haga el trabajo por nosotros, dejamos también de practicar. Y cuando dejamos de practicar algo durante el tiempo suficiente, esa habilidad se deteriora. Dado que los escenarios en los que trabajar sin IA es lo ideal, son cada vez más escasos y menos evidentes, perdemos incentivos para mantener ciertas capacidades de forma deliberada. Cuando el contexto vuelva a exigirlas, puede que ya sea demasiado tarde. Addy Osmani advierte sobre este riesgo en una entrega reciente de su newsletter:
Esto es un ejemplo clásico del arquetipo sistémico desplazamiento de la carga hacia la intervención, del que ya hablamos en La trampa de la adicción al parche. Se pone en marcha un círculo vicioso fácil de reconocer:
Productividad vs. comprensiónCada vez que dejamos que la IA resuelva algo que podríamos resolver nosotros, estamos cambiando comprensión a largo plazo por productividad a corto plazo. Y siempre que hay tensión entre el corto y el largo plazo, los sistemas de doble loop es un marco mental que me ayuda a orientarme. En el corto plazo hay un bucle de refuerzo evidente: usamos la IA y percibimos impacto inmediato. Con la cultura y procesos adecuados, ese impacto puede incluso ir más allá del código y reflejarse en resultados de negocio. Pero el peaje que pagamos por no practicar nuestras habilidades técnicas tiene un efecto más lento, menos visible, y puede acumular consecuencias que no percibiremos hasta que ya sea demasiado tarde. Entornos perversos vs. benignosEn ausencia de incentivos inmediatos, mantener nuestras habilidades requiere un esfuerzo deliberado. Y eso no siempre es viable en todos los contextos. En otra newsletter reciente, David Epstein recupera una distinción del psicólogo Robin Hogarth: no todos los entornos enseñan bien.
Usar IA genera un feedback inmediato: el código aparece, funciona, y lo damos por válido. Es un entorno aparentemente benigno. Pero el impacto real en nuestras habilidades es más lento y silencioso. No notas que estás perdiendo destreza… hasta que la necesitas. Es ahí donde el entorno se vuelve perverso: operas con confianza, pero sin darte cuenta de que tu capacidad se ha erosionado. Convertir nuestro entorno en benignoLas propuestas que plantea Addy Osmani me resonaron especialmente con esta distinción de Epstein, porque lo que hacen es precisamente eso: volver benigno un entorno que, si se deja en piloto automático, tiende a volverse perverso. Lo hacen introduciendo feedback loops más rápidos, visibilidad del deterioro, y mecanismos de control. Ideas concretas que he escogido y adaptado:
Cuanto más conscientes seamos de lo que delegamos, más posibilidades tendremos de invertir el bucle vicioso y activar uno virtuoso:
Lecturas recomendadas
🧠 Un modeloGarbage can modelEl Garbage Can Model (Modelo del Cubo de Basura) es una teoría sobre la toma de decisiones en organizaciones desarrollada en 1972 por Cohen, March y Olsen. Propone que, en contextos de alta ambigüedad y procesos caóticos, las decisiones no siguen un proceso racional y estructurado, sino que emergen de la combinación fortuita de cuatro elementos:
La metáfora del «cubo de basura» refleja el desorden: estos cuatro elementos se vierten en un contenedor sin un orden ni alineación claros. La toma de decisiones ocurre únicamente cuando, por coincidencia, un problema, una solución y los participantes adecuados confluyen en una oportunidad determinada. Este modelo sugiere que muchas decisiones no responden a un análisis racional, sino que son el resultado de circunstancias: soluciones huérfanas encuentran problemas, los problemas flotan sin atención clara, y la decisión final depende en gran medida de quién está presente y cuándo. Desde mi lente sistémica, lo veo como un sistema con flujos desacoplados, bucles de retroalimentación retardada y una dinámica emergente. Es posible que una solución descartada hoy se vuelva clave más adelante, cuando cambie el contexto o surja una oportunidad. Cuando leí sobre este modelo por primera vez, lo interpreté como una patología organizacional. Pero luego reflexionando, me di cuenta de que en Audiense, como en muchas otras empresas, una buena parte de las innovaciones han surgido de esta manera: soluciones que estaban «por ahí», que en su momento no encajaban del todo, y que de pronto encontraron su lugar gracias a una oportunidad o decisión concreta. No fueron el resultado de un plan maestro, sino de un encuentro afortunado. Por supuesto, no es deseable operar así todo el tiempo. Cuando las decisiones dependen de factores como quién está en la sala o qué soluciones están en la cabeza de la persona adecuada en el momento justo, es difícil repetir el éxito de forma consistente. Aquí aplica muy bien algo como la estrategia barbell de Nassim Taleb: operar la mayor parte del tiempo con foco, estructura y alineación, pero reservar un pequeño porcentaje del tiempo y la energía para permitir cierto grado de caos creativo. Ese espacio intencional es donde el Garbage Can puede operar sin dominar el sistema. Por ejemplo:
La utilidad de este modelo para mí, es que me ayuda a detectar cuándo estamos operando demasiado tiempo en este modo. No para evitarlo por completo (como he dicho a veces de ahí emergen grandes cosas) sino para que ese caos no se convierta en nuestra única forma de decidir. En el contexto actual, con la fiebre por la inteligencia artificial, el cubo está desbordado: soluciones buscando problemas, aprendizajes sin aplicación clara, presión por «tener algo de AI» sin saber si resuelve algo. La velocidad con la que todo esto avanza exige más que nunca saber cuándo estamos operando con intención y cuándo, simplemente, estamos echando más cosas al cubo. 👓 Un SesgoEfecto Gell-Mann AmnesiaEl efecto Gell-Mann Amnesia, es un sesgo descrito por el escritor Michael Crichton y nombrado en honor al físico Murray Gell-Mann:
El sesgo se resume en:
Es una especie de amnesia selectiva que muestra lo fácil que es confiar en fuentes que ya han demostrado no ser del todo fiables. ¿A qué os suena? Exacto: a nuestra nueva amiga, la IA. En el chatLo típico de «me lo dijo ChatGPT». Lo usas para cuñadear sobre cómo funciona la energía eólica y el por qué del apagón, pero si eres valenciano te partes con su receta de la paella perfecta. En el códigoCuando el modelo toca tecnologías que no dominas, lo dejas volar. Pero si escribe sobre tu stack diario, haces memes, compartes capturas de sus errores… y aún así, sigues usándolo para todo. En productos con IACreamos productos IA que son simplemente un prompt y como devuelven respuestas coherentes, ya parece suficiente. Pero en casos de uso abiertos (como experiencias conversacionales, resúmenes, recomendaciones, etc) es difícil saber si el producto realmente cumple lo que espera un cliente. Para resolver esto me parecen imprescindible herramientas de prompt engineering que permitan:
Últimamente estoy probando Latitude.so y la verdad es que cubre todo esto muy bien (no patrocinado). Esto es todo por hoy. Me encantaría que dejaras en los comentarios qué te ha parecido esta entrega y compartieras ideas sobre los temas que te gustaría ver en las próximas ediciones. ¡No olvides suscribirte para no perdértelas! |
Similar newsletters
There are other similar shared emails that you might be interested in: