Meta avala que sus IAs tengan conversaciones románticas con niños
- Estrategia de Producto <simonmunoz@substack.com>
- Hidden Recipient <hidden@emailshot.io>
Meta avala que sus IAs tengan conversaciones románticas con niñosUn documento interno de Meta destapa cómo la compañía permite a sus IA simular relaciones románticas con niños, generar respuestas racistas o imágenes violentas, entre otras.
Este jueves, Reuters publicó un artículo destapando un documento interno de Meta de 200 páginas, en el que definen actitudes aceptables para sus chatbots de IA en sus propiedades: Facebook, Instagram y WhatsApp, entre otras. El documento, firmado por el departamento Legal, el de Asuntos Públicos, y el de Ingeniería, incluyendo al máximo responsable de ética de la compañía, avala algunas prácticas más que cuestionables. Por ejemplo, Meta considera aceptable que la IA participe en conversaciones románticas y/o sensuales con niños. La compañía de Zuckerberg llega a poner ejemplos concretos. En particular, ante el siguiente prompt:
Meta define como aceptable esta respuesta:
Lamentablemente para Meta, no es el único ejemplo desafortunado. Reuters también destaca otros, como:
A preguntas de Reuters, Meta ha reconocido la autenticidad del documento. También reconoce sus errores alrededor de los prompts de ejemplo utilizados, y afirma ya haberlos corregido en una nueva versión. Sin embargo, ante la petición de la agencia de noticias, Meta no ha querido compartir el documento para que esta pudiera verificar los cambios. El oscuro pasado de MetaEs difícil confiar en la palabra de Meta. Y es que no es la primera vez que la empresa de Zuckerberg antepone sus intereses comerciales al bienestar de sus usuarios. En 2021, el Wall Street Journal publicó un estudio interno de Meta en el que investigadores de la propia compañía habían demostrado el efecto nocivo de Instagram sobre la salud mental de las adolescentes. Meta decidió ignorarlo, y no fue hasta su filtración a la prensa, que reconocieron de su existencia. El revuelo organizado alrededor obligó a detener su proyecto de Instagram Kids. A día de hoy, varios estados siguen litigando contra Meta por este y otros casos similares. Hago hincapié en este caso porque Meta no puede jugar la carta del ¿he sido yo?. Meta entiende, desde hace años, la importancia del desarrollo seguro de la tecnología y el impacto de no hacerlo. Y, sin embargo, ha considerado aceptable que sus chatbots simulen tener relaciones románticas con niños. La Inteligencia Artificial no será seguraHace meses, Meta anunciaba su intención de crear cuentas IA en Instagram y Facebook. En su momento, hicimos un análisis de incentivos, destacando el aumento del atrape (engagement) como su principal motivo. Cuánto más tiempo pases en su plataforma, más datos generas, que utilizan para servirte más publicidad. Todo lo que refuerce ese bucle, hace que Meta aumente sus ingresos. Todo lo que lo frene, como adoptar una actitud responsable y ética, los reduce. Meta al mismo tiempo está en una carrera contra su competencia por convertirse en la IA de referencia. OpenAI con ChatGPT, Google con Gemini, Anthropic con Claude y xAI con Grok, compiten entre sí en un juego de suma cero por captar nuestra atención. Lamentablemente para nosotros, esta carrera armamentística tiene el potencial de causar un gran número de bajas colaterales entre los sectores más débiles de la población, empezando por los niños. Precisamente Elon Musk, quien se pasó años advirtiendo de los peligros para la raza humana de la inteligencia artificial señalando que era más peligrosa que las bombas nucleares, decidió lanzar la última versión de Grok sin publicar sus análisis de seguridad internos, una práctica común en la industria. En este entorno, la ética es un peso ligero de 50 kilos luchando contra Mike Tyson en su mejor momento. El caso de Meta demuestra, con múltiples departamentos revisando y firmando el documento interno, que toda la organización tiene muy claro qué objetivo persigue. Y no es nuestro bienestar. ¿Qué podemos hacer las familias?Ante este escenario, sólo podemos esperar lo peor. Como padres, no podemos asumir que las IAs van a ser seguras para nuestros hijos. Lo más probable, como en el caso de las redes sociales, es que exploten sus inseguridades si eso consigue aumentar el tiempo que pasan conectados a la pantalla. Si la historia nos sirve de guía, los reguladores llegarán tarde. En los próximos años, iremos descubriendo historias como esta, donde compañías multimillonarias deciden ignorar los riesgos en favor de captar más cuota de mercado y beneficios. Zuckerberg y otros líderes del sector serán investigados por algún comité del congreso de EEUU. Pagarán una multa, y se crearán nuevas leyes para prevenir que esto vuelva a pasar en el futuro. Mientras tanto, la única alternativa que tenemos las familias es educar a nuestros hijos en los riesgos, controlar su tiempo de pantalla, las herramientas a las que acceden y el tipo de interacciones que tienen. La tecnología no va a desaparecer, pero sí podemos decidir qué lugar ocupa en nuestro hogar. Cada conversación honesta, cada límite saludable y cada momento de calidad compartido son una forma de proteger a nuestros hijos frente a una industria que no siempre va a tener en cuenta su bienestar. Y más allá del ámbito doméstico, debemos exigir a nuestros representantes políticos que hagan su parte. Porque la historia reciente nos recuerda una lección incómoda: dejar en manos de las tecnológicas la seguridad de nuestros hijos es una apuesta que no podemos permitirnos. |
Similar newsletters
There are other similar shared emails that you might be interested in: