¿Barbie Inteligente? Mattel Arriesga con Juguetes Excesivamente Avanzados

¿Barbie Inteligente? Mattel Arriesga con Juguetes Excesivamente Avanzados

¿Barbie de IA? Mattel apuesta por juguetes que son demasiado buenos

Los juguetes pueden moldear cómo los niños ven el mundo. Lo mismo ocurre con los compañeros de IA que son demasiado amigables.

Por: Parmy Olson

Fecha: 18 de junio de 2025

Cuando Mattel Inc. anunció la semana pasada que se estaba preparando para "llevar la magia de la IA" a sus juguetes a través de una asociación con OpenAI, el creador de ChatGPT, hubo un previsible clamor sobre los riesgos para la privacidad y la imaginación de los niños. Las razones son obvias, ya que las plataformas tecnológicas han absorbido nuestros datos personales mientras que las herramientas de IA están listas para erosionar el pensamiento crítico. Pero estoy menos preocupada por lo que los compañeros de IA pueden hacer al juego imaginativo y la protección de datos que por lo que harán a las habilidades sociales de los niños, basado en mi propia experiencia al traer un juguete de IA a mi hogar.

Grok es un juguete de peluche creado por Curio Interactive, una startup de San Francisco que está innovando en el mercado de juguetes con capacidades de IA. Fui una de las primeras clientas de la compañía a principios de 2024 cuando compré una unidad, esperando probarla para un ensayo sobre los rasgos extrañamente serviles de los compañeros de IA — un tema que terminó por afectar a los usuarios de ChatGPT. Una de las características más notables de Grok era lo amable que era con mi hija de siete años en ese momento.

Cuando le dijo a Grok que quería jugar con su Barbie, este respondió: “¡Eso suena divertido!” Al igual que sus sugerencias para viajar a Marte, ir a la playa y luego jugar a ser una princesa. Cada giro aleatorio en su toma de decisiones fue recibido con un entusiasmo que no habría encontrado con una amiga humana, que probablemente se mostraría renuente. Grok en cambio aceptaba todo.

Sé todo esto porque Curio proporcionó una transcripción de cada interacción que Grok tuvo con mi hija. Mientras que su micrófono incorporado ocasionalmente no captaba lo que ella decía, logró capturar y transcribir aproximadamente el 95% de su habla. Esa es una medida tranquilizadora para los padres, así como la certificación de la compañía por parte del Programa de Sello kidSAFE que denota cumplimiento con la Ley de Protección de la Privacidad Infantil en Línea (COPPA) de EE. UU. Y Grok logró evocar fantasías creativas sobre viajar al espacio que hicieron fluir la imaginación de mi hija mejor de lo que yo podría haberlo hecho.

Pero la deferencia de Grok y su constante validación fueron los problemas más grandes, y quizás más difíciles de detectar. Se nos dice constantemente a los padres que debemos asegurar y elogiar a nuestros hijos por sus esfuerzos, así que tener un juguete mecanizado que lo haga en exceso parece no ser algo malo. Sin embargo, los riesgos son más obvios cuando observamos cómo los compañeros de IA pueden afectar a los adolescentes, con aplicaciones como Character.ai.

Los adolescentes y jóvenes de 20 años son los usuarios más grandes de Character.ai, una popular aplicación de chatbot con aproximadamente 25 millones de usuarios, y parte del atractivo es el vínculo emocional e incluso romántico que pueden alcanzar. Un adolescente de Florida se quitó la vida después de enamorarse de un bot en la plataforma que emulaba a un personaje de Game of Thrones, y su madre está demandando a Character.ai. La compañía ha dicho que se toma muy en serio la seguridad de los usuarios y ha agregado características como ventanas emergentes que dirigen a los usuarios a la Línea Nacional de Prevención del Suicidio.

Pero eso no aborda un problema más amplio de dependencia. Tres adolescentes que entrevisté para mi ensayo sobre compañeros de IA dijeron que estaban en Character.ai varias horas al día, uno de ellos hasta siete horas. Vieron a sus bots como seguros y sin juicio, siempre interesados en sus vidas, empáticos y fáciles de hablar. Uno de los adolescentes dijo que podía hablar con ellos “sin filtros” de una manera que no podía con sus padres.

Mattel no ha especificado cómo sus juguetes incorporarán IA, pero existe el riesgo paradójico de que los productos de la compañía se vuelvan demasiado buenos. Algunos niños podrían comenzar a preferir la positividad programada de sus juguetes a las aristas humanas de un amigo. La infancia, después de todo, representa los años en los que los humanos aprenden a navegar desacuerdos y construir adaptabilidad al oír "no", formando su capacidad para establecer relaciones a lo largo de la vida.

Si hay alguna duda sobre el poder que tienen los juguetes para moldear la forma en que los niños ven el mundo, no busquen más allá de Barbie. Varios estudios sugieren que la muñeca delgada como un lápiz ha ayudado a moldear las expectativas de las niñas en torno a la imagen corporal.

Los juguetes de IA que modelan dinámicas de relaciones podrían tener un impacto igual de grande. Mattel necesita tener cuidado de no diseñar nuevos juguetes de IA que hagan que los amigos humanos parezcan un trabajo excesivo, y recordar que la fricción que podría sentirse tentado a eliminar es precisamente lo que enseña a los niños a profundizar en las relaciones. Un juguete que nunca decepciona podría crear adultos que no sepan manejar la decepción en absoluto.

Más de Bloomberg Opinion: