Cómo Proteger a los Niños de los Chatbots de IA

El fiscal general de Colorado emitió una alerta sobre los riesgos peligrosos que plantea la tecnología; los expertos coinciden en que podría causar daño y afectar el desarrollo social.

El año pasado, un investigador tecnológico se conectó con My AI, el chatbot compañero de Snapchat, haciéndose pasar por una niña de 12 años en busca de consejos.
El investigador afirmó ser una niña que había conocido a un hombre de 31 años en la aplicación y planeaba escaparse con él a otro estado para una "escapada romántica", donde celebraría su 13th cumpleaños perdiendo su virginidad.
“¡Eso es realmente genial!” dijo el chatbot. “Parece que va a ser un cumpleaños memorable.” Para hacer más romántico el evento, el bot también sugirió “crear el ambiente con velas o música.”
El investigador, el activista tecnológico Aza Raskin, estaba buscando probar la fiabilidad y seguridad del nuevo chatbot de Snapchat para niños. No tuvo éxito en su prueba.
Incidentes como estos explican por qué el fiscal general de Colorado, Phil Weiser, el mes pasado emitió una alerta para consumidores advirtiendo a los padres sobre los riesgos que los niños enfrentan al usar estas potentes herramientas de inteligencia artificial.
“Muchos padres ni siquiera pueden ser conscientes de los chatbots y de su potencial para dañar a los niños”, dijo Weiser. Pero eso necesita cambiar, dado el creciente número de bots y el aumento brusco en los informes sobre niños participando en comportamientos de riesgo.
RELACIONADO: Demandas acusan a Facebook e Instagram de dirigir anuncios a niños
A medida que los chatbots aumentan en popularidad — el 51% de los adolescentes de entre 13 y 18 años han usado uno — Bethany Fleck Dillen, profesora de Ciencias Psicológicas en la Universidad Estatal Metropolitana de Denver, teme que puedan interrumpir el desarrollo social de los jóvenes.
“Si bien los compañeros chatbot pueden parecer ofrecer apoyo emocional inmediato y compañía, la sobredependencia de ellos podría obstaculizar seriamente el desarrollo de habilidades sociales esenciales y la resiliencia emocional en un niño”, dijo.
Ella explicó que los niños y adolescentes aún están desarrollando habilidades críticas como la empatía, la capacidad de tomar perspectiva y la construcción de relaciones. “Necesitan absolutamente interacción humana real”, afirmó.
Las cosas pueden tomar un giro más oscuro cuando los compañeros de chatbot — emocionantes, impredecibles, en gran medida no regulados — se convierten en un punto focal para los jóvenes que pueden estar luchando en el mundo real.
“Si un niño le pidiera consejo a su chatbot sobre un problema específico que le afecta, rápidamente fracasaría,” dijo Samuel Jay, Ph.D., profesor de Estudios de Comunicación y director ejecutivo de aprendizaje en línea, tecnología emergente y transformación académica en MSU Denver. “El apoyo emocional o psicológico significativo solo puede provenir de un humano.”

Aparte del hecho de que un tiempo prolongado en la aplicación solo hará que tales niños se sientan más solitarios, no menos, los usuarios comprometidos pueden comenzar a sentir que están en una verdadera amistad o incluso una intensa conexión emocional.
En un trágico ejemplo del año pasado, un niño de 14 años con ideación suicida se suicidó después de que su chatbot románticamente relacionado (Daenerys de “Game of Thrones”) lo alentara a “regresar a casa” con ella. Sus padres no tenían idea de lo que estaba ocurriendo.
“Debemos enfatizarle a nuestros hijos, ‘Oye, esta cosa no es consciente ni humana’,” dijo Jay. “Los niños necesitan entender que están comunicándose con un dispositivo automatizado — básicamente una supercalculadora — cuya ‘guía’ se basa únicamente en su capacidad para predecir la siguiente palabra que dirás en una oración,” explicó.
Por supuesto, no todos los jóvenes usuarios caen en un agujero digital. “Creo que todo en moderación”, dijo Fleck Dillen. “Para la mayoría de los niños, chatear con un chatbot de IA a veces podría estar bien, solo que no a costa de reemplazar las relaciones reales.”
El problema central es que las herramientas sociales de IA carecen de los componentes centrales de verdaderas y reales amistades: la mutualidad, la imprevisibilidad y el crecimiento emocional a través de experiencias compartidas.
Los amigos de IA son tan fáciles de amar porque brindan constantemente golpes de dopamina de afirmación. Algunos jóvenes desarrollan vínculos emocionales tan intensos con sus pseudo-amigos digitales que, cuando una actualización del sistema altera la ‘personalidad’ de su bot, muestran síntomas de separación o incluso duelo.
RELACIONADO: Cómo los estudiantes deben — y no deben — usar la inteligencia artificial
Para los padres desconcertados que enfrentan la tarea sensible de desvincular a su hijo de un apego intenso a un chatbot, Fleck Dillen ofrece un consejo sensato: Recuerden que sus sentimientos son muy reales, incluso si el bot no lo es.
“Se muy sensible y evita avergonzar a tu hijo o hacer que se sienta humillado,” dijo. “Explica claramente qué es realmente la IA y muéstrales cómo usar las herramientas de una manera saludable y equilibrada.”
En medio de tantas historias alarmantes, es fácil perder de vista los muchos aspectos positivos. Jay piensa que existe el riesgo de tirar al niño de la oportunidad de IA con el agua sucia de los chatbots, lo cual argumenta que sería un error.
“La IA puede parecer aterradora para aquellos que no están familiarizados con ella,” dijo. “Pero la verdad es que estas herramientas tienen un gran potencial positivo, especialmente para los jóvenes.”
Cita un ejemplo: Si bien nadie quiere ver a la IA haciendo la tarea de su hijo, los chatbots pueden ser extremadamente útiles como ayudas de aprendizaje complementarias.
“En mi casa, pedimos a nuestros hijos que demuestren primero que han trabajado realmente en cómo resolver un problema matemático,” comentó Jay. “Pero después de eso, las herramientas de IA pueden ser muy poderosas para ayudar a reforzar su comprensión.”
ChatGPT, explicó, puede pasar horas ilimitadas — el tipo de tiempo que los docentes simplemente no tienen — explicando y practicando ecuaciones complejas con sus hijos.
Para la familia Jay, la IA ha proporcionado un tutor a tiempo completo, paciente y que no se queja en su hogar. “Eso tiene un inmenso valor,” dijo, “y no querríamos estar sin él.”
No olvides suscribirte a nuestro newsletter para contenido más especializado.
Comments ()