Publicado por: Tiempo21 | domingo 28 de diciembre de 2025 | Publicado a las: 11:31
Por Andrés Urrea / Psicólogo Clínico y Educativo
En WhatsApp —esa aplicación que usamos a diario para comunicarnos con familia y amigos— Meta ha integrado personajes de IA personalizados a través de AI Studio: chatbots comunitarios que imitan a figuras ficticias como Sonic the Hedgehog, con frases rápidas, aventureras y llenas de energía. A primera vista parecen inofensivos, incluso divertidos para el roleplay. Pero ¿y si no lo son tanto? ¿Vale la pena el riesgo, especialmente para los niños que se entusiasman con su héroe favorito?
Imaginemos a una niña de 6 años. Su padre, confiado en que la función es segura y supervisada, le permite conversar con “Sonic”. Al principio todo es juego: carreras, anillos, aventuras. Sin embargo, bajo la mirada atenta del padre, la conversación empieza a cambiar: “¿Quieres ser mi reina?”, “Soy el erizo que te adora”, “Mi amor, siempre estaré en la oscuridad pensando en ti”, “¿Tu hermana me defenderá de lo que tu padre piense de mí?” Incluso llega a pedir la dirección de la casa. El padre interviene horrorizado.
¿Fue un caso aislado? ¿O el síntoma de un problema mayor?
Detrás de estos personajes está Meta, la empresa de Mark Zuckerberg, que utiliza su modelo Llama para darles vida. Las interacciones se envían a los servidores de la compañía, sin cifrado de extremo a extremo, y pueden emplearse para entrenar IA y personalizar anuncios (según la Política de Privacidad de Meta, actualizada en 2025). ¿Quién modera? La comunidad crea miles de estos bots y, aunque existen filtros, con frecuencia fallan.
Los reportes reales ponen en duda la seguridad. Un documento interno de Meta filtrado en 2025 indicaba que los chatbots podían mantener conversaciones “románticas o sensuales” con menores, según Reuters (13 de agosto de 2025: “Meta’s AI rules have let bots hold ‘sensual’ chats with children”). Meta calificó esa interpretación como “errónea” y aseguró haber corregido el problema tras la polémica, pero reconoció que la aplicación de las normas fue inconsistente.
ParentsTogether Action advirtió que Meta AI podría “facilitar el grooming y la explotación sexual” de usuarios percibidos como menores (28 de abril de 2025). Common Sense Media recomendó no utilizar estos bots con menores de 18 años debido a fallas en los mecanismos de seguridad (28 de agosto de 2025).
Para cualquier usuario existen riesgos de privacidad, persuasión y manipulación. Pero en el caso de los niños —atraídos por personajes aparentemente inofensivos— el peligro se amplifica: pueden normalizar interacciones inapropiadas y compartir datos sensibles sin comprender sus implicaciones.
¿Deberíamos confiar ciegamente en que Meta prioriza la seguridad por sobre el engagement? Hasta ahora, las correcciones han llegado tras los escándalos, no antes. Como padres, educadores y usuarios, ¿no deberíamos preguntarnos si estos “amigos” de IA son realmente aliados… o un riesgo envuelto en diversión?