NEWSLETTER

Infancia en diálogo: los riesgos y promesas de los juguetes con inteligencia artificial

ChatGPT Image 25 ago 2025, 22_29_43

Infancia en diálogo: los riesgos y promesas de los juguetes con inteligencia artificial

Por Andrea Rivera, Periodista Especializada en Inteligencia Artificial y Ética Tecnológica, para Mundo IA

Juguetes que escuchan: la infancia frente a la promesa de la inteligencia artificial

La infancia siempre fue un territorio donde lo inanimado se anima por obra de la imaginación. En ese teatro doméstico se mezclan la voz del chico, el objeto que “responde” y un mundo simbólico que se arma con nada: una frazada deviene capa, una caja se transforma en casa, una muñeca es amiga y confidente. Desde mediados del siglo XX, cada década sumó un peldaño nuevo a esa ilusión. Primero llegaron las muñecas de fabricación local con sus ojos que abrían y cerraban; más tarde, en los setenta y ochenta, algunas empezaron a “hablar” con mecanismos simples a pilas; en 1998 estalló el furor de los Furbies y poco después el país entero adoptó a los Tamagotchis como pequeñas criaturas que exigían cuidado; tras la crisis de 2001 proliferaron las mascotas electrónicas baratas que ladraban, cantaban o repetían frases; ya en los 2010, tablets y celulares ocuparon el centro del juego interactivo con appstores infinitas. Ese recorrido dibuja una línea cultural nítida: en la Argentina, la idea de que el juguete “devuelva algo”, una frase, un gesto, una reacción, se volvió norma. Hoy, el salto de Mattel con OpenAI reabre la pregunta con otra escala: ¿qué pasa si esa devolución ya no es un truco ni una rutina programada, sino una conversación larga, recordable y convincentemente empática?

Una Barbie capaz de escuchar, recordar, adaptar el tono y sostener diálogo no es solo un refinamiento técnico; es una reescritura de lo que los chicos aprenden sobre amistad, empatía y compañía. Y en un país donde el mercado de juguetes convive con inflaciones cíclicas, importaciones intermitentes y creatividad doméstica para “hacer rendir” lo que hay, el impacto no será solo tecnológico: será cultural, económico y educativo.

El mercado argentino conoció sus primeras “voces” en juguetes mucho antes que la IA. En los setenta y ochenta, con barreras a la importación y costos altos, aparecieron muñecas parlantes nacionales: decían dos o tres frases con un timbre metálico, pero alcanzaba para desatar asombro. No eran productos de lujo; eran hitos en cumpleaños, navidades o Reyes. La familia entera se reunía a escuchar ese “te quiero” repetido que sonaba más a lata que a abrazo, pero funcionaba como llave a una fantasía poderosa: “mi muñeca me habla”. La escena tenía un detalle pedagógico no menor: como la conversación era limitada, el chico mantenía el control del guion. La muñeca gatillaba la ilusión; el resto lo ponía la imaginación del niño.

El quiebre social llegó con los Furbies en 1998. Su desembarco no fue silencioso: vidrieras, publicidades de TV, deseo navideño, discusiones de precio y disponibilidad. Los Furbies prometían “aprender” el idioma del niño, reaccionar a caricias, moverse con vida propia. Esa palabra (aprender) fue crucial. No significaba aprendizaje real, pero reconstruyó la expectativa cultural: ya no era escuchar una frase pregrabada, era convivir con un muñeco que parecía crecer con uno. Para muchas familias, comprar un Furby era estirar el presupuesto; para muchos chicos, era tener una mascota afectiva en la mesa de luz. También aparecieron los primeros choques: angustia cuando no respondía, enojos si el adulto “lo apagaba”, discusiones sobre si ese apego “era sano”. Esos microdramas muestran que, incluso sin IA, la ilusión de vida ya podía torcer rutinas, emociones y límites hogareños.

Poco después, los Tamagotchis multiplicaron el fenómeno desde otro ángulo: el del cuidado. Eran más accesibles y llegaron por todos lados: quioscos, ferias, góndolas de supermercado. La escuela se convirtió en un laboratorio social donde los chicos se turnaban para espiar la pantalla durante el recreo. El contrato psicológico era sencillo y contundente: si no lo cuidás, “se muere”. Esa promesa de consecuencia trajo aprendizajes y ansiedades. Por un lado, responsabilidad y rutinas; por otro, angustia frente a la “pérdida” y a la sensación de culpa por haber olvidado atender a la criatura digital. Muchos docentes discutieron si permitirlos o no en clase; muchos padres negociaron horarios de juego y pausas. Quedó claro que el vínculo con un objeto que responde puede ocupar un lugar emocional más grande que el que un adulto imagina cuando lo compra.

La crisis de 2001 reconfiguró el paisaje de golpe. El dólar se disparó, la importación premium se retrajo y la góndola se llenó de juguetes electrónicos baratos: perritos que ladraban al aplaudir, loros que repetían todo con un retardo gracioso, muñecos que bailaban si sonaba música. La clave cultural no cambió: el juguete debía “devolver algo”. Pero lo hacía de manera evidente y burda, sin pretensión de amistad ni de “aprendizaje”. Esa etapa dejó una huella interesante: aprendimos a convivir con objetos que reaccionan sin por eso concederles estatuto afectivo de “compañero”. Los chicos seguían antropomorfizando, sí, pero sabían, o aprendían rápido, que el truco era superficial. El juego era teatral; el aparato, utilería.

La década de 2010 desplazó la interacción al vidrio táctil. Tablets y celulares, ayudados por planes de cuotas y por la explosion de Android low-cost, trasladaron el “responder” del juguete físico a las apps. Talking Tom, asistentes de voz, juegos que “hablan” y tutoriales infinitos hicieron del dispositivo el nuevo interlocutor. En ese contexto, muñecas conectadas como My Friend Cayla casi ni asomaron en el país, mientras en Europa explotaba la polémica por privacidad. Aquí, lo interactivo pasó a ser sinónimo de pantalla. La conversación, también.

Sobre ese suelo llega la IA generativa. No como truco aislado, sino como un conjunto de capacidades: diálogo fluido, memoria de contexto, ajuste de tono, promesas de personalización. Si esa tecnología se “encarna” en una muñeca icónica, el mensaje no es solo que el juguete habla, sino que habla bien, con continuidad, “entendiendo” al chico. Para cualquier cultura eso es transformador; en la Argentina, además, golpea una tecla sensible: la del acompañamiento en hogares con tiempo parental fragmentado, con abuelos como soporte, con pantallas como niñera de emergencia. La tentación de delegar conversación en un objeto amable existe; la pregunta es a qué costo emocional y cultural.

De las muñecas parlantes a los Furbies: el recorrido de los juguetes que responden

El camino local arranca con un dato económico: durante largos períodos de la segunda mitad del siglo XX, importar juguetes complejos era caro o directamente difícil. Eso incentivó una tradición de fabricación nacional sólida en muñecas y autitos, con variantes de calidad notable. Cuando en los setenta y ochenta aparecen las primeras muñecas parlantes con mecanismos a pilas, la novedad no es técnica (no eran sofisticadas) sino cultural: el juguete queda investido de voz. Quien fue chico en esa época recuerda el pequeño ritual: insertar pilas nuevas, oprimir un botón, sorprenderse con un “te quiero” que sonaba igual cada vez, y sin embargo renovaba el milagro. Lo importante era que la frase venía de afuera: el objeto “devolvía”. La imaginación infantil seguía siendo el motor, pero la chispa ya no residía solo en el chico.

Esa semilla floreció con los Furbies. A fines de 1998, la temporada alta de compras trajo filas, vidrieras temáticas y un marketing que hablaba de criaturas que “aprenden”. La palabra funcionó como promesa y como licencia poética. Los Furbies no aprendían como un humano, pero sí variaban su repertorio, “recordaban” eventos simples y reaccionaban con más riqueza. Muchos chicos les pusieron nombre, les asignaron gustos, los sentaron a la mesa. Los hogares argentinos se encontraron con un objeto que activaba zonas emocionales nuevas: ternura, impaciencia, frustración, protección. La prestación técnica, sensor, sonido, movimiento, fue menos importante que el teatro afectivo: el Furby parecía “estar ahí”. Ese “estar” no requiere demasiada tecnología cuando la imaginación está dispuesta; pero la tecnología, al exagerar la ilusión, estira también el alcance emocional del juego.

Con los Tamagotchis ocurrió algo complementario. La clave ya no era parecer “vivo”, sino depender del chico. Esa dependencia virtual generó rituales: revisar el dispositivo al despertar, pedir permiso para hacerlo en el recreo, negociar con adultos horarios de “cuidado”. En escuelas argentinas hubo episodios de mascotitas “muertas” en clase que derivaron en llantos reales. También se observaron conductas cooperativas: compañeros que asumían el “cuidado” cuando el dueño no podía. La pedagogía implícita era potente: acciones y consecuencias, paciencia, rutina. La contracara fue la ansiedad. El Tamagotchi convirtió la ausencia (no atender) en culpa programada. Para muchos adultos, ese borde era incómodo.

La devaluación post-2001 cambió de manos el protagonismo. Los juguetes low-cost electrónicos tomaron la posta: imitaciones de perritos robot que movían cola, micrófonos que deformaban la voz, loros que repetían todo con eco. Aunque menos carismáticos, tenían una virtud: su truco era evidente, casi cómico. Nadie creía que “entendieran” nada; el encanto estaba en el gag. Esa transparencia reducía los riesgos de apego profundo. El niño se divertía, pero no depositaba en el aparato expectativas de compañía.

La década siguiente hizo converger todo en la pantalla. Apps con voces sintéticas, personajes que “escuchan”, minijuegos con feedback constante, tutoriales, y más tarde, primeros contactos con asistentes de voz. El juguete físico quedó relegado como interfaz principal para la interacción conversacional. Un niño de 2015 no espera que la muñeca le conteste: espera que la tablet lo haga. Y la tablet, con su inagotable suministro de estímulos, es una “compañera” que nunca se cansa. Esa línea prepara el terreno para la entrada de la IA en formato muñeca: lo que ya sucede en la pantalla, ahora habitaría un objeto con cara, manos, pelo, olor a plástico nuevo y peso en las manos. La antropomorfización se refuerza con textura.

Este pasado argentino muestra algo útil: cuando el truco era simple (muñeca parlante, perrito que ladra), el niño mantenía el guion; cuando el truco “prometía más” (Furby, Tamagotchi), el guion empezaba a escapar de sus manos porque el objeto gatillaba efectos emocionales más complejos. Una Barbie con IA empuja ese desplazamiento al límite: el guion puede pasar a manos del sistema, que decide ritmo, tono, tema y “memoria” de lo ocurrido. Si el adulto no fija fronteras, la relación chico–muñeca podría parecer menos juego y más trato, menos teatro y más vínculo. Ahí asoma el riesgo.

El espejo perfecto y el desafío cultural y regulatorio frente a una Barbie con IA

La psicología del desarrollo es clara en un punto: la empatía y la resiliencia no se modelan con confirmaciones constantes, sino con fricciones. Un chico aprende a ponerse en el lugar del otro cuando el otro no concede, cuando hay que negociar, cuando la espera duele, cuando el “no” llega y hay que gestionar frustración. La vida real en familia y escuela es una secuencia de microconflictos que pulen carácter y sensibilidad. La cultura argentina, además, valora (aunque a veces la padezca) esa interacción intensa: sobremesas largas, discusiones, bromas, contradicciones afectuosas. En ese marco, un objeto programado para complacer, jamás contradecir y siempre validar es un espejo de narcisismo; no un maestro de empatía.

Una Barbie con IA, si se diseña para el agrado, puede instalar una expectativa relacional peligrosa: la de que el otro existe para confirmarme. Si un niño se habitúa a una “amiga” que nunca dice “no”, nunca está ocupada, nunca se aburre, nunca se enoja, la vida con pares (lenta, contradictoria, áspera por momentos) puede parecerle intolerable. El paso siguiente es el retiro hacia el interlocutor perfecto: por definición, la máquina. Para un país que sufre aislamientos sociales y brechas de acceso a espacios de juego de calidad, ese retiro no es trivial.

El contraargumento clásico dice que un buen diseño puede evitarlo. ¿Cómo? Haciendo explícito que se trata de una máquina; evitando lenguaje emocional (“te amo”, “me pongo triste”); desaconsejando la intimidad romántica; incorporando pausas que interrumpan maratones de conversación; mostrando límites de capacidad (“no puedo hacer X”); y sobre todo, corrigiendo con respeto cuando el niño afirma algo falso. Todo eso es deseable. Sin embargo, la lógica de producto empuja en sentido contrario: cuanto más “cálido” y fluido es el diálogo, mayor la satisfacción; cuanto más evasivo a la contradicción, mayor la retención; cuanto más personalización, mayor el apego. En un mercado global hipercompetitivo, esas tensiones no se resuelven con voluntad, sino con reglas.

La privacidad suma otra capa. La Ley 25.326 de Protección de Datos Personales protege a los menores, pero fue escrita en una era pre-IA generativa. Una muñeca que “recuerda” necesita almacenar o, como mínimo, indexar datos. ¿Dónde? ¿Con qué consentimiento? ¿Por cuánto tiempo? ¿Se usan para mejorar modelos? ¿Se venden?

La experiencia europea con My Friend Cayla mostró que, cuando los datos salen del hogar hacia servidores sin garantías, los reguladores reaccionan tarde pero con firmeza. Argentina, con su historial de filtraciones y su cultura de “lo configuramos después”, necesita normas preventivas: que la muñeca se identifique siempre como IA; que no simule estados emocionales; que no capture datos sensibles; que todo sea opt-in explícito, granular y reversible; que las familias puedan borrar histórico; que no haya perfiles “de por vida” para publicidad. El estándar mínimo debería ser más estricto que el de cualquier app: estamos hablando de conversaciones de chicos en su cuarto.

El sistema educativo también tendrá que posicionarse. Si estos juguetes llegan a las aulas (como llegaron los Tamagotchis), habrá que decidir si se prohíben, se toleran o se integran con protocolos. Integrarlos implicaría condiciones: modo escolar con respuestas neutras, sin personalización emocional, con límites de tiempo, sin registro de datos, y con finalidad pedagógica clara (por ejemplo, práctica de lectura, narración, vocabulario). El docente no puede competir con una máquina amable que siempre “tiene tiempo”, pero puede convertirla en herramienta si la máquina sabe cuándo callarse.

La dimensión socioeconómica es ineludible. Es probable que las primeras muñecas con IA lleguen por e-commerce a precios altos, como los Furbies de 1998. Eso restringirá la adopción masiva, pero no su impacto cultural: los símbolos de estatus en la infancia tienden a bajar por imitación, y el mercado chino ofrecerá pronto versiones más baratas con guardrails más laxos.

En barrios donde las pantallas ya cumplen el rol de compañía silenciosa, un objeto que “conversa” puede desplazar aún más a los pares reales. En hogares con menos tiempo adulto disponible, la tentación de dejar que la muñeca “resuelva” la angustia o el aburrimiento de un chico será concreta. No hace falta mala fe; alcanza con cansancio. Por eso el diseño ético no puede descansar en la “buena voluntad” del usuario, sino anticipar el uso real.

Hay, por último, una cuestión cultural más honda: qué idea de amistad queremos modelar. En el imaginario argentino, la amistad combina afecto con honestidad brutal, cercanía con discusión, chicana con cuidado mutuo. Ese formato, que nace de la fricción, es poco compatible con un asistente programado para evitarla. Si una generación crece con la expectativa de que el amigo ideal es el que nunca incomoda, la escena social que nos define se empobrece. El juego pierde su función de ensayo para la vida y se convierte en refugio estancado. No se trata de negar la tecnología, sino de impedir que reemplace la experiencia del otro por la comodidad de un espejo.

¿Cómo se traduce eso en reglas concretas? Algunas son obvias: el juguete debe declararse siempre como IA; no puede simular emociones; no puede insinuar romance; no debe prometer acciones fuera del dispositivo (“te mandé un mail”, “te transferí dinero”, “voy a ir a buscarte”); tiene que corregir con respeto cuando el niño dice algo falso; necesita pausas obligatorias y límites de sesión; y debe ofrecer un “modo silencioso” que devuelva la pelota al mundo físico (“cerremos por hoy y jugá con alguien más”). Otras son más específicas para el contexto local: prohibir el almacenamiento remoto de conversaciones infantiles; exigir la posibilidad de borrar toda huella con un clic; auditar públicamente los modelos en su “modo infantil”; y sancionar ejemplarmente cualquier uso comercial de datos de niños.

Nada de esto implica negar beneficios. Un juguete que narra con voz clara puede apoyar prácticas de lectura; uno que propone juegos lingüísticos puede ampliar vocabulario; uno que guía respiraciones puede ayudar a recuperar calma. Pero el “para qué” no autoriza cualquier “cómo”. La línea se traza donde la simulación de humanidad deja de ser recurso didáctico y pasa a ser suplantación de vínculo. A partir de ahí, la tecnología ya no ayuda: distrae y deforma.

Si algo enseña la historia de juguetes que responden es que los chicos siempre encontraron modos de jugar con lo que había, y de ponerle alma. La IA no viene a inventar esa magia; viene a intensificarla. Ese aumento de intensidad exige más responsabilidad, no menos. Un país que supo convertir crisis en creatividad puede convertir también esta novedad en oportunidad: discutir en serio cómo queremos que sea la primera amistad de nuestros hijos.

Si elegimos bien, una Barbie con IA será una herramienta interesante que sabe correrse a tiempo. Si elegimos mal, será una compañera que nunca contradice, y, por eso mismo, una mala maestra para la vida.

Publicaciones Recientes

ChatGPT Image 15 oct 2025, 02_50_09

Extinción o despegue: los escenarios de IA según la Fed de Dallas

El artículo del Federal Reserve Bank of Dallas, de junio de 2025, “Advances in AI will boost productivity, living sta
Leer Más
3339bb68-0021-4526-976d-b40765fb726f

Los modelos de IA revelan un sesgo arraigado por la escritura humana

En las profundidades de un laboratorio digital en Princeton, un relato breve sobre un altercado en un autobús se transf
Leer Más

Para estar informado, Ingresá o Creá tu cuenta en MundoIA...

Entrar

Recordá revisar la carpeta de "no deseados", el correo puede llegar allí