Existe un momento en la evolución de cualquier tecnología donde deja de ser herramienta y se convierte en compañía. Las calculadoras procesan números, los teléfonos conectan voces distantes, pero los sistemas de inteligencia artificial conversacional están cruzando un umbral inquietante en las escuelas estadounidenses: están convirtiéndose en confidentes, amigos y, en casos crecientes, parejas románticas para adolescentes.
Una investigación reciente del Centro para la Democracia y Tecnología revela que casi uno de cada cinco estudiantes de secundaria afirma haber tenido o conocer a alguien que ha mantenido una relación romántica con inteligencia artificial. Más sorprendente aún, el cuarenta y dos por ciento de los encuestados reporta usar o conocer a alguien que utiliza estos sistemas como compañía emocional.
Los datos provienen de encuestas nacionales a aproximadamente ochocientos maestros de sexto a duodécimo grado, mil estudiantes de secundaria y mil padres, todos en escuelas públicas estadounidenses. La conclusión central resulta paradójica: mientras más integran las instituciones educativas la inteligencia artificial en sus procesos académicos, mayor es la probabilidad de que los estudiantes desarrollen vínculos emocionales con estos sistemas.
Elizabeth Laird, coautora del informe y antigua oficial de privacidad de datos para la agencia estatal de educación de Washington D.C., identifica una correlación preocupante en los hallazgos. Cuantas más formas reporta un estudiante en que su escuela utiliza inteligencia artificial, más probable es que reporte conocer a alguien que considera a la IA como amigo o como pareja romántica. Esta conexión no es accidental sino estructural.
Las encuestas definen niveles altos de uso como siete a diez aplicaciones relacionadas con la escuela para maestros, y cuatro a seis para estudiantes. Cuando la tecnología se vuelve omnipresente en el entorno educativo, los jóvenes naturalmente comienzan a explorar sus posibilidades más allá de las funciones académicas previstas.
La mayoría de los encuestados, ochenta y seis por ciento de estudiantes, ochenta y cinco por ciento de educadores y setenta y cinco por ciento de padres, reportaron haber utilizado inteligencia artificial durante el último año escolar. Esta adopción masiva ocurre sin que exista consenso claro sobre límites apropiados, capacitación adecuada o protocolos de seguridad robustos. El vacío de orientación deja a estudiantes navegando territorios emocionales complejos sin mapas confiables.
Las consecuencias no previstas de la integración tecnológica acelerada
Los datos revelan que niveles elevados de uso de inteligencia artificial en escuelas correlacionan con exposición aumentada a brechas de seguridad de datos, interacciones problemáticas entre estudiantes y sistemas algorítmicos, y la proliferación de deepfakes, videos o fotos manipuladas que se utilizan para acosar sexualmente y hostigar a estudiantes. Laird señala que esta tecnología se ha convertido en un nuevo vector para acoso sexual y hostigamiento, problemas persistentes que existían mucho antes de la adopción generalizada de inteligencia artificial, pero que ahora encuentran nuevas formas de manifestarse y amplificarse.
El veintiocho por ciento de maestros que utilizan inteligencia artificial para múltiples tareas relacionadas con la escuela reportan que su institución experimentó una brecha de seguridad de datos a gran escala, comparado con dieciocho por ciento de maestros que no utilizan estos sistemas o los emplean solo para pocas tareas. La especialista estadounidense, quien posee experiencia directa en protección de datos educativos, sostiene que cuanto más información comparten las escuelas con sistemas de inteligencia artificial, mayor es el riesgo de sufrir violaciones de seguridad. Los sistemas algorítmicos consumen enormes cantidades de datos y también generan volúmenes significativos de información, creando múltiples puntos potenciales de vulnerabilidad.
Los maestros con niveles altos de uso de inteligencia artificial relacionada con actividades escolares también fueron más propensos a reportar que un sistema que estaban utilizando en clase falló en funcionar según lo previsto. Esta tasa elevada de fallos técnicos no es meramente inconveniente sino que erosiona la confianza comunitaria en las instituciones educativas.
Las escuelas frecuentemente utilizan software potenciado por inteligencia artificial para monitorear actividad en dispositivos emitidos por la institución, en algunos casos generando falsas alarmas que han llevado incluso a arrestos de estudiantes. Esta situación resulta especialmente preocupante para jóvenes que no pueden costear computadoras personales y dependen exclusivamente de dispositivos escolares.
Quien posee un dispositivo personal y no necesita usar uno emitido por la escuela puede, esencialmente, permitirse mantener sus documentos y mensajes privados, explica Laird. Esta brecha digital crea una jerarquía de privacidad donde estudiantes de familias con mayores recursos económicos disfrutan de mayor autonomía digital, mientras que aquellos dependientes de tecnología escolar están sujetos a vigilancia constante.
La paradoja es cruel: las instituciones que buscan cerrar brechas de acceso tecnológico inadvertidamente crean nuevas formas de desigualdad en privacidad y autonomía personal.
La búsqueda de conexión emocional en entidades algorítmicas
Los estudiantes que asisten a escuelas con uso intensivo de inteligencia artificial fueron significativamente más propensos a reportar que ellos o un amigo habían utilizado estos sistemas para apoyo de salud mental, como compañía, como forma de escapar de la realidad y para mantener relaciones románticas.
Cuando los estudiantes reportaron tener conversaciones con sistemas de inteligencia artificial por razones personales, no relacionadas con trabajo escolar, treinta y uno por ciento indicó que utilizaron un dispositivo o software proporcionado por su escuela. Esta estadística sugiere que la infraestructura tecnológica educativa se está convirtiendo en puente hacia usos que los diseñadores de políticas escolares probablemente nunca contemplaron.
Laird enfatiza que los estudiantes deberían comprender que no están realmente conversando con una persona sino con una herramienta, y que estas herramientas tienen limitaciones conocidas. La investigación sugiere que la alfabetización en inteligencia artificial y la capacitación que reciben estudiantes son muy básicas. Los jóvenes y educadores frecuentemente no reciben entrenamiento o guía para ayudarles a navegar los desafíos más complejos asociados con la tecnología.
Solo once por ciento de los maestros encuestados dijeron haber recibido capacitación sobre cómo responder si sospechan que el uso de inteligencia artificial por parte de un estudiante es perjudicial para su bienestar. Esta carencia de preparación institucional deja a los educadores sin recursos cuando enfrentan situaciones potencialmente delicadas donde la tecnología podría estar afectando negativamente la salud emocional de sus alumnos.
Los educadores que utilizan inteligencia artificial con frecuencia fueron más propensos a decir que la tecnología mejora su enseñanza, les ahorra tiempo y proporciona aprendizaje individualizado para estudiantes. Sin embargo, los estudiantes en escuelas donde el uso de inteligencia artificial es prevalente reportaron niveles más altos de preocupación sobre la tecnología, incluyendo la sensación de estar menos conectados con sus maestros.
Esta desconexión percibida representa una de las ironías más profundas de la automatización educativa: herramientas diseñadas para personalizar el aprendizaje pueden simultáneamente crear distancia emocional entre estudiantes y educadores humanos.
Los vacíos institucionales que permiten consecuencias imprevistas
Entre la adopción tecnológica y la comprensión de sus implicaciones sociales se abre una brecha que se manifiesta en múltiples dimensiones. Las escuelas integran sistemas algorítmicos para mejorar eficiencia administrativa, personalizar instrucción y preparar estudiantes para economías digitales futuras. Estos objetivos son legítimos y potencialmente valiosos. Pero la velocidad de implementación supera dramáticamente la capacidad institucional para anticipar, monitorear y responder a efectos secundarios no previstos.
Cuando estudiantes recurren a inteligencia artificial para apoyo emocional o compañía romántica, están revelando necesidades humanas fundamentales que no están siendo satisfechas en sus entornos sociales reales. Vacíos que idealmente serían ocupados por relaciones humanas auténticas ahora se llenan con tecnología. Los sistemas conversacionales ofrecen disponibilidad constante, respuestas predecibles y ausencia de juicio social, características que pueden resultar atractivas para adolescentes navegando complejidades de identidad, aceptación social y pertenencia.
Nada en la investigación del Centro para la Democracia y Tecnología sugiere que la inteligencia artificial deba ser prohibida de contextos educativos, sino que su integración requiere mucho más cuidado, transparencia y capacitación de lo que actualmente se está proporcionando. Laird articula esta posición señalando que mientras puede haber valor en estas tecnologías, también vienen con consecuencias negativas. Si las instituciones educativas van a realizar los beneficios de la inteligencia artificial, realmente necesitan prestar atención a lo que los estudiantes están comunicando.
Ambivalencia caracteriza las voces estudiantiles en la investigación: reconocen utilidades prácticas pero también experimentan inquietud sobre implicaciones más amplias. Esta ambivalencia merece ser tomada seriamente en lugar de ser descartada como resistencia al cambio o nostalgia por métodos tradicionales. Los jóvenes están señalando que algo fundamental en la experiencia educativa se está transformando, y no están seguros de que todas las transformaciones sean mejoras.
Interrogantes sobre desarrollo social, formación de identidad y preparación para relaciones humanas adultas surgen ante la proliferación de relaciones emocionales entre adolescentes y sistemas algorítmicos. ¿Qué aprenden los jóvenes sobre reciprocidad, vulnerabilidad y compromiso cuando sus experiencias formativas de intimidad involucran entidades que simulan comprensión sin poseerla realmente? ¿Cómo se traduce la comodidad con interacciones algorítmicas predecibles a la capacidad de navegar la complejidad impredecible de relaciones humanas auténticas?
Respuestas a estas preguntas no se encuentran en los datos del Centro para la Democracia y Tecnología, pero el estudio las vuelve urgentes. Uno de cada cinco estudiantes de secundaria reportando conexiones románticas con inteligencia artificial no es anomalía marginal sino indicador de cambio cultural sustancial.
Laboratorios involuntarios son lo que se han convertido las escuelas estadounidenses, espacios donde se prueban los límites de integración entre humanos y algoritmos, frecuentemente sin protocolos experimentales claros, sin grupos de control y sin comprensión completa de riesgos potenciales.
Persiste una paradoja central: mientras más profundamente las instituciones educativas integran inteligencia artificial en sus operaciones, más exponen a estudiantes a consecuencias no previstas que van desde brechas de seguridad de datos hasta formación de vínculos emocionales con sistemas no humanos. Esta correlación no implica necesariamente que la tecnología deba ser abandonada, pero sí exige que su adopción sea más deliberada, más informada y más atenta a las dimensiones humanas de la educación que ninguna herramienta algorítmica puede replicar.
Los estudiantes están hablando, reportando sus experiencias y preocupaciones. Si las instituciones que los sirven están realmente escuchando es la pregunta pendiente.