LinkedIn ha desplegado una transformación radical en su motor de búsqueda de personas, reemplazando su enfoque lexicográfico tradicional por una arquitectura de inteligencia artificial generativa que comprende lenguaje natural y relaciones conceptuales entre habilidades y campos profesionales. Este avance permite a los usuarios realizar búsquedas como "inversores en el sector salud con experiencia en la FDA" o "graduados de Northwestern que trabajan en marketing de entretenimiento", con la plataforma mapeando automáticamente conceptos relacionados como "cáncer" con "oncología" y "genómica" para encontrar expertos relevantes.
Este avance representa un logro técnico notable en escalabilidad de IA, combinando modelos de diferentes tamaños estratégicamente distribuidos a lo largo del proceso de búsqueda. Donde antes los usuarios necesitaban conocer títulos exactos o luchar con filtros complejos, ahora pueden describir en sus propias palabras qué tipo de profesionales buscan, con la IA entendiendo la intención detrás de la consulta y balanceando relevancia con accesibilidad dentro de la red del usuario.
Esta transformación llega en un momento crucial cuando LinkedIn enfrenta el desafío de servir a 1.300 millones de usuarios mientras mantiene costos computacionales manejables. La solución ha requerido innovaciones en múltiples frentes: desde la generación de datos sintéticos y la distilación de modelos hasta la poda agresiva de parámetros y la implementación de enrutamiento inteligente entre la búsqueda semántica y la lexicográfica.
Arquitectura en dos fases: recuperación amplia y clasificación precisa
El corazón de la nueva búsqueda opera mediante un enfoque de dos etapas que optimiza el balance entre cobertura y precisión. En la fase inicial de recuperación, un modelo más grande de 8.000 millones de parámetros se encarga de "lanzar una red amplia", procesando la consulta del usuario para identificar un conjunto diverso de perfiles potencialmente relevantes. Esta aproximación de alto costo computacional está justificada por su capacidad para comprender matices conceptuales y relaciones entre habilidades que escaparían a los métodos tradicionales.
La segunda fase emplea un modelo de clasificación (ranking) compacto que aplica precisión quirúrgica al conjunto preseleccionado. Aquí es donde LinkedIn ha aplicado sus técnicas más agresivas de optimización, podando el modelo "estudiante" de 440 millones a 220 millones de parámetros con una pérdida de relevancia inferior al 1%. Esta reducción del 50% en complejidad es lo que hace económicamente viable operar la plataforma a escala de miles de millones de búsquedas.
Arquitectura técnica de la nueva búsqueda
Recuperación (Fase 1): Modelo de 8B parámetros para cobertura amplia.
Clasificación (Fase 2): Modelo de 220M parámetros para precisión.
Reducción de parámetros: Poda de 440M a 220M (50% menos).
Pérdida de relevancia: Menos del 1% tras poda agresiva.
Compresión de contexto: Modelo RL que reduce entrada 20x.
Ganancia de rendimiento: Mejora de 10x en capacidad de procesamiento.
El desafío de los datos: de un conjunto "dorado" a escala masiva
Uno de los obstáculos más significativos que enfrentó el equipo de LinkedIn fue la escasez de datos de entrenamiento de alta calidad. La solución fue elegantemente escalable: comenzaron con un pequeño "conjunto dorado" de apenas 1.000 pares consulta-perfil anotados manualmente contra una política detallada de relevancia. Este conjunto minúsculo pero de extremada calidad sirvió como base para generar datos sintéticos que capturaban los criterios de evaluación deseados.
Sobre este fundamento, el equipo entrenó un "juez de políticas" de 7.000 millones de parámetros capaz de evaluar la relevancia de las coincidencias entre consultas y perfiles. Lo crucial vino después: mediante técnicas de distilación, transfirieron el conocimiento de este modelo grande a un "profesor de relevancia" más compacto de 1.700 millones de parámetros, especializado exclusivamente en determinar pertinencia, más otros modelos especializados en predecir acciones de usuario como "conectar" o "seguir".
Optimizaciones técnicas: donde cada milisegundo importa
Para lograr el rendimiento necesario a escala de LinkedIn, el equipo implementó varias optimizaciones técnicas profundas. Una de las más críticas fue el traslado de la indexación de CPUs a GPUs, necesario porque el grafo de personas presenta patrones de carga fundamentalmente diferentes al de búsqueda de empleos u otro contenido. Esta migración permitió acelerar significativamente el procesamiento de las ricas representaciones vectoriales que alimentan la arquitectura semántica.
Otra innovación notable fue el desarrollo de un resumidor mediante aprendizaje por refuerzo que comprime el contexto de entrada por un factor de 20x. Combinado con el modelo de clasificación más pequeño, esta compresión produce una ganancia de 10x en el rendimiento del sistema, una diferencia que transforma lo económicamente inviable en operable cuando se trata de servir a más de mil millones de usuarios.
Router de LLMs: el guardián de costos y eficiencia
Uno de los componentes más estratégicos de la plataforma es el enrutador de LLMs, que decide cuándo enviar consultas a la arquitectura semántica versus cuándo recurrir a la búsqueda léxica tradicional. Este mecanismo de enrutamiento inteligente sigue la práctica establecida de optimización de costos en sistemas de IA empresariales, donde no todas las consultas justifican el costo computacional de modelos grandes.
Como explican expertos en implementación de enrutamiento de LLM, "dimensionar correctamente el cómputo no significa 'siempre barato'. Significa 'aplicar inteligentemente el recurso de computación correcto para el trabajo'". Para LinkedIn, esto se traduce en dirigir consultas complejas que requieren comprensión semántica al nuevo modelo, mientras mantiene consultas simples y basadas en nombres en el mecanismo léxico más eficiente.
Ejemplos de búsquedas que ahora son posibles
"Encuéntrame inversores en el sector salud con experiencia en la FDA" - El modelo mapea "salud" y "FDA" a sectores y habilidades relacionadas.
"Personas que cofundaron una empresa de productividad y están basadas en NYC" - Comprende relaciones entre roles empresariales y ubicación.
"Quién en mi red puede ayudarme a entender redes inalámbricas" - Equilibra relevancia con accesibilidad en la red del usuario.
"Profesores convertidos en diseñadores industriales" - Reconceptualiza transiciones profesionales no obvias.
"Graduados de Northwestern que trabajan en marketing de entretenimiento" - Conecta instituciones educativas con industrias.
El contexto estratégico: IA como potenciador de relaciones humanas
Más allá de la tecnología, el lanzamiento refleja la visión estratégica de LinkedIn sobre el papel de la IA en el espacio profesional. Como explicó el CEO Ryan Roslansky, "El conocimiento experto confiable y contextual (el tipo de cosas que provienen de tener una experiencia vivida o hacer un trabajo específico o tener una visión profunda) en mi opinión, se está volviendo mucho más valioso, no menos".
Esta perspectiva sitúa a la IA no como reemplazo del juicio humano, sino como potenciador de la conexión entre profesionales. Donde antes las limitaciones de la búsqueda por palabras clave impedían descubrir expertos relevantes fuera del círculo inmediato, ahora la plataforma puede identificar conexiones de segundo y tercer grado que poseen exactamente la experiencia o conocimientos que un usuario necesita.
Implementación gradual y consideraciones de negocio
LinkedIn está desplegando la función de forma gradual, comenzando con miembros Premium en Estados Unidos antes de expandirla a otras geografías y eventually a todos los usuarios. Este enfoque conservador permite refinar la herramienta con retroalimentación real mientras maneja progresivamente los costos computacionales.
La decisión de lanzar primero para usuarios Premium refleja tanto consideraciones técnicas como de negocio: desde la perspectiva técnica, permite limitar inicialmente el volumen de consultas que atraviesan la arquitectura más costosa; desde la perspectiva de negocio, agrega valor diferenciado a la suscripción Premium en un momento de creciente competencia en el espacio de IA profesional.
Limitaciones actuales y dirección futura
Aunque representa un avance significativo, la plataforma todavía muestra limitaciones que el equipo continúa refinando. Los usuarios pueden obtener resultados ligeramente diferentes dependiendo de cómo formulen consultas conceptualmente similares, como "personas que cofundaron una startup de YC" versus usar "Y Combinator" explícitamente. El equipo reconoce que la comprensión de matices en las consultas sigue siendo un área de mejora continua.
El desarrollo futuro probablemente se enfocará en expandir las capacidades de comprensión contextual, mejorar la personalización basada en el historial de interacciones del usuario, y refinar el balance entre descubrimiento serendípito y relevancia precisa. Además, la expansión progresiva a más mercados presentará desafíos adicionales de adaptación lingüística y cultural.
Evolución de la arquitectura de búsqueda de LinkedIn
Arquitectura heredada: Búsqueda léxica basada en palabras clave e índices invertidos.
Infraestructura Galene: Sistema personalizado construido sobre Apache Lucene para grafos profesionales.
Proceso clásico: Tres capas (L0 recuperación, L1 clasificación, L2 re-clasificación) con modelos CNN y BERT.
Nueva arquitectura: Híbrido léxico-semántico con enrutamiento inteligente y modelos de distinto tamaño por etapa.
Personalización histórica: Factores como identidad del buscador, relaciones y "clics significativos".
Redefiniendo el descubrimiento profesional
El lanzamiento de la búsqueda de personas con IA por LinkedIn representa un punto de inflexión en cómo los profesionales descubren y conectan con expertos relevantes. Al superar las limitaciones de la búsqueda por palabras clave, la solución permite a los usuarios articular necesidades en lenguaje natural mientras la plataforma se encarga de mapear conceptos, balancear relevancia con accesibilidad y entregar resultados que previamente permanecían ocultos detrás de barreras terminológicas.
Técnicamente, el logro es igualmente significativo como demostración de cómo optimizar arquitecturas de IA generativa para escala masiva. La combinación de enrutamiento inteligente, distilación de modelos, poda agresiva de parámetros y compresión de contexto ofrece un modelo a seguir para otras plataformas que enfrentan el desafío de desplegar capacidades de IA avanzadas manteniendo la viabilidad económica.
Como resume Megan Falvey Wilder en el anuncio oficial del lanzamiento: "He lanzado muchas características en mi carrera, pero esta es una que me enorgullece especialmente. Todos conocemos y amamos LinkedIn por conectarnos con otros profesionales para avanzar nuestras carreras. Pero encontrar a las personas correctas no siempre ha sido tan fácil". Ese "ya no tan fácil" acaba de volverse considerablemente más accesible para 1.300 millones de profesionales.
Referencias
TechCrunch. "LinkedIn adds AI-powered search to help users find people." Noviembre 13, 2025.
Fast Company. "LinkedIn's new AI people search unlocks the power of its professional graph." Noviembre 13, 2025.
LinkedIn Post. "AI-powered people search is officially live for Premium members in the US." Megan Falvey Wilder. Noviembre 13, 2025.
Keypoint. "People Search AI @LinkedIn | Tech Reading and Notes." Julio 12, 2023.
Lucidworks. "LinkedIn's Galene Search Architecture Built on Apache Lucene." Consultado noviembre 2025.
LinkedIn. "How LLM Routing Reduces AI Costs Without Sacrificing Quality?" INORU - Next-Gen Technologies.
LinkedIn. "Which LLM router should you choose for your next AI project: OpenRouter vs LiteLLM." Dmitry Styhe. Noviembre 2025.



