BitcoinWorld
Algoritmo de LinkedIn al descubierto: El impactante sesgo de género en la distribución de contenido de IA
Imagina ver cómo el alcance de tu contenido profesional disminuye de la noche a la mañana mientras colegas masculinos con menos seguidores se disparan. Esto no es solo especulación: es la inquietante realidad descubierta por usuarios de LinkedIn que descubrieron que su género podría ser la mano invisible que suprime su visibilidad. El experimento #WearthePants ha revelado posibles grietas en el nuevo algoritmo de LinkedIn impulsado por LLM, planteando cuestiones urgentes sobre la equidad en las plataformas de redes profesionales.
En noviembre, una estratega de producto a quien llamaremos Michelle realizó un experimento simple pero revelador. Cambió el género de su perfil de LinkedIn a masculino y su nombre a Michael. Los resultados fueron sorprendentes: las impresiones de sus publicaciones aumentaron un 200% y las interacciones subieron un 27% en cuestión de días. No estaba sola. Marilynn Joyner reportó un aumento del 238% en las impresiones después de hacer el mismo cambio, mientras que numerosas otras mujeres profesionales documentaron patrones similares.
Este experimento surgió después de meses de quejas de usuarios intensivos de LinkedIn sobre la disminución del engagement. El momento coincidió con el anuncio de LinkedIn en agosto de que habían implementado "más recientemente" Modelos de Lenguaje Grande (LLMs) para mostrar contenido. Para las mujeres que construyeron seguidores sustanciales a través de publicaciones consistentes, el cambio repentino se sintió particularmente injusto.
El movimiento comenzó con las emprendedoras Cindy Gallop y Jane Evans, quienes pidieron a dos colegas masculinos que publicaran contenido idéntico. A pesar de tener seguidores combinados que excedían los 150.000 (en comparación con los 9.400 de los hombres), los resultados fueron reveladores:
| Creador | Seguidores | Alcance de publicación | Porcentaje de seguidores alcanzados |
|---|---|---|---|
| Cindy Gallop | ~75.000 | 801 | 1,07% |
| Colega masculino | ~4.700 | 10.408 | 221% |
"La única variable significativa era el género", dijo Michelle a Bitcoin World. Señaló que a pesar de tener más de 10.000 seguidores en comparación con los 2.000 de su esposo, recibían números de impresiones similares, hasta que adoptó los detalles de perfil y el estilo de escritura de él.
LinkedIn mantiene que su "algoritmo y sistemas de IA no utilizan información demográfica como edad, raza o género como señal para determinar la visibilidad del contenido". Sin embargo, los expertos sugieren que el sesgo podría ser más sutil y sistémico.
Brandeis Marshall, consultora de ética de datos, explica: "Las plataformas son una intrincada sinfonía de algoritmos que activan palancas matemáticas y sociales específicas, simultánea y constantemente. La mayoría de estas plataformas tienen integrado de forma innata un punto de vista blanco, masculino y centrado en Occidente debido a quién entrenó los modelos".
El problema surge de cómo aprenden los LLMs:
Michelle notó algo crucial durante su experimento. Al publicar como "Michael", ajustó su escritura a un estilo más directo y conciso, similar a cómo escribe como ghostwriter para su esposo. Este cambio estilístico, combinado con el cambio de género, produjo los resultados dramáticos.
Sarah Dean, profesora asistente de informática en Cornell, señala: "La demografía de alguien puede afectar 'ambos lados' del algoritmo: lo que ven y quién ve lo que publican. Las plataformas a menudo utilizan perfiles completos, incluidos trabajos e historial de interacciones, al determinar qué contenido impulsar".
Esto sugiere que el algoritmo de LinkedIn podría estar recompensando patrones de comunicación históricamente asociados con profesionales masculinos:
La Directora de IA Responsable y Gobernanza de LinkedIn, Sakshi Jain, reiteró en noviembre que sus sistemas no utilizan información demográfica para la visibilidad del contenido. La compañía le dijo a Bitcoin World que prueban millones de publicaciones para garantizar que los creadores "compitan en igualdad de condiciones" y que la experiencia del feed siga siendo consistente en todas las audiencias.
Sin embargo, la plataforma ofrece una transparencia mínima sobre sus procesos de entrenamiento de IA. Chad Johnson, un experto en ventas activo en LinkedIn, describió el nuevo sistema como uno que prioriza "la comprensión, la claridad y el valor" sobre métricas tradicionales como la frecuencia de publicación o el momento.
Cambios clave que reportan los usuarios:
La frustración se extiende más allá de los problemas de género. Muchos usuarios, independientemente del género, informan confusión sobre el nuevo sistema:
Sarah Dean sugiere que el algoritmo podría simplemente estar amplificando señales existentes: "Podría estar recompensando ciertas publicaciones no por la demografía del escritor, sino porque ha habido más respuesta histórica a contenido similar en toda la plataforma".
Basado en experiencias de usuarios y la orientación de LinkedIn, esto es lo que parece funcionar:
"Quiero transparencia", afirmó Michelle, haciéndose eco de un sentimiento común. Sin embargo, como señala Brandeis Marshall, la transparencia completa podría conducir a la manipulación del algoritmo. Las plataformas protegen celosamente sus secretos algorítmicos, creando lo que los expertos llaman el problema de la "caja negra".
La tensión fundamental permanece: los usuarios quieren sistemas justos y comprensibles, mientras que las plataformas necesitan prevenir la manipulación. Este conflicto es particularmente agudo en redes profesionales como LinkedIn, donde la visibilidad puede impactar directamente en carreras y oportunidades de negocio.
El experimento #WearthePants involucró a mujeres cambiando el género de su perfil de LinkedIn a masculino para probar si el algoritmo de la plataforma mostraba sesgo de género en la distribución de contenido.
El experimento comenzó con las emprendedoras Cindy Gallop y Jane Evans, quienes sospechaban que el género podría explicar la disminución del engagement.
LinkedIn mantiene que su algoritmo no utiliza datos demográficos para la visibilidad del contenido. Sakshi Jain, Directora de IA Responsable, y Tim Jurka, VP de Ingeniería, han abordado estas preocupaciones.
Sí. Los participantes notaron que adoptar estilos de escritura más directos y concisos —a menudo asociados con patrones de comunicación masculinos— se correlacionaba con una mayor visibilidad.
Sí. La mayoría de las plataformas dependientes de LLM luchan con sesgos integrados en sus datos de entrenamiento, como señalan expertos como Brandeis Marshall e investigadores como Sarah Dean.
El experimento #WearthePants revela una posibilidad inquietante: incluso los sistemas de IA bien intencionados pueden perpetuar sesgos del mundo real. Aunque LinkedIn niega la discriminación intencional, los patrones observados por numerosas mujeres profesionales sugieren algo sistémico en funcionamiento. Ya sea que esté integrado en los datos de entrenamiento, reforzado por patrones históricos de engagement o amplificado a través de preferencias estilísticas, el efecto sigue siendo el mismo: algunas voces se amplifican mientras otras se suprimen.
A medida que la IA se integra cada vez más en plataformas profesionales, la necesidad de transparencia, responsabilidad y datos de entrenamiento diversos se vuelve más urgente. La alternativa es un panorama profesional digital donde el éxito depende no solo del mérito, sino de cuán bien uno puede adaptarse a las preferencias algorítmicas —preferencias que podrían llevar los sesgos de sus creadores humanos.
Para conocer más sobre los últimos desarrollos en algoritmos de IA y sus impactos sociales, explore nuestro artículo sobre desarrollos clave que dan forma a la implementación de IA y consideraciones éticas en plataformas de redes sociales.
Esta publicación Algoritmo de LinkedIn al descubierto: El impactante sesgo de género en la distribución de contenido de IA apareció primero en BitcoinWorld.

