Cómo las compañías actuales emplean la IA para analizar la reputación en línea previa a la contratación

Publicar, comentar y compartir: acciones instantáneas que parecen inofensivas. Sin embargo, estas pueden ser evaluadas por sofisticados sistemas de inteligencia artificial que revisan la huella digital de los candidatos a un trabajo incluso antes de la primera entrevista. En Argentina, los departamentos de Recursos Humanos ya integran la IA para evaluar la reputación digital y prever cualquier riesgo al incorporar a una nueva persona al equipo.

La escena no es el fin del mundo, sino más bien parte del entorno laboral. Durante los procesos de selección, la IA se encarga de mirar más allá del simple currículum y analizar lo que las personas hacen público en la red.

Todo lo que se sube a redes sociales, las imágenes en las que somos etiquetados o los comentarios en foros, pueden ser parte de un análisis automatizado que evalúa la “marca personal” del candidato para un puesto.

“Prevenir riesgos reputacionales” o “mantener la cultura interna” de la empresa. Ese es el objetivo de utilizar herramientas que cruzan datos públicos y generan informes sobre el comportamiento online de los postulantes.

Matías Simone, cofundador de WeCheck AI, una empresa con sede en Mar del Plata y presencia corporativa en Estados Unidos, explica que “la huella digital es parte de la identidad profesional moderna”.

Simone desarrolló AIPI, un sistema que revisa publicaciones, menciones e incluso imágenes donde el postulante aparece.

“Nuestro sistema no solo examina lo que posteas o escribes, sino también lo que se publica sobre ti. Por ejemplo, si tu imagen sale en un artículo o en una foto dentro de una noticia desfavorable, el sistema lo puede detectar. Utilizamos el reconocimiento facial de manera responsable para identificar menciones visuales, incluso cuando tu nombre no está mencionado”, precisa.

El propósito no es emitir un juicio, sino “facilitar el entendimiento del contexto detrás de los datos antes de tomar una decisión”, señala el ingeniero.

El sistema produce un informe de reputación que clasifica los hallazgos según los criterios establecidos por la empresa: desde lenguaje discriminatorio o agresivo hasta señales de liderazgo o empatía. “La inteligencia artificial no sustituye el criterio humano, sino que lo complementa”, distingue Simone.

¿Cómo se distingue, por ejemplo, entre comentarios sexistas, discriminatorios o aquellos de naturaleza política como “liberen Palestina” o pro Israel? ¿Cómo se lleva a cabo el proceso de selección del personal?

Las empresas declaran que “la IA no reemplaza el criterio humano, sino que lo complementa”.

“Nuestros análisis son neutrales y completamente ajenos a cualquier ideología política, social o cultural. Lo que hacemos es presentar el contexto del comentario o la foto para que otros tomen decisiones informadas, no para juzgar”, aclara.

Sin embargo, también podemos ser más específicos: “Tenemos la habilidad de marcar publicaciones según el criterio del cliente, es decir, realizar una búsqueda personalizada basándonos, por ejemplo, en temas potencialmente racistas”.

El nuevo currículum vitae: tu rastro digital

Esta tendencia está ganando fuerza en Argentina. De acuerdo con un reclutamiento de PWC, una de cada tres empresas aplica inteligencia artificial en sus procedimientos de recursos humanos.

Basado en un análisis interno de WeCheck sobre más de 4,000 perfiles digitales, en el 13% de los casos se detectaron expresiones relacionadas con prejuicios o discriminación, el 8% mostraron comportamientos que podrían ser considerados amenazas o acoso y en el 7% se encontraron publicaciones con imágenes sugestivas. Una pequeña minoría (1%) incluyó referencias a drogas o pornografía.

El ejemplo más extremo que cita la empresa argentina no es local, sino el de un hombre acusado de cometer doble homicidio en la Embajada de Israel en Washington. Su actividad online reflejaba múltiples alertas: lenguaje hostil, antisemitismo y apoyo a causas extremistas.

“Ese caso demuestra cómo la IA puede detectar patrones de comportamiento que podrían pasar desapercibidos en un proceso de selección tradicional”, indica Simone.

El objetivo es tomar “decisiones informadas, no juzgar”.

En Adecco Argentina, una de las consultoras líderes en recursos humanos del país, confirman que la huella digital ya forma parte del proceso de evaluación.

“No solo observamos la presencia en redes, sino también la coherencia entre lo que el individuo afirma en su currículum y lo que expresa en línea”, relata Mariana D’ardis, Partner de Negocios en Recursos Humanos de la empresa.

D’ardis especifica que en roles donde la comunicación o exposición pública son determinantes —como marketing, ventas o vocería—, la marca personal resulta crucial.

“La manera en que alguien se proyecta y comunica puede reflejar cómo representaría a la empresa. Asimismo, las redes se valoran como espacios de aprendizaje o participación profesional. La huella digital puede ser clave para identificar la compatibilidad cultural con la empresa”, explica.

No obstante, existen límites. “Las publicaciones ofensivas, discriminatorias o que promuevan desinformación generan una percepción negativa inmediata. La cuestión no es evitar opinar, sino cómo se expresan esas opiniones”, compara.

Consideraciones éticas y legales

El avance de estas prácticas plantea preguntas: ¿Hasta dónde puede una empresa explorar la vida digital de un candidato? ¿Qué sucede con la privacidad o la libertad de expresión?

Para Daniel Monastersky, director del Centro de Estudios en Ciberseguridad y Protección de Datos (CECyD) de la Universidad Austral, el inconveniente no reside en la tecnología, sino en la falta de regulación. “La revisión con IA de la vida digital de candidatos opera en una franja gris que las empresas aprovechan porque saben que no habrá repercusiones”, advierte.

El especialista en protección de datos asegura que “ningún algoritmo puede diferenciar entre una opinión política y una expresión discriminatoria, y tampoco le importa a quienes lo implementan”. Según Monastersky, la declaración común en redes -“los comentarios aquí expresados son a título personal”-, “carece de todo efecto legal”.

“Actualmente lo que tenemos es un manejo masivo de datos sin un consentimiento real, decisiones automatizadas no transparentes y sin ninguna rendición de cuentas. Mientras no existan sanciones significativas, las empresas continuarán desmantelando nuestros datos a su antojo”, afirma.

El debate sobre este “vacío legal”, según él, se intensifica ya que la regulación digital en Argentina cumple 25 años y no contempla estos casos. “Es urgente actualizarla para establecer reglas claras acerca del tratamiento automatizado de datos y las decisiones basadas en IA”, concluye Monastersky.

A su juicio, expertos coinciden en un aspecto: la identidad digital ahora es indivisible de la profesional. Simone lo resume de esta forma: “Todos tenemos dos identidades: una física y otra digital. Y esta última puede influir directamente en la primera. Por eso, es esencial ser consciente de lo que dejamos en la red, porque la internet no olvida y hoy, más que nunca, también puede determinar si obtienes un trabajo”.

“Todo los datos que se utilizan en nuestros sistemas son de acceso público”, aclaran. Si los perfiles en X, Instagram o Facebook están configurados como privados, la IA no accede a ellos.

AA

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad