
El equipo de Ciencia de Datos de Job&Talent es responsable de incorporar inteligencia artificial de vanguardia en los productos y servicios de la empresa, tanto en nuevas funciones para nuestros clientes, como en mejoras internas que nos ayudan a poner a prueba nuestra infraestructura.
Además de concebir, desarrollar, probar y desplegar modelos de IA, el equipo de Ciencia de Datos desempeña un papel activo en liderar la visión sobre el uso ético y responsable de la IA en un entorno empresarial, lo que conduce a una experiencia mejorada para clientes, trabajadores y equipos internos.
El papel de los datos en la IA
Se dice que los datos son el nuevo petróleo de la economía corporativa. En la era actual de la analítica y la IA, esta afirmación se siente en todos los ámbitos, y la industria del personal no es una excepción. Las herramientas y técnicas avanzadas se han vuelto parte integral del flujo de trabajo de cualquier empresa dedicada a la contratación de personal, desde bots de contratación desarrollados por la IA hasta aplicaciones de aprendizaje automático que optimizan la planificación y gestión de la fuerza laboral.
Las aplicaciones de IA se alimentan de datos hasta el punto de tener una doble función. Por un lado, sirven para entrenar modelos personalizados y privados para su aplicación en productos y operaciones. Para ello se procesa un volumen significativo de datos que pasan por algoritmos de aprendizaje automático (como árboles o redes neuronales).
Por otro lado, los datos son necesarios en la etapa de aplicación, llamada 'inferencia' en el vocabulario del aprendizaje automático, para ejecutar predicciones en modelos entrenados y extraer pronósticos y recomendaciones. Debido a esta fuerte dependencia de los datos, una preocupación legítima es garantizar la protección, privacidad y seguridad de los datos: ¿cómo podemos aprovechar el poder de los datos de manera responsable mientras protegemos la información sensible que contienen?
Explorando las mejores prácticas en protección de datos
En la Unión Europea, el Reglamento General de Protección de Datos (RGPD) establece el marco legal para la protección de datos. Pero, ¿qué significa realmente en términos de cómo los profesionales de datos manejan y construyen aplicaciones de IA en su trabajo diario?
En Job&Talent, entendemos la gestión de datos desde distintos puntos de vista. Para el propósito de los sistemas de IA, nos enfocamos en dos tipos de datos: datos para entrenamiento y datos para inferencia, correspondientes a los dos modos de uso descritos anteriormente.
Es importante notar que existen otras formas de clasificar los datos, por ejemplo, los datos en movimiento y datos en reposo, un paradigma más comúnmente utilizado por los ingenieros de datos.
Recogida y entrenamiento de datos
Para el entrenamiento de datos, el proceso comienza con la recogida responsable de datos. Nos centramos en recoger datos que sean útiles para nuestros modelos, revisando o eliminando cualquier información que no cumpla directamente con este propósito.
Nuestros sistemas de IA están diseñados para evitar la recogida o el uso de datos personales (PII), como nombres, números de teléfono, direcciones de correo electrónico, ya que a menudo tienen poco valor en análisis descriptivos o predictivos. En su lugar, confiamos en datos numéricos únicos asignados aleatoriamente, como ID de cliente, para indexar datos.
Además, al preparar datos para el entrenamiento, tenemos cuidado de excluir cualquier descriptor que sea privado o potencialmente discriminatorio en naturaleza, como la edad, el nivel de ingresos o la etnia, incluso si pueden tener valor predictivo. Esta práctica nos permite prevenir recomendaciones potencialmente sesgadas de los modelos en el futuro y reduce los riesgos de almacenar datos sensibles durante el proceso de entrenamiento.
Garantizar la seguridad durante la inferencia
En el momento de la inferencia, donde los modelos se aplican en tiempo real o casi en tiempo real dentro de un entorno de producción, la situación es más crítica. En tal entorno, hay una interfaz directa con los usuarios (clientes y trabajadores en nuestro caso) cuya información privada puede estar involucrada. Para mitigar riesgos, implementamos protocolos de seguridad robustos y capas en nuestros servicios de IA, como autenticación estricta, validación de entradas y listas blancas.
Estas prácticas protegen nuestros sistemas de solicitudes no autorizadas, previenen la inyección de código malicioso en servicios que causan que filtren información no deseada y mantienen las respuestas internas restringidas solo a servicios conocidos y confiables.
Además, seguimos las mejores prácticas como cifrar los datos en movimiento cuando se transmiten entre servicios, descartar entradas innecesarias después de su uso (retención de datos cero) y validar las salidas para garantizar que contengan solo la información necesaria en formatos contratados.
Uso responsable de modelos de IA generativa
No todos los modelos se entrenan, particularmente en la era de la IA Generativa, donde los modelos de lenguaje de gran escala comerciales (LLMs) se utilizan cada vez más para aplicaciones empresariales. Al utilizar estos modelos, el uso responsable de los datos adquiere un sabor diferente.
Los modelos de GenAI se utilizan principalmente en modo de inferencia, y en Job&Talent los usamos de dos maneras. Para modelos comerciales de terceros como OpenAI o Anthropic AI, o plataformas como AWS Bedrock o MS Azure AI, nos aseguramos de que los términos de uso y la privacidad de los datos se alineen con nuestros propios estándares de compromiso con la protección de los datos del usuario. También garantizamos una política de retención de datos cero para que ninguna de las entradas pueda almacenarse o utilizarse para fines de entrenamiento.
Cuando usamos LLMs de código abierto, como Llama3 de Meta o el modelo Mixtral 7B de Mistral AI, aunque el modelo no está entrenado por nosotros, aún realizamos pruebas exhaustivas para identificar y mitigar problemas comunes con GenAI, como alucinaciones, salidas inapropiadas, resultados sesgados o cálculos incorrectos.
La comunidad de investigación está activa en la creación de puntos de referencia definitivos para garantizar la seguridad y el cumplimiento del uso de LLMs, y mantenerse actualizado con estos estándares es fundamental para el éxito de la adopción de la IA.
La responsabilidad humana en la IA
Al final, la tecnología de IA actual no es una entidad independiente autogobernada. Como profesionales e ingenieros de IA, somos responsables de entrenar, asegurar y verificar estos sistemas en nuestras aplicaciones.
Un enfoque reflexivo y centrado en el usuario es esencial para generar confianza y fiabilidad en estos sistemas de IA, que ya están transformando rápidamente la forma en que trabajamos y el valor que brindamos a nuestros usuarios.
¿Quieres saber más sobre el uso responsable de la IA? Lee nuestro artículo sobre el impacto del factor humano en la era de la IA.