Por ORH
En los últimos 20 años, la capacidad de recopilar, almacenar y procesar datos por parte de usuarios y organizaciones ha aumentado de forma espectacular. Existen nuevas herramientas que ayudan a automatizar procesos, aprender cosas que antes no se podían ver, reconocer patrones y predecir lo que es probable que ocurra. De ahí que el uso de la Inteligencia Artificial (IA) en la gestión de los Recursos Humanos se ha visto como un paso más para agilizar procesos, maximizar el rendimiento y, en definitiva, incrementar las expectativas de negocio. Por ello, ADP identifica 5 principios a tener en cuenta para definir una estrategia sólida de gestión ética de los datos e Inteligencia Artificial para los procesos de Recursos Humanos.
«El uso ético de los datos y los algoritmos significa trabajar para hacer lo correcto en el diseño, la funcionalidad y el uso de los datos en la Inteligencia Artificial. Es evaluar cómo se utilizan los datos y para qué se utilizan, considerar quién tiene y debería tener acceso, y anticipar cómo se podrían utilizar los datos de forma indebida. Significa pensar qué datos deben y no deben conectarse con otros datos y cómo almacenarlos, moverlos y utilizarlos de forma segura. Las consideraciones sobre el uso ético incluyen la privacidad, la parcialidad, la accesibilidad, la información personal identificable, el cifrado y los requisitos y restricciones legales», comenta Bárbara Gómez, directora de BPI & Service Excellence para el sur de Europa de ADP.
Las herramientas basadas en los datos y la IA están cambiando las organizaciones y la forma en la que se trabaja, pero es importante no llegar a conclusiones incorrectas a partir de los datos, amplificar los sesgos o confiar en las opiniones o predicciones de la IA sin conocer a fondo en qué se basan. La ética consiste en reconocer los intereses contrapuestos y considerar lo que es justo y plantea preguntas como: ¿Qué importa? ¿Qué es necesario? ¿Qué es justo? ¿Qué podría salir mal? ¿Se debe hacer? Para dar respuesta a estas preguntas, ADP ha definido una serie de parámetros a tener en cuenta en la gestión de datos.
5 principios comunes para utilizar los datos y la IA de forma ética:
- Transparencia. Incluye revelar qué datos se recogen, qué decisiones se toman con la ayuda de la IA y si el usuario está tratando con bots o con humanos. También significa poder explicar cómo funcionan los algoritmos y en qué se basan sus resultados. De este modo, se puede evaluar la información proporcionada en función de los problemas que se deben resolver. La transparencia también incluye la metodología que una compañía establece para informar a sus trabajadores en cuanto a qué datos tienen sobre ellos y cómo se utilizan. En este proceso es necesario dar a los usuarios la oportunidad de corregir o eliminar la información necesaria.
- La IA no sólo ofrece información. A veces ofrece opiniones. Las empresas tienen que pensar cómo utilizan estas herramientas y la información que proporcionan. Dado que los datos proceden de los humanos y les conciernen, es esencial buscar sesgos en los datos que se recogen, en las reglas que se aplican y en las preguntas que se hacen. Por ejemplo, si se quiere aumentar la diversidad en la contratación, no habrá que basarse únicamente en herramientas que ofrezcan datos de aquellos trabajadores que ha tenido éxito en la organización en el pasado. Esta información por sí sola probablemente dará la misma información en lugar de más diversidad. Si bien no hay manera de eliminar por completo el sesgo en las herramientas creadas por y sobre las personas, hay que entender cómo las herramientas están sesgadas para que podamos reducir y gestionar el sesgo, y corregirlo para la toma de decisiones.
- Exactitud. Los datos utilizados en la IA deben estar actualizados y ser precisos. Es imprescindible encontrar metodologías adecuadas para poder corregirlos. Los datos también deben manejarse, limpiarse, clasificarse, conectarse y compartirse con cuidado para mantener su precisión. A veces, al sacar los datos de un contexto concreto puede suponer que parezcan engañosos o falsos. La precisión depende, por un lado, de si los datos son verdaderos, y, por otro, de si tienen sentido y son útiles para el objetivo perseguido.
- Privacidad. Con el paso de los años se han ido estableciendo nuevas legislaciones que reconocen el derecho a la privacidad del ser humano (nombre, imagen, registros financieros y médicos, relaciones personales, hogares y propiedades), aunque todavía queda por resolver cómo equilibrar la privacidad y la necesidad de utilizar tanta información personal. Los legisladores se han sentido más cómodos permitiendo un uso más amplio de los datos anónimos que de los datos en los que se sabe o se puede descubrir fácilmente de quien se trata, pero a medida que se recogen y conectan más datos surgen nuevas preguntas sobre cómo mantener ese anonimato. Otra de las cuestiones relacionadas con la privacidad es la seguridad de la información y lo que los usuarios deben saber sobre quién tiene información sobre ellos, y cómo la utilizan.
- Responsabilidad. No se trata sólo de cumplir las leyes y reglamentos mundiales. La responsabilidad tiene que ver con la exactitud e integridad de las fuentes de datos, la comprensión y evaluación de los riesgos y las posibles consecuencias del desarrollo y el uso de los datos y la IA para asegurar que las nuevas herramientas y tecnologías se crean de forma ética.
A medida que las organizaciones sigan desarrollando sus propias prácticas éticas internas y los países continúen estableciendo nuevos requisitos legales más concretos, se podrán determinar unas normas y bases legales más específicas para el uso ético de los datos y la IA.
Gómez añade, «el modo y la cantidad de información que circula a través de nuevas herramientas como la IA supone un reto con el que todas las organizaciones tienen que lidiar. La ética de los datos implica plantearse preguntas difíciles sobre los posibles riesgos y consecuencias para las personas sobre las que versan los datos y las organizaciones que los utilizan».