Población LGBT+, con poca representación en los equipos de Inteligencia Artificial

Foto: Envato

Preocupantes resultados arrojó una encuesta realizada en 2021 por la Organización de Investigación Empresarial (IBM) Institute for Business Value en alianza con Oxford Economics a 1.200 personas ejecutivas con el objetivo de comprender “cuánto han progresado las organizaciones en sus esfuerzos por abordar e incorporar la ética de la Inteligencia Artificial (IA) en sus prácticas empresariales”.

El estudio indica que la encuesta se llevó a cabo en 22 países de América del Norte, América Latina, Europa, Medio Oriente y África, y Asia (incluidos China e India) desde mayo hasta julio de 2021.

Las más de mil personas encuestadas se desempeñaban en “16 roles empresariales y tecnológicos, principalmente ejecutivos, pero también profesionales de IA, de más de 22 industrias”.

También te puede interesar: Las 3 personas LGBT más influyentes de la tecnología

Los principios de la ética de la IA que referencia el estudio son: responsabilidad, transparencia, diversidad, no discriminación e imparcialidad; privacidad y gestión de datos, intervención y supervisión humana, robustez y seguridad técnica, y bienestar medioambiental y social.

Persona frene a una pantalla con números
Fuente: Pexels

Menor inclusión LGBT en equipos de Inteligencia Artificial IA

Entre los hallazgos se destaca que, pese a que el 68 por ciento de las organizaciones reconoce que tener una fuerza laboral diversa e inclusiva es importante para mitigar el sesgo en la IA, los equipos son 5.4 veces menos inclusivos para las mujeres, 4 veces menos inclusivos para las personas LGBTQ+ y 1.7 veces menos racialmente inclusivos.

Con esta amplia brecha entre intención y acción, las empresas se quedan cortas a la hora de reducir sesgos en sus tecnologías, lo que ha convertido a la implementación de la ética de la IA en uno de los mayores retos del mundo organizacional.

“Avanzar en una IA confiable puede seguir siendo un desafío considerando el acto de equilibrio pragmático que a veces se necesita: por ejemplo, entre la “explicabilidad”, es decir, la capacidad de comprender la lógica detrás de los resultados de un algoritmo de IA, y la “robustez”, que es la precisión de un algoritmo para llegar a un resultado”, señala el estudio.

Añade que, si bien más de la mitad de las organizaciones han respaldado públicamente los principios comunes de la ética de la IA, menos de una cuarta parte los ha puesto en práctica y menos del 20 % está totalmente de acuerdo en que las prácticas y acciones de sus organizaciones relacionadas con la ética de la IA coinciden con los principios y valores declarados.

Para los consumidores y trabajadores también resulta fundamental para ayudar a resolver problemáticas de la sociedad.

Así quedó evidenciado en otra encuesta del IBM Institute for Business Value en 2021. En este sondeo fueron consultados más de 14,000 consumidores, ciudadanos y empleados.

Puede interesarte: Mobile World Congress: la novedades tecnológicas para 2022

De acuerdo con el informe, el 85 por ciento de las personas encuestadas considera que es importante “que las organizaciones tengan en cuenta la ética al utilizar la IA para abordar los problemas de la sociedad”.

Persona escribiendo en un computador
Fuente: Péxels

Sobre esta problemática, se resalta en el documento que lo ideal sería que los empleados que trabajan en la ética de la Inteligencia Artificial deben representar a todos los grupos poblacionales.

“Se necesita un enfoque más proactivo y tangible para mejorar las prácticas de reclutamiento, contratación y retención para aumentar las voces subrepresentadas entre quienes diseñan e implementan la IA. Este énfasis puede ayudar a mitigar el sesgo y generar confianza en los resultados de la IA”, agrega.

La encuesta también da cuenta de que implementar la ética de la IA en las prácticas empresariales beneficia las finanzas de las organizaciones.

“Por ejemplo, las empresas en el cuartil con la brecha de género más pequeña entre su fuerza laboral y sus equipos de IA obtienen un retorno de la inversión algo mayor para sus proyectos de IA”, se lee.

Una mano humana tocando una mano robotica
Fuente: Pexels

De la intención a la acción

El estudio contiene una “guía de acción” con pasos a seguir en los casos en que las organizaciones deseen adoptar la IA “y sus intenciones estratégicas y éticas correspondientes”.

Para las personas ejecutivas y líderes de diversidad e inclusión de las empresas, IBM Institute for Business Value recomienda lo siguiente:

  1. Medir la diversidad en los equipos de IA.
  2. Identificar formas de reducir el índice de abandono y atraer y retener grupos subrepresentados en IA y otros roles tecnológicos.
  3. Exponer públicamente los esfuerzos para promover la diversidad en IA, ciencia de datos y equipos relacionados.
  4. Establecer planes de capacitación para ayudar a los empleados a comprender cómo el sesgo inconsciente puede infiltrarse en los conjuntos de datos (y las soluciones de IA).

Desigualdades para profesionales LGBTIQ+ en tecnología

Un estudio publicado en la revista científica Science Advances en 2021 y desarrollado por la Universidad de Michigan (Estados Unidos) arrojó que profesionales en STEM (ciencia, tecnología, ingeniería y matemáticas, por sus siglas en inglés) tenían más probabilidades de experimentar limitaciones profesionales, acoso y devaluación profesional que sus pares no LGBTQ.

Para este trabajo se realizaron encuestas representativas a 25,324 profesionales de 21 sociedades STEM, de los cuales 1.006 son de la población diversa.

Los investigadores examinaron las posibles desigualdades por estatus LGBTQ+ a lo largo de cinco dimensiones: (1) oportunidades de carrera, (2) devaluación profesional, (3) exclusión social, (4) dificultades de salud y bienestar, y (5) intenciones de abandonar STEM.

Mano frente a conexiones digitales
Fuente: Pexels

De acuerdo con la investigación, los profesionales STEM LGBTQ tienen menos probabilidades que sus pares no LGBTQ de tener recursos y oportunidades profesionales adecuados para avanzar en su carrera y es menos probable que se sientan cómodos denunciando irregularidades.

También existe mayor posibilidad de que las personas encuestadas hayan experimentado una devaluación de su experiencia profesional que sus pares no diversos

Asimismo, son más propensos a informar sobre la exclusión social por parte de sus compañeros de trabajo y más probabilidades de haber experimentado acoso en el trabajo.

También leer: Las mejores empresas de tecnología para trabajar si eres LGBT en México

Además, experimentan dificultades de salud y bienestar con más frecuencia que sus pares no LGBTQ, “y estas diferencias están mediadas en parte por la mayor probabilidad de los encuestados LGBTQ de encontrar limitaciones profesionales, devaluación profesional y exclusión social”, indica el estudio.

Por último, señala que los profesionales STEM LGBTQ son más propensos que sus pares que no lo son a planear dejar sus trabajos STEM actuales y tener la intención de dejar STEM por completo.

Mas noticias de Tecnología