Inteligencia Artificial responsable: Sesgo, transparencia y privacidad

Imagen: Un árbol en crecimiento protegido por manos cibernéticas.. Autor: DALL-E. 

Resumen.- A medida que la IA se vuelve más relevante e importante en el mundo corporativo, más se van a  encontrar las empresas y usuarios con retos éticos, como el sesgo algorítmico, la transparencia y la privacidad. Las  organizaciones que consuman soluciones de IA harán bien en planear por adelantado cómo prevenir y enfrentar  estas situaciones antes de que las tomen por sorpresa.

El advenimiento de la Inteligencia Artificial (IA) funcional avanzada en sus formas recientes abre  múltiples posibilidades. Pero como reza el dicho de la cultura popular, con gran poder viene gran  responsabilidad. Esto implica alertar oportunamente a cliente y usuarios sobre las limitaciones y riesgos  de la IA. Me gustaría subrayar este punto repasando algunos de los principales puntos con implicaciones éticas: el sesgo algorítmico, la transparencia, y la seguridad y privacidad. 

El sesgo algorítmico 

El sesgo en la IA, también conocido como sesgo de aprendizaje automático o sesgo algorítmico, se  refiere a los resultados sesgados causados por los prejuicios humanos que distorsionan los datos de  entrenamiento originales o el algoritmo de IA, lo que lleva a resultados. 

Cuando no se aborda este sesgo, puede reducir la precisión de la IA y por tanto su potencial. Las  empresas son menos propensas a beneficiarse de sistemas que producen resultados distorsionados, además de que los escándalos derivados del sesgo de IA pueden fomentar la desconfianza entre grupos minoritarios o marginados. 

Los modelos de IA absorben los sesgos de la sociedad que pueden estar incrustados en los datos con los  que se entrenan. Esto puede perjudicar a ciertos grupos sociales en casos de uso de IA como la  contratación, la vigilancia o la calificación crediticia, entre otros. Por ejemplo, en el sector de la salud se  ha encontrado que los sistemas de diagnóstico asistido por computadora devuelven resultados de  menor precisión para pacientes de raza negra que para pacientes blancos. 

Un estudio realizado por Bloomberg sobre la generación de imágenes por IA encontró que un sesgo en Stable Diffusion, según el cual los hombres blancos están a la cabeza del mundo y las mujeres rara vez  son doctoras, abogadas o juezas. Otro estudio similar realizado por Midjourney mostró que los roles de  las personas mayores siempre se asignaban a hombres, reforzando el sesgo de género en el lugar de  trabajo.

Se trata de un tema complejo y no de sencilla solución. Ninguna sociedad es perfectamente equitativa  por diversos motivos, lo que genera datos que no están equitativamente representados y que a su vez se  utilizan para alimentar a la IA. Al dar resultados, la IA refleja y quizá refuerza ese desequilibrio. 

No ofrezco una fórmula para resolver este dilema; el punto es que los consultores de TI deben alertar a  sus clientes al respecto, quienes deben decidir sobre el mejor manejo de los modelos de IA a utilizar con  base a estas consideraciones. 

La transparencia 

Lo mismo puede decirse de la transparencia en IA. Para ilustrar su importancia, consideremos que en  2018, una empresa tecnológica lanzó una IA capaz de hacer reservas en restaurantes imitando a una persona, insertando expresiones como "hmm" y "ah" para parecer más real. Esto generó una reacción  negativa inmediata, ya que muchas personas se sintieron engañadas al descubrir que estaban  interactuando con una máquina en lugar de otro ser humano. La situación puso en relieve la necesidad  creciente de transparencia en el uso de la IA, no solo informando a los usuarios cuándo están  interactuando con una IA, sino también sobre cómo y por qué se desarrollan y despliegan estas  tecnologías. 

Como señalan Reid Blackman y Beena Ammanath, la transparencia debe ser un proceso continuo que  implique a todos los involucrados, desde los diseñadores y desarrolladores hasta los ejecutivos y  usuarios finales. Es esencial que las empresas comuniquen claramente las razones detrás de la elección  de una solución de IA, los datos utilizados, las medidas para mitigar sesgos y cómo se monitorea y  actualiza la IA. 

La transparencia en el uso de la IA tiene varios efectos específicos que ayudan a generar confianza. En  primer lugar, disminuye el riesgo de errores y mal uso. Los sistemas de IA son complejos y su  implementación en ambientes variados puede dar lugar a errores si no hay una buena comunicación  entre los distintos actores involucrados. Por ejemplo, un malentendido en el diseño de una IA para  detectar tumores en radiografías llevó a que los radiólogos dedicaran más tiempo del necesario a  analizar imágenes señaladas por la IA. Si hubieran sido informados correctamente sobre la sensibilidad  del modelo, habrían optimizado su tiempo mejor.

En el caso de los grandes modelos de lenguaje o LLMs, es importante que como consultores  responsables informemos a nuestros clientes de sus limitaciones, como la tendencia ocasional a  “alucinar”. Esto se refiere a dar respuestas que no están basadas en datos reales, sino en una invención de la IA misma, lo que es consecuencia del funcionamiento de la tecnología misma, que determina  probabilidades y no datos. 

La seguridad y la privacidad 

En estos días de auge de la IA, cuando se habla de ciberseguridad en esta área normalmente se hace  referencia a la IA para la ciberseguridad, entendida como el uso de “la IA para analizar y correlacionar los  datos de eventos y ciberamenazas a través de múltiples fuentes, convirtiéndolos en ideas claras y  procesables que los profesionales de la seguridad utilizan para una mayor investigación, respuesta y  presentación de informes.”

Sin duda que la IA será una poderosa herramienta en este respecto, pero no debemos olvidar que toda  solución tecnológica implica riesgos, por lo que necesitamos prestar atención a la ciberseguridad en la  IA. Para quienes trabajan directamente sobre el desarrollo de modelos de IA como LLMs o generadores  de imágenes, esto implica el entrenamiento libre de datos con sesgo malicioso, o la prevención de la  toma de control de terceras partes sobre la IA para generar decisiones erróneas.

En el campo de quienes trabajamos en aplicaciones de modelos de IA ya existentes, las consideraciones  de seguridad habituales para cualquier proyecto de TI igualmente aplican. Pero a estas debemos añadir  ciertos aspectos de privacidad específicos a la IA. 

Los sistemas de IA a menudo requieren grandes volúmenes de datos, lo que incluye información  personal sensible. Esto puede dar lugar a violaciones de la privacidad si los datos no se manejan  adecuadamente o si se accede a ellos sin autorización. 

Otro riesgo significativo es el uso de tecnologías de vigilancia impulsadas por IA, como los sistemas de  reconocimiento facial y herramientas de seguimiento de ubicación. Estas tecnologías pueden llevar a la  monitorización masiva y la invasión de la privacidad de los individuos. 

Para abordar estos desafíos, Trygin Technologies recomienda adoptar un enfoque de "privacidad por  diseño", integrando consideraciones de privacidad desde el inicio del desarrollo de sistemas de IA. Es  crucial establecer políticas claras para el uso ético de los datos, así como implementar técnicas para la detección y mitigación de sesgos algorítmicos. Finalmente, es esencial minimizar la recopilación de datos  personales y utilizar técnicas de anonimización para proteger la privacidad. 5 

Conclusión 

Como consultores de TI y profesionales del nuevo ámbito de la IA, somos los guías de nuestros clientes.  A medida que avanzamos en este territorio, es nuestra responsabilidad prever los posibles retos en el  horizonte e informar de manera temprana a clientes y usuarios. Un reto importante es el que se relaciona con la IA responsable y ética, y lo que implica en términos de sesgo algorítmico, transparencia  y seguridad y privacidad en la IA. 

Espero que este artículo te haya sido útil y te haya dado una mejor comprensión del tema. Si tienes alguna  pregunta o comentario, no dudes en ponerte en contacto conmigo. Me gustaría ayudarte a alcanzar tus  objetivos de tecnología de la información y a brindarte soluciones innovadoras y eficaces para tus  proyectos. ¡Gracias por leer!

Imagen: Un árbol en crecimiento protegido por manos cibernéticas.. Autor: DALL-E.