Autor
Resumen.- A medida que la IA se vuelve más relevante e importante en el mundo corporativo, más se van a encontrar las empresas y usuarios con retos éticos, como el sesgo algorítmico, la transparencia y la privacidad. Las organizaciones que consuman soluciones de IA harán bien en planear por adelantado cómo prevenir y enfrentar estas situaciones antes de que las tomen por sorpresa.
El advenimiento de la Inteligencia Artificial (IA) funcional avanzada en sus formas recientes abre múltiples posibilidades. Pero como reza el dicho de la cultura popular, con gran poder viene gran responsabilidad. Esto implica alertar oportunamente a cliente y usuarios sobre las limitaciones y riesgos de la IA. Me gustaría subrayar este punto repasando algunos de los principales puntos con implicaciones éticas: el sesgo algorítmico, la transparencia, y la seguridad y privacidad.
El sesgo algorítmico
El sesgo en la IA, también conocido como sesgo de aprendizaje automático o sesgo algorítmico, se refiere a los resultados sesgados causados por los prejuicios humanos que distorsionan los datos de entrenamiento originales o el algoritmo de IA, lo que lleva a resultados.
Cuando no se aborda este sesgo, puede reducir la precisión de la IA y por tanto su potencial. Las empresas son menos propensas a beneficiarse de sistemas que producen resultados distorsionados, además de que los escándalos derivados del sesgo de IA pueden fomentar la desconfianza entre grupos minoritarios o marginados.
Los modelos de IA absorben los sesgos de la sociedad que pueden estar incrustados en los datos con los que se entrenan. Esto puede perjudicar a ciertos grupos sociales en casos de uso de IA como la contratación, la vigilancia o la calificación crediticia, entre otros. Por ejemplo, en el sector de la salud se ha encontrado que los sistemas de diagnóstico asistido por computadora devuelven resultados de menor precisión para pacientes de raza negra que para pacientes blancos.
Un estudio realizado por Bloomberg sobre la generación de imágenes por IA encontró que un sesgo en Stable Diffusion, según el cual los hombres blancos están a la cabeza del mundo y las mujeres rara vez son doctoras, abogadas o juezas. Otro estudio similar realizado por Midjourney mostró que los roles de las personas mayores siempre se asignaban a hombres, reforzando el sesgo de género en el lugar de trabajo. 1
Se trata de un tema complejo y no de sencilla solución. Ninguna sociedad es perfectamente equitativa por diversos motivos, lo que genera datos que no están equitativamente representados y que a su vez se utilizan para alimentar a la IA. Al dar resultados, la IA refleja y quizá refuerza ese desequilibrio.
No ofrezco una fórmula para resolver este dilema; el punto es que los consultores de TI deben alertar a sus clientes al respecto, quienes deben decidir sobre el mejor manejo de los modelos de IA a utilizar con base a estas consideraciones.
La transparencia
Lo mismo puede decirse de la transparencia en IA. Para ilustrar su importancia, consideremos que en 2018, una empresa tecnológica lanzó una IA capaz de hacer reservas en restaurantes imitando a una persona, insertando expresiones como "hmm" y "ah" para parecer más real. Esto generó una reacción negativa inmediata, ya que muchas personas se sintieron engañadas al descubrir que estaban interactuando con una máquina en lugar de otro ser humano. La situación puso en relieve la necesidad creciente de transparencia en el uso de la IA, no solo informando a los usuarios cuándo están interactuando con una IA, sino también sobre cómo y por qué se desarrollan y despliegan estas tecnologías.
Como señalan Reid Blackman y Beena Ammanath, la transparencia debe ser un proceso continuo que implique a todos los involucrados, desde los diseñadores y desarrolladores hasta los ejecutivos y usuarios finales. Es esencial que las empresas comuniquen claramente las razones detrás de la elección de una solución de IA, los datos utilizados, las medidas para mitigar sesgos y cómo se monitorea y actualiza la IA.
La transparencia en el uso de la IA tiene varios efectos específicos que ayudan a generar confianza. En primer lugar, disminuye el riesgo de errores y mal uso. Los sistemas de IA son complejos y su implementación en ambientes variados puede dar lugar a errores si no hay una buena comunicación entre los distintos actores involucrados. Por ejemplo, un malentendido en el diseño de una IA para detectar tumores en radiografías llevó a que los radiólogos dedicaran más tiempo del necesario a analizar imágenes señaladas por la IA. Si hubieran sido informados correctamente sobre la sensibilidad del modelo, habrían optimizado su tiempo mejor. 2
En el caso de los grandes modelos de lenguaje o LLMs, es importante que como consultores responsables informemos a nuestros clientes de sus limitaciones, como la tendencia ocasional a “alucinar”. Esto se refiere a dar respuestas que no están basadas en datos reales, sino en una invención de la IA misma, lo que es consecuencia del funcionamiento de la tecnología misma, que determina probabilidades y no datos.
La seguridad y la privacidad
En estos días de auge de la IA, cuando se habla de ciberseguridad en esta área normalmente se hace referencia a la IA para la ciberseguridad, entendida como el uso de “la IA para analizar y correlacionar los datos de eventos y ciberamenazas a través de múltiples fuentes, convirtiéndolos en ideas claras y procesables que los profesionales de la seguridad utilizan para una mayor investigación, respuesta y presentación de informes.” 3
Sin duda que la IA será una poderosa herramienta en este respecto, pero no debemos olvidar que toda solución tecnológica implica riesgos, por lo que necesitamos prestar atención a la ciberseguridad en la IA. Para quienes trabajan directamente sobre el desarrollo de modelos de IA como LLMs o generadores de imágenes, esto implica el entrenamiento libre de datos con sesgo malicioso, o la prevención de la toma de control de terceras partes sobre la IA para generar decisiones erróneas. 4
En el campo de quienes trabajamos en aplicaciones de modelos de IA ya existentes, las consideraciones de seguridad habituales para cualquier proyecto de TI igualmente aplican. Pero a estas debemos añadir ciertos aspectos de privacidad específicos a la IA.
Los sistemas de IA a menudo requieren grandes volúmenes de datos, lo que incluye información personal sensible. Esto puede dar lugar a violaciones de la privacidad si los datos no se manejan adecuadamente o si se accede a ellos sin autorización.
Otro riesgo significativo es el uso de tecnologías de vigilancia impulsadas por IA, como los sistemas de reconocimiento facial y herramientas de seguimiento de ubicación. Estas tecnologías pueden llevar a la monitorización masiva y la invasión de la privacidad de los individuos.
Para abordar estos desafíos, Trygin Technologies recomienda adoptar un enfoque de "privacidad por diseño", integrando consideraciones de privacidad desde el inicio del desarrollo de sistemas de IA. Es crucial establecer políticas claras para el uso ético de los datos, así como implementar técnicas para la detección y mitigación de sesgos algorítmicos. Finalmente, es esencial minimizar la recopilación de datos personales y utilizar técnicas de anonimización para proteger la privacidad. 5
Conclusión
Como consultores de TI y profesionales del nuevo ámbito de la IA, somos los guías de nuestros clientes. A medida que avanzamos en este territorio, es nuestra responsabilidad prever los posibles retos en el horizonte e informar de manera temprana a clientes y usuarios. Un reto importante es el que se relaciona con la IA responsable y ética, y lo que implica en términos de sesgo algorítmico, transparencia y seguridad y privacidad en la IA.
Espero que este artículo te haya sido útil y te haya dado una mejor comprensión del tema. Si tienes alguna pregunta o comentario, no dudes en ponerte en contacto conmigo. Me gustaría ayudarte a alcanzar tus objetivos de tecnología de la información y a brindarte soluciones innovadoras y eficaces para tus proyectos. ¡Gracias por leer!
Imagen: Un árbol en crecimiento protegido por manos cibernéticas.. Autor: DALL-E.
Autor
- Log in to post comments