sábado, 27 de septiembre de 2025

Limites de la IA

 

Sesgo, desvío y límite de conocimientos

Estado: Traducido del Inglés

Comprender a fondo los conceptos de la IA responsable, como el sesgo, la desviación y el límite de conocimientos, puede ayudarle a utilizar la IA de forma más ética y responsable. Con esta lectura aprenderá a utilizar las herramientas de IA de forma responsable y a comprender las implicaciones de los resultados injustos o imprecisos.

Daños y prejuicios

Para utilizar la IA de forma responsable es necesario conocer sus sesgos inherentes. Los sesgos de los datos son circunstancias en las que errores sistémicos o prejuicios conducen a información injusta o inexacta, lo que da lugar a resultados sesgados. Utilizar la IA de forma responsable y ser consciente de sus posibles sesgos puede ayudar a evitar este tipo de daños.

Diagrama que ilustra el sesgo en un modelo de IA, representado como un panel de control con controles deslizantes que se ajustan a distintos niveles.

Los resultados sesgados pueden causar muchos tipos de daños a las personas y a la sociedad, entre ellos

  • Daño distributivo: Daño que se produce cuando el uso o el comportamiento de un sistema de IA niega oportunidades, recursos o información en ámbitos que afectan al bienestar de una persona

    • Ejemplo: Si el administrador de un complejo de apartamentos utilizara una herramienta de IA que verificara los antecedentes de los posibles inquilinos, la herramienta de IA podría identificar erróneamente a un solicitante y considerarlo un riesgo por su baja puntuación crediticia. Podría denegársele un apartamento y perder la tasa de solicitud.

    • Cómo mitigarlo: Evalúa todos los contenidos generados por IA antes de incorporarlos a tu trabajo o compartirlos con nadie. Situaciones como la del ejemplo pueden evitarse cotejando los resultados de la IA con otras fuentes.

  • Daños en la calidad del servicio: Circunstancia en la que las herramientas de IA no funcionan igual de bien para determinados grupos de personas en función de su identidad

    • Ejemplo: Cuando se desarrolló por primera vez la tecnología de reconocimiento del habla, los datos de entrenamiento no contenían muchos ejemplos de patrones de habla exhibidos por personas con discapacidad, por lo que los dispositivos a menudo tenían dificultades para analizar este tipo de habla.

    • Cómo mitigarlo: Especifica la diversidad añadiendo un lenguaje inclusivo a tu mensaje. Si una herramienta de IA generativa no tiene en cuenta a determinados grupos o identidades, como las personas con discapacidad, solucione el problema cuando itere sobre la pregunta.

  • Daño representacional: Una herramienta de IA refuerza la subordinación de grupos sociales en función de sus identidades

    • Ejemplo: Cuando se desarrolló por primera vez la tecnología de traducción, ciertos resultados se inclinaban inexactamente hacia lo masculino o lo femenino. Por ejemplo, cuando se generaba una traducción de palabras como "enfermera" y "guapa", la traducción tenía un sesgo femenino. Cuando se utilizaban palabras como "doctor" y "fuerte", la traducción era masculina.

    • Cómo mitigarlo: Cuestionar los supuestos. Si una herramienta de IA generativa proporciona una respuesta sesgada, por ejemplo, con un resultado masculino o femenino, identifique y aborde el problema cuando repita su pregunta y pida a la herramienta que corrija el sesgo.

  • Daño al sistema social: Efectos sociales a nivel macro que amplifican las disparidades existentes de clase, poder o privilegio, o causan daños físicos, como resultado del desarrollo o uso de herramientas de IA

    • Ejemplo: Los deepfakes no deseados, que son fotos o vídeos falsos generados por IA de personas reales diciendo o haciendo cosas que no dijeron ni hicieron, pueden ser un ejemplo de daño al sistema social.

    • Cómo mitigarlo: Comprobación de los hechos y referencias cruzadas. Algunas herramientas de IA generativa tienen funciones que proporcionan las fuentes donde se encontró la información. También puedes comprobar los hechos utilizando un motor de búsqueda para confirmar la información o pidiendo ayuda a un experto. La consulta de dos o más fuentes ayuda a identificar posibles resultados inexactos.

  • Daño interpersonal: El uso de la tecnología para crear una desventaja a ciertas personas que afecta negativamente a sus relaciones con los demás o causa una pérdida de su sentido de sí mismo y la agencia

    • Ejemplo: Si alguien fuera capaz de tomar el control de un dispositivo doméstico en su anterior apartamento para gastar una broma no deseada a su antiguo compañero de piso, estas acciones podrían provocar una pérdida del sentido de sí mismo y de la agencia por parte de la persona afectada por la broma.

    • Cómo mitigarlo: Considera los efectos del uso de la IA y utiliza siempre tu mejor juicio y tus habilidades de pensamiento crítico. Pregúntate si la IA es adecuada para la tarea que estás realizando. Como cualquier tecnología, la IA puede ser tanto beneficiosa como perjudicial, dependiendo de cómo se utilice. En última instancia, es responsabilidad del usuario asegurarse de que no causa daños utilizando IA.

Deriva frente a corte de conocimientos

Una metáfora visual de la deriva de la IA, mostrada como un laberinto con un camino que se desvía de la ruta originalmente prevista.

Otro fenómeno que puede causar resultados injustos o inexactos es la deriva. La deriva es la disminución en de la precisión de las predicciones de un modelo de IA debido a cambios a lo largo del tiempo que no se reflejan en los datos de formación. Esto suele deberse al "knowledge cutoff", es decir, al concepto de que un modelo se entrena en un momento determinado, por lo que no tiene conocimiento de los acontecimientos o la información posteriores a esa fecha.

Por ejemplo, un diseñador de moda puede querer seguir las tendencias de gasto antes de crear una nueva colección. Si utiliza un modelo que se entrenó por última vez con las tendencias de la moda y los hábitos de consumo de 2015, es posible que el modelo no produzca resultados útiles, ya que es probable que estos dos factores hayan cambiado con el tiempo. Es muy probable que las preferencias de los consumidores en 2015 sean diferentes de las tendencias actuales. En otras palabras, las predicciones del modelo han pasado de ser precisas en el momento de la formación a ser menos precisas en la actualidad debido, en parte, al límite de conocimientos del modelo.

Hay otros factores que pueden provocar la deriva y hacer que un modelo de IA sea menos fiable. Los sesgos en los nuevos datos pueden contribuir a la deriva. Los cambios en el comportamiento de las personas y en el uso de la tecnología, o incluso los grandes acontecimientos mundiales, pueden afectar a un modelo y restarle fiabilidad. Para que un modelo de IA funcione bien, es importante supervisar periódicamente su rendimiento y abordar sus límites de conocimiento utilizando un enfoque humano.

Para explorar los sesgos, los datos, la desviación y los límites de conocimiento, consulta el ejercicio ¿Qué han aprendido los modelos de lenguaje?

de Google PAIR Explorables. Allí puedes interactuar con BERT, uno de los primeros modelos lingüísticos de gran tamaño (LLM), y explorar cómo las correlaciones en los datos pueden conducir a sesgos problemáticos en los resultados. También puedes consultar otros PIAR IA Explorables para aprender más sobre IA responsable.

No hay comentarios: