Sesgo, desvío y límite de conocimientos
Estado: Traducido del Inglés
Comprender a fondo los conceptos de la IA responsable, como el sesgo, la desviación y el límite de conocimientos, puede ayudarle a utilizar la IA de forma más ética y responsable. Con esta lectura aprenderá a utilizar las herramientas de IA de forma responsable y a comprender las implicaciones de los resultados injustos o imprecisos.
Daños y prejuicios
Para utilizar la IA de forma responsable es necesario conocer sus sesgos inherentes. Los sesgos de los datos son circunstancias en las que errores sistémicos o prejuicios conducen a información injusta o inexacta, lo que da lugar a resultados sesgados. Utilizar la IA de forma responsable y ser consciente de sus posibles sesgos puede ayudar a evitar este tipo de daños.

Los resultados sesgados pueden causar muchos tipos de daños a las personas y a la sociedad, entre ellos
Daño distributivo: Daño que se produce cuando el uso o el comportamiento de un sistema de IA niega oportunidades, recursos o información en ámbitos que afectan al bienestar de una persona
Ejemplo: Si el administrador de un complejo de apartamentos utilizara una herramienta de IA que verificara los antecedentes de los posibles inquilinos, la herramienta de IA podría identificar erróneamente a un solicitante y considerarlo un riesgo por su baja puntuación crediticia. Podría denegársele un apartamento y perder la tasa de solicitud.
Cómo mitigarlo: Evalúa todos los contenidos generados por IA antes de incorporarlos a tu trabajo o compartirlos con nadie. Situaciones como la del ejemplo pueden evitarse cotejando los resultados de la IA con otras fuentes.
Daños en la calidad del servicio: Circunstancia en la que las herramientas de IA no funcionan igual de bien para determinados grupos de personas en función de su identidad
Ejemplo: Cuando se desarrolló por primera vez la tecnología de reconocimiento del habla, los datos de entrenamiento no contenían muchos ejemplos de patrones de habla exhibidos por personas con discapacidad, por lo que los dispositivos a menudo tenían dificultades para analizar este tipo de habla.
Cómo mitigarlo: Especifica la diversidad añadiendo un lenguaje inclusivo a tu mensaje. Si una herramienta de IA generativa no tiene en cuenta a determinados grupos o identidades, como las personas con discapacidad, solucione el problema cuando itere sobre la pregunta.
Daño representacional: Una herramienta de IA refuerza la subordinación de grupos sociales en función de sus identidades
Ejemplo: Cuando se desarrolló por primera vez la tecnología de traducción, ciertos resultados se inclinaban inexactamente hacia lo masculino o lo femenino. Por ejemplo, cuando se generaba una traducción de palabras como "enfermera" y "guapa", la traducción tenía un sesgo femenino. Cuando se utilizaban palabras como "doctor" y "fuerte", la traducción era masculina.
Cómo mitigarlo: Cuestionar los supuestos. Si una herramienta de IA generativa proporciona una respuesta sesgada, por ejemplo, con un resultado masculino o femenino, identifique y aborde el problema cuando repita su pregunta y pida a la herramienta que corrija el sesgo.
Daño al sistema social: Efectos sociales a nivel macro que amplifican las disparidades existentes de clase, poder o privilegio, o causan daños físicos, como resultado del desarrollo o uso de herramientas de IA
Ejemplo: Los deepfakes no deseados, que son fotos o vídeos falsos generados por IA de personas reales diciendo o haciendo cosas que no dijeron ni hicieron, pueden ser un ejemplo de daño al sistema social.
Cómo mitigarlo: Comprobación de los hechos y referencias cruzadas. Algunas herramientas de IA generativa tienen funciones que proporcionan las fuentes donde se encontró la información. También puedes comprobar los hechos utilizando un motor de búsqueda para confirmar la información o pidiendo ayuda a un experto. La consulta de dos o más fuentes ayuda a identificar posibles resultados inexactos.
Daño interpersonal: El uso de la tecnología para crear una desventaja a ciertas personas que afecta negativamente a sus relaciones con los demás o causa una pérdida de su sentido de sí mismo y la agencia
Ejemplo: Si alguien fuera capaz de tomar el control de un dispositivo doméstico en su anterior apartamento para gastar una broma no deseada a su antiguo compañero de piso, estas acciones podrían provocar una pérdida del sentido de sí mismo y de la agencia por parte de la persona afectada por la broma.
Cómo mitigarlo: Considera los efectos del uso de la IA y utiliza siempre tu mejor juicio y tus habilidades de pensamiento crítico. Pregúntate si la IA es adecuada para la tarea que estás realizando. Como cualquier tecnología, la IA puede ser tanto beneficiosa como perjudicial, dependiendo de cómo se utilice. En última instancia, es responsabilidad del usuario asegurarse de que no causa daños utilizando IA.
Deriva frente a corte de conocimientos

Otro fenómeno que puede causar resultados injustos o inexactos es la deriva. La deriva es la disminución en de la precisión de las predicciones de un modelo de IA debido a cambios a lo largo del tiempo que no se reflejan en los datos de formación. Esto suele deberse al "knowledge cutoff", es decir, al concepto de que un modelo se entrena en un momento determinado, por lo que no tiene conocimiento de los acontecimientos o la información posteriores a esa fecha.
Por ejemplo, un diseñador de moda puede querer seguir las tendencias de gasto antes de crear una nueva colección. Si utiliza un modelo que se entrenó por última vez con las tendencias de la moda y los hábitos de consumo de 2015, es posible que el modelo no produzca resultados útiles, ya que es probable que estos dos factores hayan cambiado con el tiempo. Es muy probable que las preferencias de los consumidores en 2015 sean diferentes de las tendencias actuales. En otras palabras, las predicciones del modelo han pasado de ser precisas en el momento de la formación a ser menos precisas en la actualidad debido, en parte, al límite de conocimientos del modelo.
Hay otros factores que pueden provocar la deriva y hacer que un modelo de IA sea menos fiable. Los sesgos en los nuevos datos pueden contribuir a la deriva. Los cambios en el comportamiento de las personas y en el uso de la tecnología, o incluso los grandes acontecimientos mundiales, pueden afectar a un modelo y restarle fiabilidad. Para que un modelo de IA funcione bien, es importante supervisar periódicamente su rendimiento y abordar sus límites de conocimiento utilizando un enfoque humano.
Para explorar los sesgos, los datos, la desviación y los límites de conocimiento, consulta el ejercicio ¿Qué han aprendido los modelos de lenguaje?
No hay comentarios:
Publicar un comentario