En el desarrollo y construcción de proyectos de Inteligencia Artificial (IA) es oportuno considerar que en cada etapa del proceso de creación se pueden introducir sesgos que no son generados por la tecnología, archivos no procesados o por imitación, sino que pueden ser reflejo del mismo humano, derivado de una inadecuada integración de datos, por fuentes o bases de datos utilizadas o ignoradas, elementos todos que exigen un diseño más responsable e incluso con posibilidades de inmunización.
“Cada paso del proceso para producir bases de datos para IA puede introducir sesgos, ya sea recopilando, midiendo, modelando y eligiendo fuentes e indicadores”, expuso María Elena Estavillo directora del Centro-i, al participar en la sesión sobre Ética en la Inteligencia Artificial.
La especialista explicó que si se utilizan encuestas para nutrir las bases de datos -que son usadas para entrenar modelos de IA- el orden de las preguntas y su redacción exacta, e incluso cómo se definen los conceptos o el peso cultural que tienen pueden introducir un sesgo.
“Cuando elegimos las fuentes tenemos que examinar en cómo se han recogido los datos, cómo se han fusionado o filtrado y también qué fuentes se suelen ignorar debido a dificultades técnicas o a los costes, porque estas pueden señalar dónde se encuentran los sesgos”.
La también presidenta de Conectadas consideró que antes de su plena aplicación, los algoritmos de IA deben pasar por una fase que permita su calibración y, posteriormente, en la fase de aplicación, se pueda considerar estrategias de inmunización contra eventuales sesgos.
Es conveniente indicó, que “los usuarios estén plenamente informados de las limitaciones de los algoritmos, para que sepan qué esperar, a qué atenerse y cuándo no confiar en los sistemas”.
En algunos casos en los que los errores algorítmicos son muy costosos o el sesgo no se puede reducir, “podríamos considerar reglas de toma de decisiones alternativas, en casos muy específicos, como cuando se está ante la «comisión de errores muy grandes”.
Incluso, se podría aplicar una toma de decisiones híbrida, “con reglas de anulación para las decisiones asociadas con mayores costos de error, todo esto relacionado con la implementación y el trabajo con los usuarios”.
Pero desde el diseño se debe pensar en una Inteligencia Artificial responsable, con sistemas justos, no discriminatorios, transparentes, centrados en el ser humano, privados y seguros.
“La IA responsable requiere hacer cambios deliberados y repensar cada paso del proceso para implementar mecanismos que puedan identificar las fuentes de las luchas y luego las acciones para tratar esos sesgos, y también es esencial construir equipos diversos, elemento que puede aportar puntos de vista nobles y desafiar las tendencias subjetivas”.
C$T-EVP