Uso indiscriminado de algoritmos sin supervisión, un riesgo.
Si bien existen avances importantes para evitar errores de sesgo en la Inteligencia Artificial (IA), es fundamental que la velocidad de desarrollo de algoritmos ajustados a principios éticos esté alineada con la velocidad de avance de esta tecnología y su regulación de uso.
“Este es un gran desafío ya que los avances tecnológicos generalmente ocurren más rápido que la respuesta de las sociedades en forma de legislación. Por esta razón, ahora corresponde a los desarrolladores de sistemas de IA prestar atención a la aplicación de principios éticos en el desarrollo de sus aplicaciones”, señala Daniel Arraes, director de Desarrollo Comercial de FICO para América Latina.
Gracias a la potencia informática cada vez más asequible a las bibliotecas de código abierto y a la disponibilidad de grandes volúmenes de datos recopilados en todo el mundo, es fácil ver que la adopción de IA se producirá rápidamente y a gran escala, refiere el directivo.
“Una pregunta que debemos hacernos, entre tantas otras, es: ¿estamos seguros de que las decisiones tomadas por las máquinas mediante la aplicación de IA serán lo suficientemente justas y no sesgadas para garantizar un tratamiento ético para todos los seres humanos?”.
Daniel Arraes detalla cómo dentro de un sistema de IA, se interconectan aspectos como sesgo, justicia e igualdad de oportunidades, transparencia e interpretación, seguridad, uso legal o ilegal y políticas de privacidad.
Varios de estos aspectos están interconectados y pueden programarse dentro de un sistema como, por ejemplo, respetar los límites de la ley en el uso de la información permitida y el uso para la toma de decisiones, de acuerdo con la legislación aplicable.
Muchos sistemas de IA, explica, terminan generando internamente lo que técnicamente se conoce como “variable latente”, que no es más que una combinación de datos de entrada, cuya interpretación es fundamental para generar una explicación razonable de la decisión tomada.
Para el directivo, un ejemplo reciente ilustra bien el peligro del uso indiscriminado de algoritmos de Machine Learning sin supervisión o control de sus aspectos éticos. La pandemia de COVID-19 está creando una carga para el sistema de atención médica en países de todo el mundo.
Los sistemas de IA pueden ser muy útiles para ayudar a los gobiernos en diversos aspectos de la planificación de su sistema de salud: para pronosticar la demanda (casos de enfermedades que requieren hospitalización) o asignar recursos (personas y equipos en el momento y lugar adecuados), sin mencionar los usos más avanzados, que ya están ocurriendo, relacionados con el desarrollo de medicamentos y vacunas.
Otra decisión crítica que algunas autoridades sanitarias deben tomar tiene relación con la priorización del uso de camas. Esta priorización debe estar relacionada con la probabilidad de recuperación de un individuo; es decir, entre dos pacientes que compiten por la misma cama, se debe dar prioridad al que tenga la mayor probabilidad de supervivencia.
“El dilema ético aquí es claro, sin embargo, también existe la dificultad práctica de cómo calcular esta probabilidad de supervivencia. ¿Es posible garantizar la equidad y la igualdad de oportunidades en las decisiones de este tipo? ¿Un sistema de IA construido para este propósito podría garantizar este principio?”.
C$T-GM