Trampas Éticas de la Inteligencia Artificial (IA) y Diagnósticos de Demencia Basados en el Habla

Disorders Lab

There are many possible ethical pitfalls of artificial intelligence, such as that which makes diagnoses of dementia based on speech. 

Inteligencia artificial para ayudar en el diagnóstico

A medida que miramos hacia la inteligencia artificial para ayudar en el diagnóstico, debemos tener en cuenta cómo recopilamos datos para entrenar estas IA. Los datos para el análisis del habla, una herramienta útil en el diagnóstico de la demencia, se pueden acumular a partir de llamadas telefónicas, visitas de telemedicina, aplicaciones de teléfonos inteligentes e incluso un altavoz doméstico similar a los productos Amazon Echo o Google Home. Cuando confiamos en tecnología costosa o incluso en el conocimiento para descargar aplicaciones específicas, abrimos la puerta a la creación de una IA sesgada. 

Al crear una IA, esta solo es tan buena como los datos que se entrenan, y cuando estos datos no incluyen a grupos marginados, la misma IA tendrá un desempeño inferior para esas comunidades. Un caso clásico de esto se encuentra en el ámbito del reconocimiento facial. En 2019, la Dra. Raji y la Dra. Buolamwini del Media Lab del MIT evaluaron qué tan bien funciona realmente la IA de reconocimiento facial de Amazon. Aunque descubrieron que la IA podría alcanzar un punto de referencia del 100 % para los hombres de piel más clara y del 99 % para los hombres de piel más oscura, la IA tenía una precisión del 93 % para las mujeres de piel más clara y un escaso 69 % para las de piel más oscura1. Esta disparidad en la que esta IA tiene un desempeño inferior para las mujeres y las personas de color se remonta a los conjuntos de datos con los que se entrenó y los algoritmos que la forman. 

Consciente de crear conjuntos de datos que no marginen aún más a las comunidades

Al considerar la creación de una nueva IA médica que utilice el habla para diagnosticar enfermedades, debemos ser conscientes de crear conjuntos de datos que no marginen más a las comunidades marginadas. Esto significa que debemos incluir el inglés vernáculo afroamericano, los dialectos regionales, el inglés no nativo y el habla de todos los orígenes culturales y étnicos. Los conjuntos de datos también deberán depender de herramientas que no sean accesibles para evitar sesgos de riqueza en sus IA. Todo esto es necesario para crear una IA menos sesgada y ética. 

1. Raji, Inioluwa Deborah y Joy Buolamwini. “Actionable Auditing.” Actas d