La inteligencia artificial discrimina a las personas mayores

«Los algoritmos suelen caer en decisiones discriminatorias y en invisibilizar colectivos», han alertado las investigadoras de la Universidad Oberta de Catalunya (UOC) Andrea Rosales y Mireia Fernández-Ardèvol, expertas ambas en personas mayores y TIC.

Según estas expertas, mientras que la discriminación por sexo, raza u orientación sexual está ampliamente documentada, la discriminación por edad (edadismo) no recibe la misma atención.

«En muchos estudios no hay un control suficiente de la demografía de la muestra, se aplican ideas estereotipadas sobre el uso de las TIC en algunos colectivos, como en el caso de los ancianos, o hay limitaciones técnicas en los sistemas de medida que analizan variables», ha enumerado Fernández-Ardèvol.

Según esta investigadora, «en el grupo de población europea de 65 a 74 años el crecimiento del uso de la nuevas tecnologías de la información ha sido del 53% en los últimos 5 años».

Sin embargo, los sistemas inteligentes siguen proyectando tendencias basadas en criterios de uso de las personas más jóvenes.

Rosales y Fernández-Ardèvol presentaron en el XXXVI Congreso Internacional de la Asociación de Estudios Latinoamericanos, que finalizó la pasada semana en Barcelona, los resultados de un estudio que evidencia este tipo de estereotipos y prejuicios presentes en el análisis y la explotación de los datos masivos o big data.

¿SISTEMAS INTELIGENTES?

Entre los ejemplos de discriminación están las plataformas digitales, por ejemplo Facebook, donde, aunque ahora ya se ha corregido, al principio los usuarios no podían declarar una edad de más de 80 años.

«Los diseñadores pensaron simplemente que una persona tan mayor nunca estaría interesada en usarla», ha indicado Fernández-Ardèvol, que es codirectora del grupo de investigación Communication Networks & Social Change (CNSC) del Internet Interdisciplinary Institute (IN3) de la UOC.

La publicidad online tampoco se suele ajustar a las necesidades de un usuario mayor ya que «cuando una persona se registra en una plataforma digital y no ha declarado el sexo o la edad previamente, los algoritmos acaban eligiendo y mostrando un tipo de publicidad desacertada», según el estudio.

«Muchas veces las predicciones de edad que hacen los sistemas inteligentes para adaptar los anuncios al usuario son erróneas, y puede pasar, por ejemplo, que una persona de 50 años le aparezca publicidad sobre pruebas de embarazo dirigida a personas de 30 años. Probablemente, esta publicidad no es relevante para esta persona e, incluso, puede ser molesta», ha advertido Rosales.

La invisibilización de este colectivo también se produce en las ‘start-ups’ y en empresas de innovación digital, que basan sus servicios en la Inteligencia Artificial.

«Los sistemas de inteligencia artificial que se utilizan para recoger datos y analizarlos muchas veces obvian a las personas mayores», según las investigadoras, que ponen como ejemplo cuando se investigan los usos de los espacios públicos de una ciudad y se analizan los datos de los móviles que tienen el wifi encendido.

Estos datos proporcionan desde el tiempo que las personas tardan en atravesar una calle por un semáforo hasta el tiempo que necesitan para subir las escaleras del metro.

Pero en el análisis de estos estudios no se tienen en cuenta minorías como las personas mayores que o bien no tienen wifi en el móvil o bien, si lo tienen, lo llevan siempre apagado, concluyen las investigadoras.