En nombre de la ética, Google, IBM y Microsoft han abandonado sus proyectos de IA

En nombre de la ética, Google, IBM y Microsoft han renunciado a los proyectos de IA

Piden una regulación clara pero flexible del sector

cerveau en circuit imprime sur fond de planete ter - En nombre de la ética, Google, IBM y Microsoft han abandonado sus proyectos de IA

Reconocimiento facial, análisis de emociones, imitación de voz, atribución de créditos… Google, Microsoft e IBM hablaron con Reuters sobre proyectos de Inteligencia Artificial que han sido apartados por sus comités de ética. Las empresas tecnológicas reconocen los errores del pasado y aseguran que no se repetirán.

Los comités de ética no son cascarones vacíos, dicen Google, IBM y Microsoft

Al principio de la crisis de Covid, IBM recibió una propuesta para crear una IA que pudiera identificar si una persona tenía fiebre y estaba enmascarada. Varios investigadores y empresas se propusieron encontrar una IA que pudiera detectar el Covid, pero IBM decidió rechazar la oferta. El proyecto basado en el reconocimiento facial se consideró intrusivo y desproporcionado, informa Christina Montgomery, copresidenta de la junta de IA de IBM. Seis meses después, el departamento de reconocimiento facial de la empresa cerró sus puertas.

En 2015, Google comenzó a analizar las emociones, la alegría, la tristeza, la ira, la sorpresa… utilizando la inteligencia artificial. Cuando se planteó la cuestión de ampliar la paleta de emociones, el comité de ética de la empresa, el Consejo de Revisión de Tecnología Avanzada, decidió ponerle freno. El análisis de la «vergüenza» y el «consentimiento» fue impulsado por los equipos de ingenieros y expertos. Jen Gennai, fundadora y jefa del equipo de innovación de Google, explicó que, dado que las señales faciales pueden variar en función de las culturas, la probabilidad de sesgo de la IA era demasiado grande.

Fue esta cuestión de la parcialidad, uno de los principales problemas de la IA, lo que impidió a Google Cloud entrar en el campo del crédito. Google proporciona IA al sector financiero, por ejemplo, capaz de detectar transacciones anormales. Sin embargo, en octubre de 2020 renunció a crear una IA para asignar el crédito. Se consideró que el riesgo de perpetuar las prácticas discriminatorias basadas en el origen, el género o contra los grupos marginados era demasiado grande.

Microsoft, por su parte, ha restringido su software de suplantación de voz, Custom Neural Voice, que estará totalmente disponible en febrero de 2022. Natasha Crampton, responsable de IA de la empresa, explicó que Brad Smith, el propio presidente, fue consultado sobre el servicio. El miedo, el uso de la voz de las personas sin su consentimiento.

Regular la IA sí, pero ¿hasta qué punto?

Google, Microsoft e IBM destacan estos diversos casos para tranquilizar al público en general y a las autoridades sobre una tecnología que ha tenido sus problemas. Entre las posibilidades de vigilancia masiva que abre el reconocimiento facial y los sesgos de la IA racista, ya no sirve movilizar la ciencia ficción para cuestionar la IA.

Las empresas tecnológicas lo han entendido rápidamente, Microsoft abrió su Comité de Ética en 2017, Google e IBM en 2018. No es suficiente para los grupos de derechos. Según Jascha Galaski, responsable de promoción de la Unión de Libertades Civiles para Europa, los comités de ética siguen careciendo de independencia y transparencia. Cree que es «utópico» que lleguen a serlo por sí mismos.

En este caso, la solución es pasar por la ley. La Unión Europea tiene previsto adoptar una normativa sobre IA el año que viene, y Estados Unidos podría seguir su ejemplo. Las grandes empresas están a favor, siempre que los textos sean lo suficientemente flexibles como para no perjudicar la innovación en el sector. Las asociaciones, por su parte, temen que la normativa sea demasiado vaga.

El comité de ética de Google Cloud ya se lo ha explicado al equipo empresarial en un memorándum obtenido por Reuters: por el momento, la idea de una IA para la asignación de créditos se ha pospuesto, pero hará su reaparición en cuanto se hayan eliminado sus sesgos y pueda participar en la inclusión financiera. A menos que los legisladores decidan prohibirlo, por supuesto.

 

Pin It on Pinterest

Shares