Google contratará nuevos investigadores de ética de la IA
Para evitar la discriminación de la inteligencia artificial, Sundar Pichai planea aumentar el presupuesto operativo de este departamento en Google.
Cuanto más se desarrolle la inteligencia artificial, más necesario será un marco de funcionamiento ético. Así lo cree, al menos, el gigante estadounidense Google, que ha anunciado en el festival Future of Everything, organizado por el Wall Street Journal, que el equipo encargado de definir el marco ético de la inteligencia artificial va a crecer.
Se necesita un marco ético para el desarrollo de la IA
El CEO de Google, Sundar Pichai, ha dicho que quiere aumentar el presupuesto del equipo encargado de estudiar la ética de la inteligencia artificial. Este es un problema importante con el rápido desarrollo de esta tecnología. El objetivo es evitar la discriminación. De hecho, un algoritmo puede ser discriminatorio si está mal entrenado. Esto ya ha ocurrido en numerosas ocasiones. Hace apenas unos meses, un tribunal italiano dictaminó que un algoritmo de Deliveroo cuya función es medir las habilidades de los repartidores era discriminatorio.
También estaba la inteligencia artificial encargada de determinar la cantidad de ayuda médica y social que debían recibir los pacientes. Un equipo de cuatro investigadores compuesto por Ziad Obermeyer, Brian Powers, Christine Vogeli y Sendhil Mullainathan trató de entender cómo un algoritmo sanitario podía favorecer o desfavorecer a una persona en función de su origen étnico. Tras varios meses de investigación, pudieron comprobar que la inteligencia artificial subestimaba sistemáticamente las necesidades de los pacientes negros.
Google tiene previsto duplicar el tamaño de este equipo. La empresa quiere reforzar este grupo, cuya credibilidad se ha visto cuestionada por las controversias sobre la investigación. La directora de ingeniería, Marian Croak, dijo que las nuevas contrataciones darán a Google un equipo de 200 investigadores para trabajar en el desarrollo de la inteligencia artificial. Esto empieza a ponerse interesante. Sundar Pichai se ha comprometido a hacer todo lo posible para reducir el riesgo de discriminación de la inteligencia artificial. Europa también quiere un marco legal y ético para la IA.
¿Una operación de imagen para Google?
Marian Croak explicó: «Tenemos que ser responsables en la forma en que desarrollamos y desplegamos las tecnologías de inteligencia artificial. Esto es fundamental para nuestros clientes, pero también para el bien de la empresa. Perjudica gravemente a la marca si las cosas no se hacen de forma ética». Se refiere a un hecho reciente: documentos internos revelados por la codirectora de la división, Margaret Mitchell. Compartió estos documentos secretos con personas ajenas a la empresa.
Los documentos en cuestión acabaron en manos de varios grupos de IA, como Black in AI y Queer in AI, dos grupos que pretenden crear un marco ético y antidiscriminatorio para la IA. El 10 de mayo publicaron una declaración conjunta en la que critican a Google. Las dos asociaciones acusan al gigante estadounidense de haber: «creado un peligroso precedente en cuanto al tipo de formación y funcionamiento de la inteligencia artificial». Creen que la inteligencia artificial de Google podría ser peligrosa para las comunidades minoritarias.