Inteligencia artificial podría replicar prejuicios humanos
La inteligencia artificial está llamada a ser la próxima gran revolución tecnológica, pero existe el riesgo de que replique prejuicios y sesgos humanos, advirtieron hoy expertos en la materia en la conferencia Dreamforce 18 en San Francisco (Estados Unidos).
'Se trata de una tecnología que puede hacer mucho bien, pero tambien tiene potencial para dañar a los individuos', explicó la arquitecta de prácticas eticas de inteligencia artificial del gigante de computación en nube Salesforce, Kathy Baxter, en un debate en este evento.
Aunque la premisa fundamental de la inteligencia artificial es que las máquinas piensan y toman decisiones por sí mismas, son los humanos quienes deben enseñarles a llevar a cabo estos procesos, por lo que cualquier sesgo presente en el mundo real es fácilmente repetido.
Según Baxter, la clave son los datos -de los que se nutren las máquinas en su proceso de aprendizaje-, ya que si estos presentan sesgos o patrones discriminatorios, las decisiones que termine tomando la máquina harán lo mismo o incluso los ampliarán.
'Pongamos por caso un programa de inteligencia artificial que decide mediante un análisis de riesgo si se otorgan prestamos o no a potenciales clientes de un banco', usó como ejemplo la responsable de Salesforce.
'Si históricamente las mujeres o minorías etnicas han experimentado una tasa inferior con respecto a la concesión de prestamos por parte del banco, eso será lo que aprenda la máquina y lo reproducirá', apuntó.
Podría pensarse que si el programador elimina variables como la raza o el genero en el algoritmo de toma de decisiones de la máquina el problema se solucionaría, pero Baxter aseguró que ese no es el caso.
'Podemos eliminar variables directas, pero siempre quedarán las indirectas -indicó-. Por ejemplo, en EE.UU. el nivel de ingresos y la raza están estrechamente relacionados. La inteligencia artificial hallará patrones con respecto a esta variable, y ello perjudicará a las minorías'.
De acuerdo con la experta, no se puede esperar que la tecnología elimine 'de forma mágica' los prejuicios existentes en las sociedades, por lo que la única solución real pasa por ser extremadamente cuidadosos con los datos de los que se nutre la inteligencia artificial.
En el presente, ya se han encontrado casos de potencial discriminación por parte de la inteligencia artificial, incluso en algo tan aparentemente inocuo como los asistentes de voz.
Así lo subrayó el jefe científico del departamento de investigación de Salesforce, Richard Socher: 'Las investigaciones actuales demuestran que, por ejemplo, los sistemas de reconocimiento de voz tienen una tasa de error ligeramente superior para las mujeres', señaló.
Socher coincidió con Baxter en la 'importancia crucial' de 'enseñar' a las máquinas con datos libres de sesgo, ya que, destacó el experto, la inteligencia artificial tendrá un impacto incluso mayor que internet en la vida de las personas.
Otro campo de potencial discriminación, dijo Socher, es la lengua, dado que es habitual que productos de inteligencia artificial con 'notables beneficios para el día a día de las personas', salgan al mercado en un número muy limitado de idiomas.
'Eso tambien es discriminación porque a la larga impide el desarrollo de los grupos que hablan lenguas minoritarias en las mismas condiciones que los hablantes de lenguas mayoritarias', remarcó.
Coincidiendo con la celebración de su conferencia anual Dreamforce, Salesforce presentó su propio asistente de voz basado en inteligencia artificial, Einstein Voice.
Einstein Voice responde a órdenes habladas al estilo de Siri (Apple) o Alexa (Amazon), pero está diseñado especialmente para el mundo empresarial, por lo que es capaz de transcribir información oral y, por ejemplo, ahorrar tiempo a las compañías en la actualización de bases de datos.
Más de 160,000 personas asisten esta semana a la conferencia Dreamforce 18 que Salesforce celebra en San Francisco (California).