Google crea un programa de IA para mejorar la transparencia y la debatibilidad

Google crea un programa de IA para mejorar la transparencia y la debatibilidad

Google anunció la creación de una nueva plataforma en la nube destinada a obtener información sobre cómo un programa de inteligencia artificial toma decisiones, facilitando la depuración de un programa y mejorando la transparencia

Según lo informado por The Register , la plataforma en la nube se llama IA explicable, y marca un importante intento de Google para invertir en explicabilidad de IA.

Las redes neuronales artificiales se emplean en muchos, quizás la mayoría, de los principales sistemas de IA empleados en el mundo de hoy. Las redes neuronales que ejecutan las principales aplicaciones de IA pueden ser extraordinariamente complejas y grandes, y a medida que crece la complejidad de un sistema, cada vez es más difícil intuir por qué el sistema ha tomado una decisión particular. Como explica Google en su documento técnico, a medida que los sistemas de inteligencia artificial se vuelven más potentes, también se vuelven más complejos y, por lo tanto, más difíciles de depurar. La transparencia también se pierde cuando esto ocurre, lo que significa que los algoritmos sesgados pueden ser difíciles de reconocer y abordar.

El hecho de que el razonamiento que impulsa el comportamiento de sistemas complejos es tan difícil de interpretar a menudo tiene consecuencias drásticas. Además de dificultar la lucha contra el sesgo de IA, puede hacer que sea extraordinariamente difícil distinguir las correlaciones espurias de las correlaciones realmente importantes e interesantes.

Muchas empresas y grupos de investigación están explorando cómo abordar el problema de la "caja negra" de la IA y crear un sistema que explique adecuadamente por qué ciertas IA han tomado ciertas decisiones. La plataforma de IA explicable de Google representa su propia apuesta para enfrentar este desafío. La IA explicable se compone de tres herramientas diferentes. La primera herramienta es un sistema que describe qué características han sido seleccionadas por una IA y también muestra un puntaje de atribución que representa la cantidad de influencia que una característica particular tiene en la predicción final. El informe de Google sobre la herramienta ofrece un ejemplo de predicción de la duración de un paseo en bicicleta en función de variables como la lluvia, la temperatura actual, el día de la semana y la hora de inicio. Después de que la red toma la decisión, se brindan comentarios que muestran qué características tuvieron el mayor impacto en las predicciones.

¿Cómo proporciona esta herramienta estos comentarios en el caso de los datos de imagen? En este caso, la herramienta produce una superposición que resalta las regiones de la imagen que pesaron más en la decisión tomada.

Otra herramienta que se encuentra en el kit de herramientas es la herramienta "Qué pasa si", que muestra las fluctuaciones potenciales en el rendimiento del modelo a medida que se manipulan los atributos individuales. Finalmente, la última herramienta habilitada se puede configurar para dar resultados de muestra a revisores humanos en un horario consistente.

El Dr. Andrew Moore, científico jefe de Google para IA y aprendizaje automático , describió la inspiración para el proyecto. Moore explicó que hace unos cinco años la comunidad académica comenzó a preocuparse por los subproductos dañinos del uso de IA y que Google quería asegurarse de que sus sistemas solo se usaran de manera ética. Moore describió un incidente en el que la compañía estaba tratando de diseñar un programa de visión por computadora para alertar a los trabajadores de la construcción si alguien no usaba un casco, pero se preocuparon de que el monitoreo pudiera llevarse demasiado lejos y llegar a ser deshumanizante. Moore dijo que había una razón similar por la cual Google decidió no lanzar una API de reconocimiento facial general, ya que la compañía quería tener más control sobre cómo se usaba su tecnología y asegurarse de que solo se usara de manera ética.

Moore también destacó por qué era tan importante que la decisión de AI fuera explicable:

“Si tiene un sistema crítico para la seguridad o una cosa socialmente importante que puede tener consecuencias no deseadas si cree que su modelo ha cometido un error, debe poder diagnosticarlo. Queremos explicar cuidadosamente qué explicabilidad puede y no puede hacer. No es una panacea.

Fecha actualización el 2021-12-02. Fecha publicación el 2019-12-02. Categoría: google Autor: Oscar olg Mapa del sitio Fuente: unite Version movil