La IA del automovil podria saber si esta teniendo un dia bueno o malo

Nuance Communications ya es bien conocido por sus innovaciones en la industria tecnológica. Ha estado a la vanguardia del software de reconocimiento de voz y también ha logrado importantes avances en la industria automotriz

De hecho, encontrará el software Dragon Drive en más de unos pocos autos en las carreteras. Pero la compañía también trabaja en una pila de otros sectores de negocios, incluyendo salud, telecomunicaciones, servicios financieros e incluso minoristas.

Ahora, sin embargo, la compañía está trabajando con Affectiva, un spin-off del MIT Media Lab y un proveedor líder de software de IA que detecta emociones humanas complejas y matizadas y estados cognitivos de cara y voz.

Su tecnología patentada Emotion AI utiliza el aprendizaje automático, el aprendizaje profundo, la visión artificial y la ciencia del habla para hacer realidad su magia. Hasta el momento, Affectiva ha construido el depósito de datos de emociones más grande del mundo con más de 7 millones de caras analizadas en 87 países.

Hasta ahora, la tecnología se ha utilizado para probar el compromiso del consumidor con campañas publicitarias, videos y programación de TV. Sin embargo, ahora, Affectiva está trabajando con los principales fabricantes de equipos originales, nivel 1 y proveedores de tecnología en la próxima generación de monitoreo de estado de controladores multimodal y detección de estado de ánimo en cabina para la industria automotriz.

Asociarse con Nuance parece ser un próximo paso obvio, considerando que los fabricantes de automóviles comparten una visión muy similar para un futuro más inteligente y seguro.

Como resultado, la asociación espera fusionar el poder del paquete intuitivo Dragon Drive de Nuance y las innovaciones de Affectiva para producir un asistente automotriz mejorado. Si todo va para el plan, el resultado final será capaz de comprender los estados cognitivos y emocionales de los conductores y pasajeros.

Es una idea genial que permite a la inteligencia artificial medir expresiones faciales y emociones como alegría, enojo y sorpresa, así como expresiones vocales de enojo, compromiso y risa, en tiempo real y también proporciona indicadores clave de somnolencia, como bostezos. y las tasas de parpadeo.

Affectiva dice que fue la demanda de la industria automotriz lo que llevó a la compañía a comenzar a desarrollar sistemas que podrían ayudar a mejorar la seguridad del automóvil. Ciertamente, hay muchos requisitos de componentes que se incluyen en un sistema tan inteligente, con todo, desde la detección de somnolencia hasta la capacidad de saber si un conductor está distraído. No hace falta decir que desarrollar un sistema que funcione en todo el espectro de tipos de controladores implica acumular una gran cantidad de datos.

Distracción y somnolencia.

Para hacer rodar la pelota, Affectiva inicialmente realizó sus propias pruebas, utilizando una amplia variedad de etnias y rangos de edad. Los datos se recogieron en dos fases diferentes. Durante la primera fase, los datos se recopilaron internamente de los miembros del equipo a los que se les pidió conducir un automóvil con una cámara que capturara diferentes escenarios con expresiones "posadas". Esto incluía un conjunto de seis expresiones bastante típicas, como mirar por encima del hombro y revisar un teléfono. La segunda técnica de recolección fue más libre, para capturar un comportamiento más aleatorio.

Sin embargo, como puede imaginar, hay muchas, muchas variables diferentes involucradas en el monitoreo del comportamiento del conductor. Affectiva señala que las condiciones de iluminación interior pueden cambiar, con el tipo de ventana y la forma en que la luz ingresa al vehículo, creando innumerables variaciones. Los cambios de postura del conductor también han presentado un desafío porque los conductores no siempre están sentados en sus asientos.

Además de eso, Affectiva también tenía que tener en cuenta a las personas que usan sombreros de todo tipo, gafas de sol y también cómo resolver el problema de los ocupantes que se tocan la cara mientras conducen. En resumen, el tema de la recopilación de datos ha sido una montaña para escalar.

Curiosamente, el proceso de recopilación de datos también ha revelado cuán diferentes pueden ser las personas, y Affectiva ha notado que algunos individuos eran muy expresivos al volante. Otros demostraron ser bastante neutrales mientras avanzaban de A a B. Sin embargo, un problema era común: todos se distraían de vez en cuando. Según los datos de un sitio web del gobierno de los EE. UU. , Cada día más de 1,000 lesiones y nueve muertes son causadas por la distracción del conductor en Estados Unidos. Por lo tanto, la necesidad de desarrollar sistemas más inteligentes con la ayuda de la inteligencia artificial y el aprendizaje automático no puede llegar lo suficientemente pronto.

Asistentes de nueva generación

Nuance dice que su Dragon Drive ahora tiene más de 200 millones de autos en la carretera en más de 40 idiomas. La compañía también ha adaptado experiencias totalmente personalizadas para Audi, BMW, Daimler, Fiat, Ford, GM, Hyundai, SAIC, Toyota. Desarrollado por la inteligencia artificial conversacional, Dragon Drive permite que el asistente en el automóvil interactúe con los pasajeros en función de las modalidades verbales y no verbales, incluidos el gesto, el tacto, la detección de la mirada y el reconocimiento de voz gracias a la comprensión del lenguaje natural (NLU). Y, al trabajar con Affectiva, pronto también ofrecerá detección de emociones y estado cognitivo.

"A medida que nuestros socios OEM buscan construir la próxima generación de asistentes automotrices para el futuro de los autos conectados y autónomos, la integración de modos de interacción adicionales será esencial no solo para la efectividad y la eficiencia, sino también para la seguridad", dijo Stefan Ortmanns, vicepresidente ejecutivo. Presidente y gerente general de Nuance Automotive. "Aprovechar la tecnología de Affectiva para reconocer y analizar el estado emocional del conductor humanizará aún más la experiencia del asistente automotriz, transformando el HMI en el automóvil y forjando una conexión más fuerte entre el conductor y la marca OEM".

"Estamos viendo un cambio significativo en la forma en que las personas de hoy quieren interactuar con la tecnología, ya sea un asistente virtual en sus hogares o un asistente en sus autos", dijo la Dra. Rana el Kaliouby, CEO y cofundadora de Afectiva

Semrush sigue a tu competencia


Fecha actualización el 2018-10-05. Fecha publicación el 2018-10-05. Categoria: ia Autor: Oscar olg Mapa del sitio Fuente: techradar
ia