Investigadores encontraron 1000 palabras que accidentalmente disparan altavoces inteligentes

Investigadores encontraron 1000 palabras que accidentalmente disparan altavoces inteligentes

Aunque los altavoces inteligentes como Amazon Alexa , Google Home y Apple HomePod pueden facilitar nuestra vida diaria, también hay algunos problemas de privacidad que vienen con ellos

Por ejemplo, a medida que los hablantes inteligentes usan palabras de activación específicas para activarse, algunas veces pueden activarse accidentalmente si escuchan algo similar a las palabras de activación. Entonces, ahora los investigadores han encontrado mil palabras que pueden "accidentalmente" activar un altavoz inteligente.

Un equipo de investigadores de la Ruhr-Universität Bochum de Alemania y el Instituto Max Planck de Seguridad Cibernética y Privacidad realizaron recientemente un experimento. A través de este experimento, han encontrado casi 1000 palabras que pueden activar accidentalmente un altavoz inteligente para escuchar a sus humanos.

Los investigadores tomaron dispositivos con asistentes inteligentes como Alexa, Siri y Google Assistant y otros tres asistentes de voz que son exclusivos de los mercados chinos. Luego encendieron los altavoces y los pusieron en una habitación uno por uno. Ahora, en la sala, había una televisión en la que se reproducían episodios de series de televisión populares como Game of Thrones , House of Cards y Modern Family.

Entonces, mientras los episodios se reproducían en la televisión, los investigadores esperaron a que se activaran los asistentes virtuales. Ahora, para observar cuándo se activan los dispositivos, los investigadores utilizaron una luz LED que se encendía cada vez que se activaba el dispositivo.

Una vez que se activa el asistente en un dispositivo, utiliza un software de análisis de voz local para detectar si las palabras se pronunciaron realmente para activarlo. Ahora, si el dispositivo llega a la conclusión de que las palabras fueron realmente para activar al asistente, envía una grabación del clip a los servidores en la nube de la compañía para su posterior análisis .

Bueno desde la perspectiva de la ingeniería, malo para la privacidad

Ahora, según los investigadores, los desarrolladores de estos altavoces inteligentes han programado intencionalmente numerosas palabras que pueden activar el asistente de voz integrado . Estas palabras pueden no ser las palabras de activación reales, pero pueden activar al asistente de inmediato.

Según Dorothea Kolossa, una de las investigadoras del equipo, "los dispositivos están programados intencionalmente de una manera un tanto indulgente, porque se supone que pueden entender a sus humanos".

De acuerdo con otro investigador que también es profesor de Ruhr-Universität Bochum, Thorsten Holz, “ F rom un punto privacidad de vista, esto es, por supuesto alarmante, porque a veces conversaciones muy privadas pueden acabar con los extraños. Sin embargo, desde el punto de vista de la ingeniería, este enfoque es bastante comprensible, porque los sistemas solo pueden mejorarse utilizando dichos datos. Los fabricantes tienen que encontrar un equilibrio entre la protección de datos y la optimización técnica ".

Si esta pagina te ha sido util, compartela en las redes sociales, gracias

Compartir en Facebook Compartir en twitter

Fecha actualización el 2021-07-13. Fecha publicación el 2020-07-13. Categoría: iphone Autor: Oscar olg Mapa del sitio Fuente: beebom Version movil