Hackear el m車vil a trav谷s del asistente virtual, una realidad aterradora
Es posible enviar una orden sonora que el usuario no puede escuchar pero s赤 el asistente del m車vil.
Surgido el pasado fin de semana, el c赤rculo negro de WhatsApp consiste en un mensaje en apariencia inocente y corto que puede bloquear un m車vil. ?C車mo funciona? Porque dentro de un simple emoji que representa un c赤rculo negro se esconden miles y miles de caracteres que la aplicaci車n no puede cargar, colapsando por tanto el sistema operativo del tel谷fono. Es un caso de c車mo camuflar algo en el universo digital, de la misma forma que estas 15 aplicaciones de Android que deb谷is borrar esconden adware, malware y links fraudulentos invisibles al usuario.
Dolphin Attack
Se le llama &Dolphin Attack* o Ataque del Delf赤n, debido a que los delfines pueden o赤r frecuencias sonoras que el o赤do humano es incapaz de detectar. Y b芍sicamente su funcionamiento es el mismo que hay detr芍s del c赤rculo negro de WhatsApp o las apps cargadas de malware: ocultar algo a los ojos (o赤dos m芍s bien) del usuario pero que no pasa desapercibido para el dispositivo. Imagina que est芍s viendo una serie en el port芍til o escuchando m迆sica, tranquilo/a y ajeno/a al hecho de que en ese momento te est芍n hackeando el m車vil, el ordenador, el altavoz Inteligente que usas ?C車mo? A trav谷s de un comando de pirateo camuflado en el audio de lo que est芍s viendo u oyendo. Un ataque hacker por ondas sonoras dirigido directamente al asistente virtual del dispositivo.
?Suena a cap赤tulo de Black Mirror? M芍s bien de Yo, Robot o Homeland, porque la verdad es que se trata de una t谷cnica que hace dos a?os que los investigadores probaron que era factible y posible, lanzando 車rdenes sencillas como hacer llamadas de tel谷fono o abrir p芍ginas webs camufl芍ndolas en pistas de sonido de alta frecuencia como canciones y otras grabaciones, por ejemplo los di芍logos de una serie, que son inaudibles para el o赤do humano pero s赤 captados por los asistentes virtuales. Pero lo que hace 2 a?os era m芍s teor赤a que pr芍ctica, en este 2018 se ha vuelto una escalofriante verdad, como este art赤culo del prestigioso The New York Times revela.
Hackear el m車vil a trav谷s del asistente de voz
Hoy d赤a, los asistentes virtuales han cobrado mucho auge, desde el Siri de Apple al Alexa de Amazon pasando por el Google Assistant -y tantos otros como el Bixby de Samsung. Se trata de ayudantes digitales cada vez m芍s capaces gracias a los avances en Inteligencia Artificial, pero a la postre pueden convertirse en la herramienta perfecta para que un experto en pirater赤a inform芍tica tenga acceso a distintos dispositivos de la forma m芍s simple posible, sin tener que usar complicados programas de hackeo. Porque la clave est芍 en ocultar las 車rdenes en las pistas de audio.
Los investigadores consultados por el NYT han conseguido esconder comandos dentro de grabaciones musicales y de voces. Comandos que nosotros no escuchamos, pero s赤 el asistente. Por ejemplo, un clip de m迆sica que s車lo dura 4 segundos logr車 que Google Assistant abriese una p芍gina web, ya que a simple vista s車lo era m迆sica, pero el software de reconocimiento de voz logr車 escuchar la frase &Okay Google browse to evil dot com*: la orden inicial para activar el asistente, y la orden secundaria para que abriera la web Evil.com. Estos investigadores obtuvieron el mismo 谷xito ocultando este comando dentro de la frase &Without the dataset the article is useless*
La 迆nica pista ahora mismo para detectar que existen 車rdenes sonoras dentro de una pista de audio es una ※ligera distorsi車n§, pero realmente complicada de captar si uno no sabe qu谷 debe o赤r. En esta web ten谷is los dos ejemplos comentados: El primero es de la frase dicha arriba: el primer reproductor, en el que se aprecia la distorsi車n, tiene la frase con la orden escondida; el segundo tiene la frase grabada normal. A continuaci車n un ejemplo con una pista musical, el requiem de Verdi en formato normal primero y con la orden escondida en segundo -dadle a Reveal Transcription para verlo m芍s claro.
Qu谷 escenarios plantea esto
Teniendo en cuenta la cantidad de hackeos que sufre el mundo a diario, en el panorama actual de Internet y las Criptomonedas en el que los datos valen m芍s que el oro, alguien con acceso a esta tecnolog赤a puede llegar a piratear un hogar entero si este est芍 conectado con diferentes aparatos equipados con asistentes digitales. El caso m芍s suave es que alguien quiera gastar una broma pesada, como el c赤rculo negro de WhatsApp. El m芍s extremo ser赤a que por escuchar una canci車n o ver algo en YouTube nos hackeasen la cuenta corriente o incluso controlasen partes de un hogar inteligente como el cierre de las puertas, el termostato, etc.
Citadas en el art赤culo, Apple, Google y Amazon le dijeron al NY Times que la tecnolog赤a que usan para sus asistentes dispone de ※funciones de seguridad implementadas§ para evitar esto, pero ninguna de ellas entr車 espec赤ficamente en detalles. De hecho los altavoces como el HomePod de Apple, el Echo de Amazon o Google Home tienen un bot車n de silenciar para que sea el propio aparato el que no oiga la frase habitual con la que se activa, limitando el acceso de un hacker que quiera usarlo a distancia. Pero a迆n as赤, la realidad inquietante del Dolphin Attack es palpable, ya que si un elemento va a seguir desarroll芍ndose y creciendo en importancia en los m車viles y otros aparatos actuales, esos son los asistentes virtuales.