A quanto pare gli assistenti vocali come Alexa di Amazon, Siri di Apple e Google Assistant sono facilissimi da hackerare. Per farlo basta puntare un laser sui loro microfoni, stando a un team di ricercatori dell'University of Electro-Communications di Tokyo e dell'University of Michigan.
L'hack si chiama Light Commands e consente agli aggressori di dare comandi invisibili a distanza agli assistenti vocali. Puntando e modulando un laser sui microfoni MEMS (Microelectro-Mechanical Systems) i ricercatori hanno scoperto di poter dare comandi agli assistenti vocali usando la luce come se fosse suono.
Gli autori dello studio hanno verificato di poter prendere il controllo di assistenti vocali posizionati a 110m di distanza dal laser, ma non si esclude che si possa fare anche da una distanza maggiore. In questo modo hanno dimostrato che in questi apparecchi l'autenticazione degli utenti è inesistente: chiunque può dargli ordini. Immaginate di aver collegato i sistemi di sicurezza della vostra abitazione a un assistente smart e capirete quale sia il pericolo di questa mancanza di controllo.
La ricerca è stata condivisa con le compagnie Amazon, Apple, Google, Tesla e Ford e con gli enti ICS-CERT e FDA, con cui è stata concordata la pubblicazione per il 4 novembre 2019.