Schadelijke Siri-spraakopdrachten kunnen zich verbergen in gewone muziek
Foto: Appel
Stel dat je naar wat muziek luistert, kijk dan over je heen en realiseer je dat je iPhone helemaal zelf een pornosite heeft geladen. Dat is het nachtmerriescenario dat volgens onderzoekers mogelijk is nadat ze hadden bewezen dat spraakopdrachten in liedjes kunnen worden verborgen.
Het is ook mogelijk om Siri opdrachten te laten herkennen die worden gegeven op frequenties buiten het bereik van het menselijk gehoor.
Onderzoekers van Berkeley hebben zojuist een paper gepubliceerd waarin staat dat ze met succes spraakopdrachten in muziek hebben verborgen. Bewijs van hun CommanderSong-concept online te vinden. Dit omvat verschillende "voor en na" audiovoorbeelden voor nieuwsgierigen om naar te luisteren.
Dit is een vervolg op een project om commando's in ogenschijnlijk onschuldige gesproken tekst in te bedden. Een van de onderzoekers, Nicholas Carlini, plaatste verschillende voorbeelden
op zijn website. Hij nam ook audiovoorbeelden op.Verborgen spraakopdrachten
En de opdrachten aan Siri hoeven voor jou niet eens hoorbaar te zijn. Onderzoekers van Princeton en China's Zhejiang University creëerden "DolphinAttack", waarmee ze een iPhone bestelden om alles te doen waar Siri toe in staat is, van bellen tot foto's maken.
De groep demonstreerde DolphinAttack in deze video:
Hoewel er geen meldingen zijn van een van deze exploits met spraakopdrachten in de echte wereld, vertelde Carlini aan: The New York Times "Mijn veronderstelling is dat de kwaadwillenden al mensen in dienst hebben om te doen wat ik doe."
Maar nu Apple, Amazon en Google weten dat dit mogelijk is, kunnen ze in ieder geval actie ondernemen om het te voorkomen.