Złośliwe polecenia głosowe Siri mogą ukryć się w zwykłej muzyce
Załóżmy, że słuchasz muzyki, a następnie rzucasz okiem na to, że Twój iPhone sam załadował witrynę pornograficzną. Badacze twierdzą, że taki koszmarny scenariusz jest możliwy po tym, jak udowodnili, że polecenia głosowe mogą być ukryte w piosenkach.
Możliwe jest również, aby Siri rozpoznawała polecenia wydawane na częstotliwościach poza zasięgiem ludzkiego słuchu.
Naukowcy z Berkeley właśnie opublikowali artykuł, w którym stwierdzono, że z powodzeniem ukryli polecenia głosowe w muzyce. Dowód ich Koncepcja CommanderSong można znaleźć w Internecie. Obejmuje to kilka przykładów audio „przed i po” dla ciekawskich do posłuchania.
Jest to kontynuacja projektu osadzania poleceń w pozornie niewinnym tekście mówionym. Jeden z badaczy, Nicholas Carlini, zamieścił kilka przykładów na jego stronie internetowej. Dołączył również przykłady audio.
Ukryte polecenia głosowe
A polecenia Siri nie muszą być nawet dla ciebie słyszalne. Naukowcy z Princeton i chińskiego uniwersytetu Zhejiang stworzyli „DolphinAttack”, którego używali do zamawiania iPhone'a, aby robił wszystko, do czego jest zdolna Siri, od wykonywania połączeń telefonicznych po robienie zdjęć.
Grupa zademonstrowała DolphinAttack w tym filmie:
Chociaż nie było żadnych doniesień o żadnym z tych nadużyć poleceń głosowych, które miały miejsce w prawdziwym świecie, powiedział Carlini New York Times „Zakładam, że złośliwi ludzie już zatrudniają ludzi do tego, co robię”.
Ale przynajmniej teraz, gdy Apple, Amazon i Google wiedzą, że jest to możliwe, mogą podjąć działania, aby temu zapobiec.