Skip to content Skip to footer

Jak ukryć swoje emocje przed asystentami głosowymi? Ciekawe rozwiązanie brytyjskich naukowców

Czy tego chcemy, czy nie, korzystając z asystentów głosowych, przekazujemy swoje nagrania korporacjom oraz ich podwykonawcom, którzy następnie zajmują się nie tylko ich transkrypcją, ale i dogłębną analizą za pomocą sztucznej inteligencji. Czy podejrzewaliście kiedykolwiek, że z waszego głosu mogą już nawet wyczytać emocje, i dzięki temu “karmić” was bardziej dopasowanymi reklamami?

Raj Eiamworakul / Unsplash

Asystenci głosowi kopalnią danych o użytkownikach

Zawartość danych głosowych użytkowników głosowych asystentów jest wystarczająco bogata, aby systemy AI mogły tworzyć dokładne ich profile i przewidywania w oparciu o poziom pewności siebie i stresu, kondycję fizyczną, wiek, płeć, a nawet osobowość. Niektóre systemy rekomendacji online na podstawie tych wszystkich danych dają korzystającym z asystentów sugestie dotyczące konkretnych produktów czy restauracji. Co bardziej przerażające, mogą to robić nawet w oparciu o… emocje, które odczytują z tonu głosu użytkowników.

Sebastian Scholz Nuki / Unsplash

Rozwiązanie naukowców z Londynu

Wraz z rosnącym zainteresowaniem asystentami głosowymi, proporcjonalnie rosną, uzasadnione zresztą, obawy o wykorzystywanie nagrań przez dostawców do naruszania prywatności użytkowników. Czy w obecnych czasach da się zachować prywatność i jednocześnie w pełni korzystać z wygody, jaką asystenci niewątpliwie zapewniają? Odpowiedzi na to pytanie postanowił poszukać zespół badaczy z Imperial College London i zaproponował swoje rozwiązanie tego problemu. Opublikowana przez nich w artykule Emotionless: Privacy-Preserving Speech Analysis for Voice Assistants metoda ma służyć jako “osłona” emocjonalnej części danych głosowych, uniemożliwiająca dostawcom usług monitorowanie emocji użytkowników na podstawie ich mowy. W skrócie – ma ona za zadanie “oczyścić” nagrania z emocji, zanim zostaną one przetworzone przez należący do dostawcy asystenta system AI. I tym samym zapewnić użytkownikom pewną dozę prywatności.

Wyniki przeprowadzonych testów rozwiązania są obiecujące. Pliki głosowe przetwarzane tą metodą wykazały aż 96-procentowy spadek dokładności rozpoznawania emocji. Choć jednocześnie dokładność rozpoznawania mowy w oparciu o średni wskaźnik błędu słów spadła odpowiednio o 35 procent, to, jak twierdzą naukowcy, wyniki testów mogą poprawić się, jeśli ich czas zostanie wydłużony. Inicjatywa badaczy z Imperial College London może zapoczątkować poszukiwanie skutecznych rozwiązań dotyczących zachowania prywatności w komunikacji człowiek – maszyna, dlatego mocno trzymamy kciuki za to przedsięwzięcie.

DB

Źródło: syncedreview.com