Czy tego chcemy, czy nie, korzystając z asystentów głosowych, przekazujemy swoje nagrania korporacjom oraz ich podwykonawcom, którzy następnie zajmują się nie tylko ich transkrypcją, ale i dogłębną analizą za pomocą sztucznej inteligencji. Czy podejrzewaliście kiedykolwiek, że z waszego głosu mogą już nawet wyczytać emocje, i dzięki temu “karmić” was bardziej dopasowanymi reklamami?
Asystenci głosowi kopalnią danych o użytkownikach
Zawartość danych głosowych użytkowników głosowych asystentów jest wystarczająco bogata, aby systemy AI mogły tworzyć dokładne ich profile i przewidywania w oparciu o poziom pewności siebie i stresu, kondycję fizyczną, wiek, płeć, a nawet osobowość. Niektóre systemy rekomendacji online na podstawie tych wszystkich danych dają korzystającym z asystentów sugestie dotyczące konkretnych produktów czy restauracji. Co bardziej przerażające, mogą to robić nawet w oparciu o… emocje, które odczytują z tonu głosu użytkowników.
Rozwiązanie naukowców z Londynu
Wraz z rosnącym zainteresowaniem asystentami głosowymi, proporcjonalnie rosną, uzasadnione zresztą, obawy o wykorzystywanie nagrań przez dostawców do naruszania prywatności użytkowników. Czy w obecnych czasach da się zachować prywatność i jednocześnie w pełni korzystać z wygody, jaką asystenci niewątpliwie zapewniają? Odpowiedzi na to pytanie postanowił poszukać zespół badaczy z Imperial College London i zaproponował swoje rozwiązanie tego problemu. Opublikowana przez nich w artykule Emotionless: Privacy-Preserving Speech Analysis for Voice Assistants metoda ma służyć jako “osłona” emocjonalnej części danych głosowych, uniemożliwiająca dostawcom usług monitorowanie emocji użytkowników na podstawie ich mowy. W skrócie – ma ona za zadanie “oczyścić” nagrania z emocji, zanim zostaną one przetworzone przez należący do dostawcy asystenta system AI. I tym samym zapewnić użytkownikom pewną dozę prywatności.
Wyniki przeprowadzonych testów rozwiązania są obiecujące. Pliki głosowe przetwarzane tą metodą wykazały aż 96-procentowy spadek dokładności rozpoznawania emocji. Choć jednocześnie dokładność rozpoznawania mowy w oparciu o średni wskaźnik błędu słów spadła odpowiednio o 35 procent, to, jak twierdzą naukowcy, wyniki testów mogą poprawić się, jeśli ich czas zostanie wydłużony. Inicjatywa badaczy z Imperial College London może zapoczątkować poszukiwanie skutecznych rozwiązań dotyczących zachowania prywatności w komunikacji człowiek – maszyna, dlatego mocno trzymamy kciuki za to przedsięwzięcie.
DB
Źródło: syncedreview.com