Sztuczna inteligencja (AI) jest potężnym narzędziem.
12.06.2024
Pomaga nam w wielu dziedzinach życia m.in.:
m.in.:
* Medycyna – np. potrafi analizować obrazy zdjęć rentgenowskich, tomografii komputerowej, czy nawet potrafi pomóc precyzyjnie przeprowadzić operację oka (LINK);
* Finanse – ocena analizy kredytowej, analiza rynków finansowych, wykrywanie nietypowych wzorców w transakcjach;
* Edukacja – spersonalizowane nauczani i dostosowanie do postępów w nauce, automatyzacja procesów administracyjnych;
* Przemysł – automatyzacja procesów produkcyjnych wraz z analizą danych z maszyn, planowanie łańcuchów dostaw;
* Transport – przewidywanie wzorców ruchu i opóźnień w czasie rzeczywistym, co umożliwia optymalizację rozkładów jazdy, autonomiczne pojazdy (LINK, Rewolucja w polskim transporcie publicznym LINK);
* Handel i marketing – algorytmy analizują zachowania konsumentów, aby dostarczać spersonalizowane rekomendacje produktów i usług, przewidują zachowania konsmentów automatyzując kampanie marketingowe;
* Bezpieczeństwo – monitorowanie kamer i analiza w czasie rzeczywistym wykrywając podejrzane zachowania, umożliwiając wyszukiwanie ludzi i konkretnych cechach (LINK), pomaga również w wykrywaniu ataków hakerskich poprzez analizę wzorców w ruchu sieciowym i danych logowania.
Niestety AI jak każda technologia może zostać wykorzystana przeciwko nam.
Do napisania tego artykułu skłoniły mnie poranne wiadomości radiowe, o wykorzystaniu techniki Deepfake głosowego i wyłudzenia kodu BLIK. Do jednego słuchaczy zadzwonił „syn”, a właściwie oszust który skorzystał z wygenerowanego głosu jego syna z prośbą o wygenerowanie kodu BLIK.
Zastanowiło mnie ile osób dałoby się na coś takiego nabrać – np. kiedy dzwoni do nas nasze dziecko z prośbą o pilne potwierdzenie zakupu?
Aplikacje do generowania głosu z próbki głosowej są nie tylko dostępne w tzw. Darkweb`ie. Wystarczy wpisać frazę w wyszukiwarce i otrzymujemy listę aplikacji. Np. opis jednej z nich: „***** to kolejne narzędzie, które działa w oparciu o interfejs w przeglądarce. Oprogramowanie umożliwia klonowanie głosu w 15 językach, wymagając co najmniej 25 próbek głosu dla uzyskania optymalnych wyników. ***** oferuje zarówno szybkie klonowanie głosu, które generuje kopię w ciągu zaledwie minuty przy użyciu krótkiej próbki głosu, jak i profesjonalną usługę klonowania głosu, która zapewnia wyższą jakość wyników. Naturalnie z większą liczbą opcji dostosowywania. ***** zapewnia również interfejs API dla programistów, pozwalając zintegrować możliwości klonowania głosu z niezależnymi aplikacjami.”
Zapewne teraz powstaje pytanie – skąd oni (cyberprzestępcy) mogą mieć moją próbkę głosu? Odpowiedź jest banalna – czy nie mieliście głuchych telefonów – w których głównym rozmówcą byliście Wy sami? Nasze filmiki wrzucane na portale społecznościowe w których sami udostępniamy nasz materiał „źródłowy” w postaci głosu – również mogą się do tego przyczynić.
AI może sklonować nasz głos korzystając z zaledwie 3 sekundowej próbki głosu. Klonuje nie tylko barwę głosu, ale również styl mówienia, potrafi odtworzyć emocje…
Kolejne pytanie – ale jak się obronić przed takim?
Edukacja w zakresie cyberzagrożeń, świadomość, zachowanie czujności (nie dajmy się zmanipulować emocjonalnie), weryfikacja rozmówcy (dzwoni z innego telefonu – skontaktujmy się z właściwym numerem, zadajmy pytanie osobiste – na które odpowiedź zna tylko nasz rozmówca), uwierzytelnianie dwuskładnikowe.
A tutaj parę ciekawych artykułów znalezionych w sieci:
„Dzisiaj na moje konto na Facebooku włamano się i rozsyłano wiadomości głosowe moim tonem głosu (technologia AI na to pozwala). Oszust prosił o podanie kodu blik, pisał w moim imieniu, żartował, używał emotek itp. Zgłosiłam sprawę na policję, gdzie mnie poinformowano, że spotykają się pierwszy raz z głosówką. Uważajcie na siebie i poinformujcie rodzinę i znajomych!!! To, że słyszą wasz głos, to nie znaczy, że to Wy!”
https://natemat.pl/546320,oszustwo-na-blika-zlodzieje-podrobili-glos-z-ai
„Kobieta dostała telefon od „córki”. Głos był łudząco podobny. „Córka” powiedziała, że doprowadziła do wypadku z udziałem ciężarnej na pasach i potrzebuje 200 tys. zł na kaucję.”
(…)Admin, który na co dzień wrzuca posty związane z grami, zrobił wyjątek, by ostrzec innych.
„Właśnie moja żona oraz jej siostra miały próbę oszustwa na Blika, oczywiście proceder znany, ale moja żona dostała wiadomość głosową, w której było słychać bardzo podobny głos jej siostry! Ostatecznie żona nie dała się oszukać, a sprawę zgłosi na policję! Uważajcie na siebie i pilnujcie!” – napisał. (…)
„Siostra” twierdziła, że miała problemy z bankiem, ale musiała dokonać opłaty. By się uwiarygodnić, wysłała dwie 3-sekundowe głosówki.
https://topnewsy.pl/3680,oszustwo-na-blika-weszlo-na-wyzszy-poziom-podszywaja-sie-w-glosowkach
Artur Wróblewski
Inżynier Systemowy w Advatech, oddział Poznań. Związany z branżą IT od ponad 20 lat. Jego codzienną pracą jest wsparcie klientów.
Wcześniejsze doświadczenie jako Administrator Systemów Informatycznych oraz Administrator Informacji Niejawnych wymagało od niego dużego nacisku na cyberbezpieczeństwo. To z kolei przerodziło się w jego pasję i chęć zdobywania wiedzy w tym zakresie.
