Biały Dom ogłasza framework chroniący pracowników przed AI
Biały Dom opublikował dobrowolne ramy ochronne dla pracowników przed ryzykiem AI, które przyjęły Microsoft i Indeed
Czytaj dalej →Biały Dom opublikował dobrowolne ramy ochronne dla pracowników przed ryzykiem AI, które przyjęły Microsoft i Indeed
Czytaj dalej →Pytań jest dużo tak więc zabieram się do roboty aby Wam na wszystkie odpowiedzieć.
Deepfake to zmanipulowana treść wizualna generowana przez wyrafinowane modele sztucznej inteligencji. Powstałe obrazy, dźwięki i filmy wyglądają tak, jakby były prawdziwe. Twórcy Deepfakes wykorzystują głębokie uczenie się do generowania takich filmów i obrazów. Dzięki deepfake możesz tworzyć postacie, które nie istnieją i dołączać do nich fałszywe dźwięki. Z drugiej strony możesz zastąpić twarz wykonawcy w filmie twarzą innej osoby, zachowując oryginalny dźwięk. Twórcy mogą także manipulować głosem, aby sprawiał wrażenie, jakby słowa, które słyszysz, wypowiadała znana osoba.
Na pierwszy rzut oka, większość z nas przy słowie „deepfake” ma na myśli podszywanie się pod kogoś, oszustwo, lub manipulację cudzym wizerunkiem – dezinformację w najprostszym ujęciu. Oczywiście, ta konotacja jest słuszna, zważywszy na ilość przykładów deepfake’ów, która powala! Wystarczy spojrzeć na to nagranie z Markiem Zuckerbergiem: https://www.youtube.com/watch?v=443QVUAL-jA&ab_channel=BloombergTechnology. Deepfake’i, oprócz niewinnych żartów, mogą jednak być używane w dużo poważniejszych kontekstach. W czasie wojny wykorzystuje się je do sfałszowania nagranych przemówień przywódców, do szerzenia dezinformacji i propagandy, manipulacji opinią publiczną oraz ataków na infrastrukturę komunikacyjną. Oczywiście, powstały też narzędzia do wykrywania „prawdziwości” takich nagrań, ale o nich wspomnimy później.Pomimo negatywnego wykorzystania, istnieją również pozytywne aspekty związane z użyciem deepfake’ów. Znajdują one zastosowanie w produkcjach filmowych, umożliwiającrekonstrukcję scen z udziałem aktorów lub nawet w edukacji, pomagając zrozumieć, w jaki sposób technologia może manipulować treściami wideo i audio.
Tworzenie deepfake’ów stało się obecnie zadziwiająco proste! Nie musisz być ekspertem w dziedzinie efektów wizualnych ani być programistą czy inżynierem. W dalszej części artykułu znajdziesz ekskluzywny materiał wideo na naszym kanale YouTube (serdecznie zachęcam do subskrybowania kanału BezpieczeństwoXD), który krok po kroku przeprowadzi Cię przez proces tworzenia przykładowego deepfake’a! Tak, dobrze widzisz – każdy, kto ma choć odrobinę determinacji, może stworzyć taki materiał!
Rozważmy ten temat w 3 aspektach:
Podsumowując, deepfake może być nielegalny, szczególnie jeśli narusza prawa autorskie, ochronę danych osobowych lub stanowi nieuczciwą praktykę rynkową. Ważne jest, aby korzystać z tej technologii odpowiedzialnie i z pełnym zrozumieniem jej potencjalnych skutków.
W końcu dotarliśmy do tej części artykuły w skrócie DYI! Link do nagrania znajdziesz tutaj: [Link_do_nagrania_wrzucony_na_niepubliczny]
Może zastanawiasz się teraz, jak rozpoznać czy wideo jest autentyczne. Wraz z rozwojem AI (Artificial Intelligence) będzie to coraz trudniejsze (oby technologia nas kiedyś nie przegoniła). Na dzień dzisiejszy możemy przeanalizować następujące aspekty znajdujące się na nagraniach:
Poza wyżej wymienionymi aspektami istnieją narzędzia do tego aby rozpoznać czy nagranie jest deepfakiem:
Kolega/koleżanka wysłała Ci link do wideo w którym Michael Jackson ogłasza swoją trasę koncertową i chciałbyś/abyś sprawdzić czy nagranie nie jest deepfakiem? Możesz to zrobić w łatwy i przyjemny sposób! Wrzuć link do nagrania i sprawdź sam czy nagranie jest prawdziwe: https://scanner.deepware.ai/
Przyszłość deepfake’ów wydaje się być niezwykle dynamiczna i obiecująca, ale również potencjalnie niebezpieczna. Poniżej kierunki w jakich może się ta technologia rozwijać:
Pewną wizję tego jak może zostać to wykorzystane znajdziesz tutaj:
https://www.youtube.com/watch?v=SHSmo72oVao&ab_channel=TED
Dzięki wielkie za poświęcenie czasu i przeczytanie do końca! Chcieliśmy przypomnieć, że działamy według określonego harmonogramu:
Jeśli masz ciekawy pomysł na artykuł, który mógłby pomóc nam dotrzeć do większej liczby czytelników, prosimy o przesyłanie propozycji na adres e-mail: bezpieczenstwo@advatech.pl. Najlepsze pomysły nagradzamy właśnie takimi kubkami jak ten!
Dawid Lis, Inżynier ds. Wdrożeń Systemów Cyberbezpieczeństwa w firmie Advatech, to absolwent renomowanego Wydziału Elektroniki Politechniki Wrocławskiej. Jego pasja do cyberbezpieczeństwa rozpoczęła się w 2021 roku, kiedy to rozpoczął swoją profesjonalną karierę w tej dziedzinie.
Jako Inżynier ds. Wdrożeń Systemów Cyberbezpieczeństwa, Dawid kieruje się głównie audytami i testami, które mają na celu sprawdzenie oraz wzmocnienie zabezpieczeń systemów. Jego zaangażowanie w tę dziedzinę nie kończy się na środowisku zawodowym – aktywnie dzieli się swoją wiedzą i doświadczeniem na platformach społecznościowych, zachęcając zarówno osoby techniczne, jak i nietechniczne do podnoszenia świadomości w obszarze cyberbezpieczeństwa.
Dawidowi zależy na tym, aby przekazywać zdobytą wiedzę w sposób przystępny i atrakcyjny, aby zainteresować jak największą liczbę osób. Jego naczelną misją jest edukacja w świecie cyfrowym, który uważa za kluczowy obszar współczesnej rzeczywistości. Poza pracą zawodową, Dawid pasjonuje się rozwiązywaniem CTF-ów (Capture The Flag), widząc w nich zarówno wyzwanie, jak i fascynującą zabawę.