Zamień ten tekst na URL Webhooka

🤕 Ajajaj… Zagrożenia i walka z AI

3 minuty
🗓
4 marca
Maria
Gabrowska

Sztuczna inteligencja to nasz sojusznik. Wspaniałe narzędzie, które pozwala usprawnić codzienny workflow, niemalże w każdej branży. Taki digitalowy przyjaciel człowieka. Ale jak to w życiu bywa – każdy kij ma dwa końce. I o tym mówimy w tym wpisie. Wskakuj i poznaj zagrożenia, które wiążą się z AI... i dowiedz się, jak z nimi walczyć!

W ciągu pierwszych kilku miesięcy od udostępnienia dla ogółu generative AI (takiej jak np. ChatGPT, MidJourney, czy DALLE), rozpętał się prawdziwy szał. Było o tym tak głośno, że o jej wybitności, użyteczności, cud, miód i orzeszki, słyszał praktycznie każdy.

No bo jak to tak, że komputer potrafi za nas generować teksty, obrazy, muzykę, które dotychczas były produkowane tylko przez ludzi? Co to za czary? Szczęki nam opadły!

Teraz sztuczna inteligencja obejmuje coraz więcej obszarów, w których może usprawnić funkcjonowanie człowieka. Ale każdy kij ma dwa końce, co nie?

Dlatego teraz, nieco świeższym okiem, spoglądamy też na zagrożenia, które niesie ze sobą AI. A, że temat jest jak rzeka, to w tym wpisie poruszymy pierwsze trzy kategorie.

Zdrowe podejście: nie boimy się, ale pozostajemy świadomi. 🙌

🤓 Aha, a więcej o ciemnych stronach technologii (w tym TikToka) dowiesz się z tego odcinka podcastu Design Practice z Sylwią Czubkowską.

🤯 Deepfake

Zacznijmy o deepfake’ów. No bo to bardzo głośny temat.

Grafika: Deepfake, wartość przemysłu, który z nim walczy – 3,86 mld dolarów

👉 Czym jest deepfake?

To technologia wykorzystująca algorytmy sztucznej inteligencji, zwłaszcza generatywne sieci kontradyktoryjne (GAN), do tworzenia realistycznych i często trudnych do wykrycia fałszywych treści audio i wideo. Pozwala na odtworzenie twarzy, mimiki, a nawet także głosu – co umożliwia tworzenie sfabrykowanych materiałów multimedialnych, które do złudzenia potrafią przypominać autentyk.

I takie spreparowane treści audio i wideo, stwarzają poważne ryzyko. Ataki deepfake mają niemały potencjał wywołania szkód na szeroką skalę, i to w różnych sektorach – w tym polityce i biznesie.

To otwarta furtka do szerzenia kampanii dezinformacyjnych i kradzieży tożsamości. No i o ile większość klasycznie generowanych materiałów daje lekki klimat uncanny valley, to jednak ta technologia rozwija się w super szybkim tempie.

ℹ️ Uncanny valley dzieje się wtedy, gdy mamy do czynienia z robotem/wygenerowaną przez AI postacią, która do złudzenia przypomina człowieka. Niemalże doskonale odwzorowana, nie jest jednak wystarczająco ludzka. Kontakt z taką postacią u wielu osób wywołuje silne uczucie dyskomfortu.

W miarę jak algorytmy deepfake stają się coraz bardziej zaawansowane, my, jako ludzie, coraz bardziej powinniśmy rozwijać skuteczne metody ich wykrywania. I przede wszystkim: dbajmy o higienę swojej tożsamości cyfrowej. 🤓

Globalny rynek produktów związanych z wykrywaniem deepfake’ów został wyceniony na 3,86 mld dolarów w 2020r. – według firmy badawczej HSRC. Z prognoz wynika, że do 2026 roku, będzie wzrastał o ok. 42 proc. rocznie.

Start-upy zajmujące się wykrywaniem deepfake'ów:

💀 Hakerzy nowej generacji

A teraz... zmora wielu internautów. Piraci cyfrowych mórz. Rzezimieszki.

Hakerzy nowej generacji w AI – grafika do wpisu na blogu Design Practice.

A ich celem coraz częściej padają… systemy sztucznej inteligencji.

W prezentacji na konferencji ACM w Kopenhadze, specjaliści z koncernu Thales przedstawili innowacyjny sposób naruszenia bezpieczeństwa systemów AI poprzez fizyczne ataki kanału bocznego.

I dzielą się one na dwa etapy. Etap pierwszy, tj. „atak przez obserwację”, polega na analizie fizycznego zachowania systemu. Hakerzy identyfikują tajne parametry, z których korzysta AI do podejmowania decyzji.

Etap drugi to faza „ataku aktywnego”. Polega na manipulacji tymi parametrami, poprzez wprowadzanie kontradyktoryjnych przykładów, które oszukują system i sprawiają, że głupieje.

I tutaj nowe zadanie branży cyberbezpieczeństwa, tj. zaprojektowanie zabezpieczeń, które uchronią AI przed tą nowatorską metodą hakowania. 🪝

🛡️ Zabezpieczanie obrazów

Graficy inwestują wiele lat i umiejętności w tworzenie swoich prac. I każde takie dzieło ma swoją unikalną wartość artystyczną. I tutaj mamy kolejny problem.

Jak AI uczy się tworzyć obrazy? Odpowiada Design Practice.

Bo jak w ogóle takie AI uczy się tworzyć obrazy? 🤖

Taka nauka wykorzystuje dwa główne elementy: generator, który produkuje obrazy, i dyskryminator, który stara się odróżnić prawdziwe obrazy od tych stworzonych przez generator.

Proces ten to jak gra w kotka i myszkę. Generator próbuje produkować obrazy, które wyglądają tak realistycznie, jak to możliwe, a dyskryminator stara się je rozróżnić. W miarę treningu obie strony stają się coraz lepsze w swoich zadaniach. Ostatecznym celem jest uzyskanie generatora, który jest tak dobry, że dyskryminatorowi trudno jest odróżnić jego obrazy od tych prawdziwych.

I clou jest takie, że taka nauka generatora polega na pokazywaniu mu niezliczonej ilości obrazów różnego pochodzenia. I na tej podstawie się uczy.

Wielu grafików traktuje to jako kradzież ich własności intelektualnej. I chce z tym walczyć!

⚔️ Nightshade – protecting copyright

Naprzeciw tej potrzebie wyszedł zespół Glaze z Uniwersytetu Chicago. Opracował Nightshade – czyli ofensywne narzędzie, które ma nieco nabałaganić w takim generatorze.

I to nie jest narzędzie typowo obronne, bo przyjmuje nieco bardziej ofensywne podejście. Pozwala artystom na zniekształcanie cech, które generatory „ściągają” z ich obrazów.

Czyli mówiąc inaczej – Nightshade ma „zatruwać” modele AI. I po wystarczająco dużej ekspozycji, znacznie obniżyć ich zdolność do produkowania grafik.

👉 Co najbardziej lubisz, a co najmniej w AI? 🤖 Może pomaga Ci w pracy, a może wręcz przeciwnie – mocno od niej stronisz?