Technologia AI znacznie ułatwiła nam wiele rzeczy. Dzięki niej możemy choćby rozpisać sobie plan treningowy czy znaleźć informacje na interesujący nas temat. Niestety, ze względu na to, iż jest to wynalazek stosunkowo nowy, pojawia się wiele zagrożeń wynikających z jego zastosowania. Niektóre z nich mają związek z pedofilią.
AI modyfikowane przez pedofilów
Internetowy organ nadzorujący w USA przestrzegł, że znacząco wzrosła tendencja przestępców seksualnych do współpracy w Internecie, która polega na użyciu sztucznej inteligencji. Dzięki niej są oni w stanie generować materiały prezentujące wykorzystywanie seksualne dzieci.
Dan Sexton, dyrektor do spraw technologii w Internet Watch Foundation, w rozmowie dla „The Guardian” nazwał wspomnianą grupę przestępczą „społecznością techniczną”. Jej członkowie mają gromadzić się na forach i prowadzić dyskusję na temat interesujących ich technologii. Udostępniają przy tym fotografie, a także modele AI, oraz dzielą się wskazówkami. Bynajmniej jednak nie jest to pomoc na zasadzie doboru słuchawek czy sterowników do karty graficznej, a coś o wiele bardziej obrzydliwego.
Według raportu organizacji Sextona, przestępcy coraz częściej wykorzystują otwarte modele sztucznej inteligencji do tworzenia i rozpowszechniania nielegalnych materiałów związanych z seksualnym wykorzystywaniem dzieci. W przeciwieństwie do zamkniętych modeli AI, takich jak miedzy innymi Dall-E, otwarte modele AI mogą być pobierane i modyfikowane przez użytkowników. Dan Sexton zauważył, że umiejętność korzystania z tych technologii stała się powszechna wśród przestępców, którzy wykorzystują tak zwany darknet do tworzenia i dystrybucji realistycznych obrazów.
Uważamy, że treści, które widzieliśmy, w rzeczywistości są generowane przy użyciu oprogramowania typu open source, które zostało pobrane i uruchomione lokalnie na komputerach użytkowników, a następnie zmodyfikowane. Problem ten jest znacznie trudniejszy do naprawienia – ocenił Sexton.
Wszystko ma swoje źródło…
Możemy oczywiście otwarcie potępiać przestępców seksualnych generujących takie treści. Możemy też zastanowić się nad tym, czy technologia nie wymknęła się nam spod kontroli. Musimy jednak uświadomić sobie, że z kreowanymi w taki sposób treściami pedofilskimi jest dokładnie tak samo jak z pisaniem tekstu łamiącego prawa autorskie. W obu przypadkach istnieje jakieś źródło, z którego algorytm pobiera dane, aby następnie je wykorzystać.
Sexton wspomina o tym, że przeanalizowane przez IWF zdjęcia często przedstawiały dzieci celebrytów, a ci – jak wiemy – nierzadko uwielbiają afiszować się ze swoim życiem, nawet kosztem życia własnych dziatek. Na sile przybierają wszelkiego rodzaju gwiazdy internetowe uprawiające tak zwany „sharenting”, gdzie dziecko hodowane jest w roli bankomatu.
Niektóre generowane obrazy bazują z kolei na prawdziwych treściach pedofilskich i w ten sposób ponownie wchodzą do obiegu. Wielu ekspertów podkreśla, że istniejącą lukę prawną należy jak najprędzej załatać. Są też tacy, który próbują wyrównać szalę, zaznaczając, że dzięki AI możliwe jest skanowanie Internetu, by właśnie podobne pod względem charakteru treści wyszukiwać i usuwać.
Trening na zbiorach danych. Naszych danych
Na początku marca w serwisie TrueStory pisałem o pierwszych pozwach wymierzonych w AI. W głównej mierze chodziło o kwestię praw autorskich. Prawnik Matthew Butterick wyjaśnił wówczas, dlaczego zajął się tą sprawą:
Systemy sztucznej inteligencji nie są magicznymi czarnymi skrzynkami, które są zwolnione z prawa, a jedynym sposobem, w jaki możemy mieć odpowiedzialną sztuczną inteligencję, jest uczciwość i etyka dla wszystkich. Dlatego właściciele tych systemów muszą ponosić odpowiedzialność. To nie jest zasada, którą tworzymy od podstaw i stosujemy tylko do sztucznej inteligencji. To ta sama zasada, którą stosujemy do wszystkich rodzajów produktów, niezależnie od tego, czy jest to żywność, farmaceutyki czy transport.
Dodajmy do tego wypowiedź szefa Midjourney, Davida Holza, który otwarcie przyznał, iż generatywne sieci neuronowe (GAN) są trenowane na zbiorach danych. Nie zdradził jednakże, czym dokładnie są te zbiory, ale możemy założyć, iż zaliczają się do nich ogólnodostępne dane. Mogą to zatem być zarówno grafiki stockowe jak i zdjęcia prywatnych osób w ich mediach społecznościowych.
Już teraz nie stanowi dużego problemu wygenerowanie przerobionego obrazka ze znaną postacią, zarówno fikcyjną jak i rzeczywistą. Dzięki temu polscy politycy mogą bić się w „Mortal Kombat”, a Harry Potter reklamować Balenciagę. Co zatem w przypadku, gdy otwarte oprogramowanie zostanie pozbawione zahamowań, by dokleić naszą twarz do sceny wyjętej żywcem z filmu z pomarańczowej platformy? Czasami to wystarczy, aby zniszczyć komuś wizerunek i karierę.
A Midjourney już teraz jest w stanie wygenerować pozowane akty czy nagie pokazy mody, choć w teorii mają być to obrazki bezpieczne i mało obsceniczne.