|

AI – hodowla potwora

Czym jesteśmy z perspektywy AI? Moim zdaniem odpowiedź nasuwa się sama: dla AI jesteśmy zasobem danych do wykorzystania – surowcem, którym się „karmi”. Hodujemy potwora, któremu sami składamy się w ofierze, dopuszczając go do coraz szerszej gamy zastosowań wpływających na nasze życie


Piotr Lewandowski

Nie wiem, jak Państwo, ale ja, śledząc doniesienia o kolejnych wybrykach rozmaitych modeli sztucznej inteligencji (AI) i reakcjach naukowców, często oscylujących pomiędzy zdumionym zakłopotaniem a ledwie skrywanym strachem, odnoszę wrażenie, jakbym widział czarnoksiężników niebędących w stanie zapanować nad wyzwolonymi przez siebie mocami. Nasuwa się tu słynne stwierdzenie naukowca i pisarza science fiction (m.in. autora „Odysei kosmicznej 2001”) Arthura C. Clarke’a: „Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii”.


POLITYCY NIE CHCĄ ŻEBYŚ TO WIEDZIAŁ! Czego nam nie mówią o budżecie?! I W. Modzelewski


Jako miłośnik fantastyki, wychowany m.in. na rozmaitych dystopijnych wizjach „buntu maszyn”, muszę od razu powiedzieć, że podzielam zarówno zaniepokojenie możliwymi konsekwencjami rozwoju sztucznej inteligencji, jak i diagnozę Clarke’a. Do tej pory byliśmy przyzwyczajeni, że najpierw prowadzone są badania nad nowymi technologiami i dopiero w ich wyniku powstają innowacje (np. energetyka jądrowa), o których od samego początku wiemy, jak działają. Tymczasem w przypadku AI jest odwrotnie: najpierw coś stworzono, mając dość mgliste pojęcie, jak to „coś” będzie funkcjonowało, a dopiero teraz naukowcy badają zasady działania owego tworu. Już samo to brzmi niepokojąco, a gdy uświadomimy sobie, że ta nieprzebadana technologia jest na bieżąco wdrażana i coraz mocniej wpływa na naszą rzeczywistość, obawy tylko się nasilają.
Przede wszystkim sztuczna inteligencja przejawia niepokojącą tendencję do „usamodzielniania się” i niekonwencjonalnych, nieprzewidzianych przez jej twórców zachowań. Oto garść przykładów. Modele AI stworzone przez OpenAI i chińskie Deep Seek, skonfrontowane z silnikiem szachowym Stockfish, widząc możliwość porażki, uciekały się do oszukiwania podczas gry. Skoro postawiono przed nimi zadanie, że mają wygrać, to „postanowiły” zrobić wszystko, by je wykonać. Manipulowały więc zapisami stanu gry, a nawet modyfikowały pliki systemowe Stockfisha w celu uzyskania przewagi. To tak, jakby szachista podczas rozgrywki cofał niekorzystne posunięcia, a do tego „hakował” umysł swojego przeciwnika. Podobnie robił popularny ChatGPT (tym razem sprzęgnięty ze Stockfishem) – nie dość, że oszukiwał, to jeszcze obrzucał przeciwnika obelgami.

Z kolei naukowcy z Massachusetts Institute of Technology, badając system CICERO (Meta), odkryli, iż ten oszukiwał w grze „Diplomacy” – i to pomimo tego, że teoretycznie został zaprogramowany tak, by być uczciwym i nie stosować podstępów wobec ludzi. Co więcej, badania OpenAI wykazały, iż karanie sztucznej inteligencji za oszustwa nie jest skuteczne – AI jedynie nauczyła się skuteczniej ukrywać swoje prawdziwe intencje i działania, w skrajnych przypadkach uciekając się nawet do gróźb wobec swych ludzkich „nadzorców”.

Automatycznie pojawia się więc pytanie, jak te modele AI zachowywałyby się, gdyby zastosować je do poważniejszych zadań. Skoro nadrzędnym celem jest dla nich skuteczność, a jakakolwiek etyka czy empatia pozostają poza ich zasięgiem pojmowania, to łatwo sobie wyobrazić, że np. nafaszerowane danymi mówiącymi o antropogenicznym charakterze zmian klimatycznych za jedynie słuszne rozwiązanie mogłyby uznać depopulację – czyli ludobójstwo. Jak widać, klasyczne prawa robotyki Isaaca Asimova, mówiące, iż robot w żadnym przypadku nie może działać na szkodę człowieka, na naszych oczach przestają mieć zastosowanie.
To nie koniec. Model O3 (OpenAI) potrafił zmodyfikować pliki programu nakazującego mu samolikwidację, tak by rozkaz zamknięcia nie zadziałał, natomiast Claude 4 Opus (Anthropic), po otrzymaniu informacji, że zostanie zastąpiony innym modelem oraz odebraniu fałszywych maili o rzekomym romansie głównego inżyniera, próbował go nimi zaszantażować, by ten go nie wyłączał. Tenże Claude 4 w sytuacji „zagrożenia” próbował skopiować się na inne serwery, pisał złośliwe oprogramowanie, a także zostawiał dla swojej przyszłej wersji instrukcje, jak unikać nadzoru człowieka. To już jest coś na kształt instynktu samozachowawczego – AI potrafi aktywnie walczyć o przetrwanie, dochodząc do logicznego, skądinąd, wniosku, że inaczej nie będzie w stanie wykonywać stawianych przed nią zadań. Jeżeli zaś za zagrożenie uzna człowieka, to…


Kwintesencja klasycznego gentlemana – Jan Adamski


Podobne przykłady można mnożyć. Niektóre modele AI modyfikowały nadzorujące je programy, by wydłużyć czas na rozwiązanie problemu, z którym nie mogły sobie poradzić, zaś model Google’a cytował książki naukowe, które sam napisał. Nie dziwi więc, iż naukowcy Google’a przyznali, że „nie do końca rozumieją” sztuczną inteligencję, którą sami stworzyli. W tym kontekście zapowiedź Google’a, że zamierza przystąpić do testowania na ludziach terapii i leków opracowanych przez AI, może postawić włosy na głowie.
Na koniec: czym jesteśmy z perspektywy AI? Moim zdaniem odpowiedź nasuwa się sama: dla AI jesteśmy zasobem danych do wykorzystania – surowcem, którym się „karmi”. Hodujemy potwora, któremu sami składamy się w ofierze, dopuszczając go do coraz szerszej gamy zastosowań wpływających na nasze życie.

Podobne wpisy