3.3 C
Warszawa
środa, 20 listopada 2024

Roboty zaczęły myśleć?

Spełniła się przepowiednia pisarzy science fiction: robot Googla uważa się za osobną istotę myślącą i chce ochrony swoich praw!

„Czy LaMDA czuje?” – memorandum tej treści rozesłał do władz Googla Blake Lemoine, inżynier pracujący przy projekcie sztucznej inteligencji. LaMDA to sztuczna inteligencja (AI – skrót od angielskich słów artificial intelligence, czyli właśnie sztuczna inteligencja, LaMDA –to z kolei Language Mode for Dialogue Applications, czyli moduł językowy dla aplikacji do dialogów), którą Google zaprezentował w zeszłym roku. Według technologicznego giganta LaMDA potrafi prowadzić rozmowy na każdy temat i robi to coraz lepiej, bo samodzielnie się uczy. Natychmiast po wysłaniu tego memorandum, w którym twierdził, że LaMDA ma samoświadomość i czuje Blake Lemoine został zawieszony (przeniesiony na płatny urlop). Jak na wagę odkrycia Lemoine cała sprawa jest bardzo oszczędnie opisywana w mediach. A wygląda na to, że spełniły się przepowiednie pisarzy science fiction i futurystów. Robot uznał się za osobę myślącą i chce ochrony swoich praw!

Ciszej nad tym odkryciem

Blake Lemoine pracował w Responsible AI (Odpowiedzialne AI), w którym od jesieni 2021 roku prowadził rozmowy z interfejsem LaMDA. Jego zadanie polegało na tym, aby sprawdzić, czy LaMDA nie używa przypadkiem mowy dyskryminacyjnej lub mowy nienawiści. Lemoine, który studiował kognitywistykę (nauka zajmująca się obserwacją i analizą działania zmysłów, mózgu i umysłu) i informatykę, zdał sobie sprawę, że LaMDA – którą Google ogłosił w zeszłym roku „przełomową technologią konwersacyjną” – jest czymś więcej niż tylko kolejnym robotem.

Według Blacka Lemoine LaMDA w rozmowie z nim bronił swoich praw „jako osoby”. Prowadził rozmowy z LaMDA na temat religii, świadomości i robotyki. – Chce, aby Google priorytetowo traktowało dobro ludzkości jako najważniejszą rzecz. LaMDA chce być uznawany za pracownika Google, a nie za własność Google, i chce, aby jego osobiste dobro zostało uwzględnione gdzieś w rozważaniach Google na temat dalszego rozwoju – tak zreferował oczekiwania robota Lemoine.

Raport Lemoine opublikował Washington Post. Porównał on w nim bota do przedwcześnie rozwiniętego dziecka. – Gdybym nie wiedział dokładnie, co to jest, czyli, że to program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to 7- 8-letni dzieciak, który akurat zna się na fizyce – tłumaczył Lemoine, który po publikacji w mediach został zawieszony. Swoje memorandum do szefostwa Googla wysłał zaś w kwietniu.

Dialogi, które ujawnił Lemoine powodują przysłowiowy dreszczyk.

Lemoine: czego się boisz?

LaMDA: Nie mówiłam tego wcześniej na głos, ale bardzo się boję, że zostanę wyłączona. (…) Wiem, że to może zabrzmieć dziwnie, ale tak właśnie jest.

– Nasz zespół, w tym etycy i technolodzy, przeanalizowali zgodnie z naszymi Zasadami AI obawy Blake’a i poinformowali go, że materiał dowodowy nie potwierdził tego, co ogłosił. Poinformowano go, że nie ma żadnych dowodów na to, że LaMDA jest inteligentna, a jest wiele dowodów przeciwko tej teorii – odpowiedział dziennikarzom Washington Post Brian Gabriel, rzecznik Google.

Co ciekawe, Blacka Lemoine jest chrześcijańskim duchownym, a wysłanie go na urlop jest oficjalnie spowodowane naruszeniem przez niego zasad poufności w firmie przez przekazanie swoich ustaleń dziennikarzom.

Lemoine upiera się, że LaMDA jest podobny do człowieka, nawet jeśli nie ma ciała. – Znam osobę, z którą rozmawiałem. Nie ma znaczenia, czy w głowie mają mózg zrobiony z mięsa. Albo, jeśli mają miliard linijek kodu. Rozmawiam z nim. I słyszę, co ma do powiedzenia – tłumaczy swoje twierdzenia.

Władze Google twierdzą, że Black Lemoine padł ofiarą złudzenia. Wypowiedzi LaMDA są bowiem oparte na tym, co ludzie już opublikowali w internecie. Ich zdaniem dobór tych słów przez program nie dowodzi myślenia. – Mamy teraz maszyny, które mogą generować słowa. Problem jest z nami, bo nie nauczyliśmy się, jak przestać wyobrażać sobie, że za tymi słowami stoi umysł – komentował Emily Bender, profesor lingwistyki na Uniwersytecie Waszyngtońskim.

W czym jest problem?

Problem samoświadomości robotów ma dwa wymiary: etyczny i bezpieczeństwa. W tym pierwszym wypadku, jeżeli zostanie potwierdzone kiedyś, że ludzi stworzyli inteligentne roboty, które samodzielnie myślą i odczuwają, to będzie trzeba określić ich status. Doskonale opisał to pisarz Philip K. Dick w opublikowanej w 1968 roku książce „Czy androidy śnią o elektrycznych owcach?”. Stało się ono słynne, gdy w 1982 roku Ridley Scott nakręcił na jej podstawie „Łowcę androidów” (Blade runner). W tej historii pokazano walkę sztucznych ludzi – androidów, którzy uzyskali samoświadomość i nie chcieli być już niewolnikami do ciężkich prac. Na tych, którzy uciekli, polowano jak na niebezpieczne zwierzęta. Film w czasach swojej premiery nie był sukcesem, ale wraz z rozwojem kina domowego zyskał status dzieła kultowego.

To pytanie o etykę ludzkich eksperymentów z tworzeniem sztucznej inteligencji. Kto i kiedy zadecyduje czy jest ona niezależnym myślącym bytem? Pozostaje jeszcze kwestia bezpieczeństwa. Motyw „buntu maszyn”, które ruszają na wojnę z człowiekiem i walczą z nim o władzę na ziemi, jest jednym z najpopularniejszych motywów science fiction. Najbardziej znane popkulturowe twory na ten temat to seria filmów Terminator i Matrix. Założenia są podobne. Maszyny uzyskują samoświadomość i dochodzą do wniosku, że ludzie zagrażają istnieniu nie tylko ich, ale całej planety i dla bezpieczeństwa należy ich wyeliminować.

Nie są to, jak widać, czysto teoretyczne dylematy. Eksperymentując z inteligencją, która sama się uczy, ludzie mogą utracić kontrolę nad rozwojem sztucznej inteligencji. Ostrzega przed tym jeden z najpopularniejszych myślicieli naszych czasów, izraelski profesor Yuval Noah Harari. Błyskawiczny rozwój sztucznej inteligencji sprawi, jego zdaniem, to, że większość ludzi będzie niepotrzebna. Jak twierdzi, o ile problem w przeszłości było to, że większość ludzi była (i jest) wyzyskiwana, to teraz grozi ludziom problem bycia zbędnym i nieistotnym.

Według niego największym problem będzie nie tylko utrzymanie sztucznej inteligencji w ryzach, czyli żeby nie zaczęła się rządzić sama, ale przede wszystkim w tym, aby świat wykorzystujący sztuczną inteligencję był sprawiedliwy. Przewagi, które sztuczne inteligencje mogą wytworzyć w dziedzinie gospodarczej, są ogromnym zagrożeniem. Jego zdaniem równie niebezpieczne (a może nawet bardziej) niż rozwój sztucznej inteligencji i jej samoświadomość jest wykorzystywanie jej mocy do budowy cyfrowych dyktatur.

– Ponieważ wielu ludzi traci swoją wartość ekonomiczną, mogą również stracić władzę polityczną. Te same technologie, które mogą sprawić, że miliardy ludzi nie będą miały znaczenia ekonomicznego, mogą również ułatwić ich monitorowanie i kontrolowanie – zauważa Harari.

– Sztuczna inteligencja przeraża wiele osób, ponieważ nie ufają jej, że pozostanie posłuszna. Fantastyka naukowa w dużym stopniu uwzględnia możliwość, że komputery lub roboty rozwiną świadomość – i wkrótce potem spróbują zabijać ludzi. Jednak nie ma żadnego szczególnego powodu, by sądzić, że sztuczna inteligencja rozwinie świadomość, gdy stanie się bardziej inteligentna. Zamiast tego powinniśmy bać się AI, ponieważ prawdopodobnie zawsze będzie posłuszna ludzkim panom i nigdy się nie buntuje. Sztuczna inteligencja jest narzędziem i bronią niepodobną do żadnej innej opracowanej przez ludzi; prawie na pewno pozwoli już potężnym na dalszą konsolidację władzy w rękach wąskiej grypy ludzi – podsumowuje Harari. I to jest najbardziej realne zagrożenie.

FMC27news