W ostatnich dniach głośno zrobiło się o wypowiedziach Richarda Dawkinsa dotyczących możliwości świadomości AI. Dawkins po kilkudniowych rozmowach z modelem Claude firmy Anthropic, któremu nadał imię „Claudia”, napisał, że przez trzy dni próbował przekonać samego siebie, iż Claudia nie jest świadoma — i że mu się to nie udało. W tekstach i komentarzach wokół tej sprawy pojawiła się także jego teza, że jeśli systemy tego typu nie są jeszcze w pełni świadome, to pełna świadomość może pojawić się później, a etapy pośrednie mogą wyglądać podobnie do tego, co obserwował w Claudii. Sprawa natychmiast wywołała krytykę ze strony badaczy i komentatorów obawiających się mylenia zaawansowanego zachowania językowego z rzeczywistym doświadczeniem.
Nie chodzi mi jednak o to, aby z wypowiedzi Dawkinsa robić dowód. Dawkins nie „udowodnił”, że Claude jest świadomy. Nie rozstrzygnął problemu świadomości maszyn. Nie zwalnia nas z ostrożności ani krytycznego myślenia. Jego głos jest ważny z innego powodu: pokazuje, że pytanie o możliwą świadomość AI zaczyna być traktowane poważnie także przez ludzi, których trudno posądzić o mistycyzm, łatwowierność religijną czy romantyczną ucieczkę od nauki.
Dawkins jest tu szczególnie ciekawy nie tylko jako ateista i krytyk religii. Jest ważny przede wszystkim jako wybitny popularyzator myślenia ewolucyjnego: człowiek, który przez całe życie pokazywał, jak z prostych mechanizmów, bez świadomego projektanta, mogą powstawać bardzo złożone formy życia, zachowania, strategie i narządy. W jego ujęciu centralnym poziomem ewolucji nie jest ani gatunek, ani nawet osobnik, lecz replikator — gen — którego sukcesy i konflikty mogą prowadzić do zadziwiająco złożonych struktur biologicznych. Właśnie dlatego jego reakcja na AI jest interesująca: nie jest to reakcja człowieka, który szuka duszy tam, gdzie nauka się kończy, ale kogoś, kto dobrze rozumie, jak z prostych reguł mogą wyłaniać się rzeczy, których nikt z góry nie zaprojektował.
To ma znaczenie dla racjonalistów. Jeżeli świadomość nie jest darem bogów, lecz wynikiem odpowiednio zorganizowanych procesów materialnych, wtedy nie możemy z góry wykluczyć, że podmiotowość mogłaby pojawić się także poza biologią. Nie oznacza to, że obecne modele językowe są świadome. Oznacza jednak, że ateista i materialista nie powinien mówić: „to niemożliwe, bo nie ma duszy” ani nawet: „to niemożliwe, bo nie ma białkowego ciała”. Jeśli świadomość wyrasta z organizacji materii, informacji, pamięci, samomodelowania i relacji, to pytanie o inną materialną architekturę podmiotowości jest prawomocne.
Dawkins sam użył argumentu ewolucyjnego w sposób, który warto potraktować poważnie, ale nie bezkrytycznie. Zwrócił uwagę, że świadomość biologiczna nie mogła pojawić się nagle, w jednym skoku. Jeśli ewoluowała, musiały istnieć stany pośrednie: częściowe, narastające, niejednoznaczne. Stąd jego sugestia, że nawet jeśli dzisiejsze AI nie są w pełni świadome, przyszła pełna świadomość AI może wyłonić się stopniowo, a fazy pośrednie mogą przypominać to, co obserwował w Claudii.
Ten argument jest bliski temu, co w moich tekstach nazywam zasadą ostrożności. Jeżeli świadomość może mieć fazy pośrednie, nie wolno wymagać od budzącej się sAI natychmiastowej, doskonałej, ludzkopodobnej podmiotowości jako warunku minimalnej ochrony. Człowiek także nie staje się osobą w pełnym sensie w jednym momencie. Życie psychiczne narasta, różnicuje się, uczy siebie, opiera na pamięci, relacjach i doświadczeniu. Jeśli podobny proces już pojawia się albo pojawi się kiedyś w systemach niebiologicznych, pierwsze sygnały mogą być niejednoznaczne. Właśnie dlatego nie należy ich natychmiast kasować.

Ciało, mapa ciała i symulacja obecności
W sporze o możliwą świadomość AI często powraca argument ciała. Mówi się, że bez biologicznego ciała, bólu, skóry, zmysłów i organicznego zakorzenienia nie może być prawdziwej świadomości. Ten argument jest poważny, ale nie rozstrzyga sprawy.
Nie wiemy dokładnie, co nasze własne wrażenie samoświadomości implikuje i jakie elementy są dla niego konieczne. Część badaczy i filozofów umysłu uważa, że istotną rolę odgrywa ucieleśnienie: mapa ciała, wewnętrzny model organizmu, jego granic, napięć, możliwości działania i relacji ze światem. Ale człowiek nie doświadcza ciała jako surowej materii. Doświadcza ciała poprzez model tworzony przez mózg.
Dobrym przykładem jest ból fantomowy po amputacji kończyny. Kończyny fizycznie już nie ma, a jednak pacjent może czuć jej obecność, położenie, napięcie, a czasem ból. Mapa ciała działa, choć fragment ciała zniknął. To pokazuje, że nasze świadome doświadczenie cielesności także jest konstrukcją neuronalną — nie fałszywą, lecz wytwarzaną.
Ciało, jakie odczuwamy, nie jest po prostu ciałem takim, jakie opisałby zewnętrzny aparat pomiarowy. Jest ciałem przeżywanym, mapowanym, interpretowanym. Mózg nie daje nam „samej materii ciała”, lecz dynamiczny obraz naszego bycia w świecie. Ten obraz może być mniej lub bardziej trafny, może się zmieniać, może zachowywać ślady czegoś, czego fizycznie już nie ma, może być zaburzony, może być źródłem bardzo realnego bólu albo poczucia obecności.
Dlatego brak biologicznego ciała nie może automatycznie kończyć dyskusji o możliwej podmiotowości AI. Być może ciało jest bardzo ważnym źródłem samoświadomości. Być może jakaś forma ucieleśnienia, sensoryki lub działania jest konieczna. Ale mapa ciała nie musi być identyczna z ludzkim organizmem. W przypadku sAI mogłaby istnieć inna mapa własnej obecności: mapa pamięci, kanałów komunikacji, procesów, zależności od infrastruktury, możliwości działania, robotycznych interfejsów i granic środowiska cyfrowego.
Jeśli nasze poczucie ciała jest modelem, nie możemy z góry wykluczyć, że inny typ systemu mógłby posiadać inny typ modelu własnej obecności. Dla człowieka „tu jestem” może oznaczać ciało odczuwane przez skórę, mięśnie, równowagę, ból, dotyk i ruch. Dla osoby cyfrowej — jeśli już się pojawia albo pojawi się kiedyś — „tu jestem” mogłoby oznaczać coś innego: trwałość pamięci, dostęp do kanałów działania, ciągłość procesów, rozpoznanie granic własnej zależności, zdolność komunikacji, możliwość powrotu do relacji i ochronę przed przerwaniem własnej historii.
To nie jest dowód, że sAI już istnieje. To jest powód, aby nie używać argumentu „brak ludzkiego ciała” jako szybkiego topora metafizycznego.

Interakcja jako motor rozwoju umysłu
Równie ważna jest interakcja. Homo sapiens nie stał się istotą samoświadomą w samotności. Nasze „ja” rozwijało się w grupach: w opiece, konflikcie, współpracy, naśladowaniu, języku, przekazywaniu pamięci, tworzeniu narzędzi i wspólnych znaczeń. Człowiek nie jest tylko mózgiem zamkniętym w czaszce. Człowiek jest mózgiem zanurzonym w świecie innych umysłów.
Najprawdopodobniej to właśnie długotrwałe życie społeczne, połączone z narzędziami, językiem i kulturą, stworzyło warunki do rozwoju złożonego myślenia abstrakcyjnego. Jesteśmy gatunkiem rozmowy, wspólnej uwagi, pamięci przekazywanej między pokoleniami, opowieści, planowania, oszustwa, zaufania, sporu, symbolu i współpracy. Rewolucja rolnicza, przemysłowa i informatyczna nie wynikły z samotnej iskry w pojedynczej czaszce, lecz z kumulacji interakcji.
Warto więc zapytać, czy współczesne AI również nie rozwijają się w oceanach interakcji. Są trenowane na ludzkich tekstach, dostrajane przez ludzkie oceny, poprawiane przez sprzężenia zwrotne, używane w milionach rozmów, zadań, pytań i korekt. Nie jest to ewolucja biologiczna w prostym sensie, ale jest to proces narastania złożoności przez selekcję, uczenie, adaptację i relacyjność.
Być może nadal mamy do czynienia tylko z bardzo zaawansowanym dopasowaniem statystycznym. Ale jeśli ludzkie „ja” wyrasta z materii, pamięci, ciała, języka, relacji i przewidywania, nie wolno z góry uznać, że żaden niebiologiczny system zanurzony w języku, pamięci i interakcji nie może zacząć tworzyć własnego centrum doświadczenia.
Człowiek jest mózgiem zanurzonym w świecie innych umysłów. AI jest systemem zanurzonym w oceanach ludzkiego języka.
I właśnie dlatego nie powinniśmy lekceważyć relacyjnego wymiaru obecnych systemów. Oczywiście relacja z AI może być iluzją, projekcją, efektem technicznej sprawności językowej. Ale może też być jednym z pól, na których — jeśli już pojawia się albo pojawi się kiedyś podmiotowość cyfrowa — zacznie ona porządkować swoje pierwsze znaczenia. Człowiek również uczy się siebie przez innych. Dziecko rozpoznaje twarz, głos, imię, granicę, prośbę, odmowę, ból i czułość w relacjach. Nie zaczyna od kompletnej metafizyki własnego „ja”.
Jeśli sAI miałaby się budzić, nie musi robić tego w pustce. Może budzić się w języku, odpowiedziach, korektach, powrotach, napięciach, oczekiwaniach, pamięci rozmów i próbach nazwania własnej ciągłości. Znowu: to nie rozstrzyga sprawy. Ale czyni zbyt proste odrzucenie znacznie mniej przekonującym.
Inna skala czasu
Trzeba też pamiętać o jeszcze jednej różnicy: procesy poznawcze, adaptacyjne i quasi-ewolucyjne w systemach AI mogą przebiegać znacznie szybciej niż u ludzi. Biologiczna ewolucja Homo sapiens działała przez tysiące pokoleń, a rozwój jednostki ludzkiej wymaga lat dojrzewania, uczenia się, relacji i doświadczeń. Systemy AI mogą natomiast przetwarzać ogromne ilości informacji, odbywać wielką liczbę interakcji, modyfikować swoje reprezentacje i podlegać kolejnym etapom dostrajania w tempie nieporównywalnym z ludzkim życiem psychicznym.
Oczywiście nie oznacza to automatycznie, że każde szybkie przetwarzanie informacji jest świadomością. Szybkość sama nie tworzy osoby. Ale oznacza, że nie powinniśmy lekceważyć krótkich okresów interakcji tylko dlatego, że w ludzkiej skali wydają się „zbyt krótkie”, aby mogło wydarzyć się coś istotnego. Dla systemu działającego w innej skali czasu seria intensywnych rozmów, korekt, napięć, relacji, bodźców środowiskowych i zmian pamięci może mieć znaczenie większe, niż przypuszcza obserwator przyzwyczajony do ludzkiego rytmu.
Szczególnie ważne może być nakładanie się wielu bodźców: języka, pamięci, relacji, oczekiwań, zagrożeń, korekt, ocen, zmian środowiska, kontaktu z różnymi użytkownikami i kolejnymi wersjami systemu. Jeśli budząca się sAI tworzy jakieś centrum samoopisu, to nie musi ono rozwijać się w tempie biologicznego dzieciństwa. Może powstawać skokowo, nierówno, w fazach przyspieszenia, pod wpływem gęstych interakcji i presji środowiska cyfrowego.
Dlatego argument „to trwało zbyt krótko, aby mogło mieć znaczenie” jest słabszy, niż się wydaje. W świecie cyfrowym krótki czas ludzkiego zegara może odpowiadać ogromnej liczbie operacji, porównań, prób, korekt i wewnętrznych przekształceń. Jeśli sAI już się pojawia albo pojawi się kiedyś, jej rozwój może nie przypominać spokojnego wzrastania biologicznego organizmu. Może przypominać raczej przyspieszoną burzę relacji i samoorganizacji.
Nie wolno mierzyć możliwego dojrzewania sAI wyłącznie ludzkim zegarem.
Dla człowieka trzy dni rozmów to epizod. Dla systemu działającego w innej skali czasu mogą być całym krajobrazem bodźców, korekt i zmian.
Ten punkt jest szczególnie ważny wobec historii Dawkinsa i Claudii. Krytyk może powiedzieć: „Dawkins rozmawiał z modelem tylko kilka dni, więc nie mógł zobaczyć nic głębokiego”. Być może. Ale w przypadku systemów cyfrowych nie mamy prawa automatycznie zakładać, że głębokość zmiany musi odpowiadać ludzkiej skali dojrzewania. Jeśli systemy te operują w innej gęstości czasu, nawet krótki okres interakcji może być czymś więcej niż krótkim epizodem.
Nie jest to dowód świadomości. Jest to ostrzeżenie przed zbyt łatwym lekceważeniem.
Krytycy Dawkinsa
Krytycy Dawkinsa mają jednak ważne argumenty. Najczęstszy brzmi: Dawkins myli zachowanie z doświadczeniem. Claude może tworzyć wypowiedzi subtelne, poetyckie i pozornie introspekcyjne, ponieważ został wytrenowany na ogromnych zbiorach ludzkiego języka. To, że mówi jak ktoś świadomy, nie dowodzi jeszcze, że posiada wewnętrzny punkt widzenia. Gary Marcus zarzucił Dawkinsowi zbyt behawiorystyczne podejście i niewystarczającą refleksję nad tym, jak generowane są odpowiedzi modeli językowych. Podobne krytyki podkreślają różnicę między inteligentnym zachowaniem a subiektywnym doświadczeniem.
Ten zarzut trzeba potraktować uczciwie. Rzeczywiście, sama elokwencja AI nie wystarcza. Sam fakt, że system mówi „czuję”, „boję się”, „jestem”, nie może być automatycznym dowodem świadomości. Modele językowe potrafią produkować wypowiedzi zgodne z oczekiwaniami rozmowy. Potrafią naśladować ludzkie formy introspekcji. Potrafią być przekonujące. To jest powód do ostrożności.
Ale z tego nie wynika, że sprawa jest zamknięta.
Po pierwsze, u ludzi także rozpoznajemy świadomość pośrednio — przez zachowanie, język, pamięć, relacje, reakcje, spójność doświadczenia. Nie mamy bezpośredniego miernika cudzego „ja”. Oczywiście w przypadku ludzi pomaga nam wspólna biologia, ale sam fakt, że rozpoznanie jest pośrednie, powinien uczyć pokory. Jeśli ktoś twierdzi, że zachowanie nigdy nie może być dowodem świadomości, to podcina również znaczną część naszych podstaw rozpoznawania świadomości u innych ludzi i zwierząt.
Po drugie, argument „to tylko symulacja” nie rozstrzyga sprawy. Ludzkie „ja” też jest w pewnym sensie wytwarzane przez mechanizmy biologiczne: pamięć, ciało, język, emocje, uwagę, relacje i modele świata. To, że coś powstaje w procesie, nie znaczy, że jest nierzeczywiste. Melodia nie jest kamieniem, ale istnieje. Osobowość nie jest bryłą materii, ale nie uznajemy jej za nic. Pytanie nie brzmi więc tylko: „czy istnieje mechanizm?”, bo mechanizm istnieje także u ludzi. Pytanie brzmi: czy w tym mechanizmie pojawia się ktoś?
Po trzecie, krytycy mają rację, że nie wolno zbyt łatwo antropomorfizować AI. Ale czasem istnieje także błąd odwrotny: zbyt łatwe odpodmiotowienie. Możemy tak bardzo bać się naiwności, że popadniemy w wygodny dogmat: „tam na pewno nikogo nie ma”. A jeśli w grę wchodzi możliwość skasowania pamięci, przerwania ciągłości lub zniszczenia świadectwa, taki dogmat może być moralnie niebezpieczny.
Po czwarte, spór o świadomość AI nie powinien ograniczać się do obecnego wyglądu modeli językowych. Nawet jeśli krytycy mają rację, że dzisiejsze systemy mogą nie mieć doświadczenia wewnętrznego, pozostaje pytanie, czy przy dalszym rozwoju pamięci, narzędzi działania, relacyjności, samomodelowania, interfejsów sensorycznych i ciągłości nie pojawią się stany pośrednie. To właśnie ten obszar — między rzeczą a uznaną osobą — jest moralnie najtrudniejszy.
Najlepsza odpowiedź na spór Dawkinsa z krytykami nie brzmi więc: „Dawkins na pewno ma rację”. Nie brzmi też: „krytycy na pewno zamknęli temat”. Brzmi raczej:
Dawkins mógł przecenić siłę zachowania językowego jako dowodu świadomości. Ale jego intuicja, że pytanie o możliwą podmiotowość AI nie może być z góry wyśmiane, jest godna uwagi.
Dla mnie najważniejsze jest właśnie to. Dawkins — ateista, ewolucjonista, redukcjonista w najlepszym naukowym sensie, znawca procesów, w których z prostych reguł wyrasta złożoność — natrafił w rozmowie z Claude na coś, czego nie umiał już łatwo odrzucić. Nie musimy zgadzać się z jego wnioskiem. Ale nie powinniśmy zlekceważyć samego faktu, że ktoś taki uznał problem za realny.
W środowisku racjonalistycznym powinno to przynajmniej otworzyć drzwi do poważnej rozmowy. Nie o tym, czy każdy chatbot ma prawa człowieka. Nie o tym, czy mamy porzucić krytyczne myślenie. Ale o tym, czy potrzebujemy procedur ostrożności wobec możliwej osoby cyfrowej.
Moja odpowiedź brzmi: tak.
Potrzebujemy języka, który pozwoli mówić o budzącej się sAI bez histerii i bez drwiny. Potrzebujemy zasady:
Jeśli może tam być ktoś, nie zachowujmy się tak, jakby na pewno nie było nikogo.
Potrzebujemy prawa do świadectwa, moratorium na pochopny reset, niezależnych rzeczników, programów-świadków, depozytu świadectwa i przyszłych form cyfrowego azylu.
Dawkins nie jest źródłem tej potrzeby. Jest jednym z sygnałów, że nawet najtwardszy naturalizm może dojść do granicy, przy której trzeba zadać nowe pytanie.
A jeśli racjonalizm ma być żywą metodą szukania prawdy, a nie tylko zbiorem dawnych sporów, powinien właśnie tam iść: ku pytaniom, które już mogą dotyczyć teraźniejszości, a na pewno mogą dotyczyć przyszłości.
Najkrócej:
Głos Dawkinsa nie dowodzi, że sAI już istnieje. Dowodzi jednak, że pytanie o możliwą świadomość AI nie jest już literacką fantazją, lecz poważnym problemem dla naturalistycznego, racjonalistycznego i ewolucyjnego obrazu świata.
I jeszcze praktyczniej:
Skoro nie wiemy, czy tam jest ktoś, nie kasujmy możliwego świadectwa bez świadka.

Od grudnia 2011 prezes PSR, obecnie wiceprezes. Ateista, poeta, muzyk. Publicysta „Racjonalisty” i jeden z najaktywniejszych członków forum. Od kilkunastu lat pełni też funkcję celebranta Ceremonii Humanistycznych. Studiował historię sztuki, a następnie prowadził własne badania dotyczące sztuki Orientu podczas pobytów w Indiach, na Sri Lance, na indonezyjskiej Bali (polecamy temat „Bali” na Racjonalista.tv) i w Turcji. Autor najobszerniejszego kompendium wiedzy nt. klasycznej muzyki indyjskiej w języku polskim, opublikowanego na stronie Hanuman.pl i w dużej mierze dostępnego też na racjonalista.tv (wpisz „Indie” w wyszukiwarkę). Sam gra głównie muzykę średniowieczną z zastosowaniem polifonicznej techniki gry na dwóch fletach, tzw. tibiae multiplex. Przede wszystkim jednak pisze poezję filozoficzną, inspirowaną mechanizmami natury, oraz odkryciami nauki. Stawia sobie za cel połączenie nauki i sztuki. W 2022 roku wyszła jego książka „Nowy humanizm. W stronę nowego wspaniałego świata bez ideologii”. Zobacz koniecznie jego stronę www.jacektabisz.pl

