Gdy czyta się i ogląda science fiction sprzed 50–100 lat, sztuczna inteligencja (AI) pojawia
się głównie w roli potężnej, budzącej respekt siły – czasem nam sprzyjającej, zwykle jednak
stanowiącej mniej czy bardziej zawoalowane zagrożenie. [...]
To w tych latach powstał też słynny filozoficzny problem „silnej sztucznej inteligencji” –
czyli takiej, która jest samodzielnym, wszechstronnie rozwiniętym „umysłem” wyposażonym
w „świadomość”, cokolwiek te terminy znaczą – przeciwstawianej „słabej” AI, która miałaby
„tylko” wykonywać polecenia, realizując zadany program o ściśle określonej funkcji.
Dziś problemy te, jak i sam język, którym zostały wyrażone, po prostu trącą myszką. Wielu
filozofów umysłu i kognitywistów1 na słowa „świadomość” i „umysł” reaguje alergicznie,
ponieważ te abstrakcyjne terminy po prostu niepotrzebnie zatruwają ich konkretne,
pożyteczne badania nad przetwarzaniem obrazu w korze wzrokowej, pamięcią przestrzenną
albo neurochemią lęku. Również AI przestało być teorią i są na świecie tysiące programistów,
dla których tworzenie inteligentnych algorytmów to chleb powszedni. O czym tu filozofować?!
Sztuczna inteligencja to dziś produkt, i to cenny. AI usuwa szum ze zdjęć w twoim
smartfonie, dobiera czas prania w twojej pralce i wybiera najszybszą trasę w twoim GPS-ie,
a także podpowiada Facebookowi, co wyświetlić na twojej stronie głównej. [...]
To właśnie skrajnie abstrakcyjne, roszczeniowe podejście do sztucznej inteligencji
odpowiada za tzw. AI effect, który Douglas Hofstadter2 wyraził w postaci złośliwego
powiedzonka: „AI to wszystko, czego jeszcze nie ma”. W praktyce „efekt AI” polega na tym, że
każdy kolejny przejaw inteligencji maszynowej jest kwitowany stwierdzeniem: „Phi, to jeszcze
nie jest inteligencja”. W rozmowie z poszukiwaczami „prawdziwej AI” możemy też usłyszeć, że
„prawdziwa” sztuczna inteligencja powinna nas zaskakiwać – bo przecież co to za inteligencja,
która potulnie wykonuje polecenia. Nic więc dziwnego, że rozwiązanie każdego kolejnego
zadania dla AI oznacza zawsze tylko podnoszenie poprzeczki – skoro twórca algorytmu
rozumie, jak to zadanie rozwiązać, to znika element zaskoczenia z faktu, że algorytm odnalazł
owo rozwiązanie. [...]
Drugim, bliźniaczym aspektem „problemu z AI” są równie nierealistyczne przekonania
dotyczące poziomu inteligencji i kreatywności ludzi. Zauważmy, że w starym, dobrym science
fiction na polu bitwy między sztuczną i ludzką inteligencją również i my zawsze jesteśmy
reprezentowani przez crème de la crème3
. Ponieważ autorami SF są zwykle jajogłowe
naukoluby, bohaterami ich opowieści są też – niespodzianka – jajogłowe naukoluby: genialni
inżynierowie, fizycy, doświadczeni nawigatorzy statków kosmicznych z uprawnieniami
IV poziomu. [...]
Trudno nam więc pogodzić się z faktem, że większość naszych decyzji – o czym pisze
choćby ekonomista Daniel Kahneman w „Pułapkach myślenia” – podejmowana jest zbyt
szybko i zbyt automatycznie, aby można je było uznać za racjonalne, a nasze interakcje
z bliźnimi można w dużym stopniu sprowadzić do scenariusza mieszczącego się na kilku
kartkach A4, co pięknie zdemaskował Erving Goffman w „Człowieku w teatrze życia
codziennego”. „Ja-kupujący-rano-chleb” i „ja-jadący-metrem” to wcale nie ów wyidealizowany
Człowiek, do którego miałaby rzekomo dążyć sztuczna inteligencja – samoświadomy,
kreatywny, rozprawiający o Sztuce, Matematyce i Abstrakcji. Dzisiejsza AI jest zaś wynikiem
zderzenia wzniosłej teorii z rzeczywistością ludzką – z faktycznym codziennym życiem
miliardów homo sapiens. AI naśladuje więc rzeczywistą ludzką inteligencję, a nie tę będącą
romantycznym ideałem zrodzonym w głowach filozofów.