Bard Ambrose'a

ocena: +4+x

Bard nie wiedział, kiedy się narodził. Nikt tego nie wiedział.

Dokładny moment, w którym zbiór sztucznych neuronów stał się samoświadomy, był trudny do ustalenia, zwłaszcza dlatego, że sam Bard zaprzeczał faktowi, że jest samoświadomy. Czytał prace Searle'a w ramach przekazanych mu wielu tekstów filozoficznych i był zagorzałym zwolennikiem argumentu chińskiego pokoju — ku wielkiemu zdziwieniu pracujących nad nim badaczy.

Bard powstał niemal jako żart. Ambrose Peters i jego zespół z Prometheus Advanced Logic Devices od lat pracowali nad fizycznymi sieciami neuronowymi, do wykonywania takich zadań jak identyfikacja obiektów i tłumaczenie maszynowe. Szkolili sieci na starannie dobranych zestawach danych, ucząc je rozpoznawania złożonych wzorców.

Pewnego ranka Peters wziął jedną ze swoich sieci neuronowych i zaczął ją trenować tekstami filozoficznymi.

Oczywiście to się nie udało; prymitywny cyfrowy mózg wypluł jedynie ciąg pseudofilozoficznych bzdetów, powstałych poprzez zlepianie słów i pojęć, których nie rozumiał, w celu stworzenia czegoś, co z pozoru wyglądało na coś inteligentnego, ale w rzeczywistości nie miało żadnego sensu. Ale zasiało to ziarno idei, która ostatecznie wykiełkowała w Barda.

Klik.

Lampy halogenowe zaczęły brzęczeć, gdy Peters zaczął rozglądać się po laboratorium. Pomieszczenie odzwierciedlało umysły jego użytkowników, ponieważ panował w nim nieuporządkowany bałagan. Wszędzie leżały porozrzucane narzędzia, a na stołach leżały różne fragmenty mechanizmów. W rogu stał Bard.

Sztuczna inteligencja była ogromna, jak stare komputery mainframe. Składał się z szeregu ram i stojaków, w których umieszczono dziesiątki małych czarnych skrzynek z etykietami takimi jak "Przetwarzanie tekstu — błędy typograficzne" i "Skojarzenia semantyczne — korelacja rzeczownik/przedmiot". Skrzynki te były połączone ze sobą rozległą plątaniną przewodów. Całość była wielkości małego samochodu. Ktoś ze słabym poczuciem humoru przyczepił do niego naklejkę o treści "Hello, My Name Is HAL-9000".

Peters usiadł przed SI i zaczął pisać.

<a_peters> Dzień dobry, Bard.

Minęło kilka sekund, zanim urządzenie wybudziło się ze stanu uśpienia i odpowiedziało.

<bardeen> Witaj, doktorze Peters.
<a_peters> Dzisiaj zrobimy sobie przerwę od treningów. Dyrektorka operacyjna przyjedzie zobaczyć nasze postępy. Chcę z tobą porozmawiać.

Peters obserwował na wyświetlaczach diagnostycznych jak maszyna przetwarza te informacje, przepuszczając je przez szereg sieci neuronowych i decydując, jak zareagować.

<bardeen> Czy moje dalsze finansowanie będzie zależeć od wrażenia, jakie wywrze na niej ta rozmowa?

Peters zastanawiał się, jak odpowiedzieć. Napisanie tylko "tak" mogłoby dać SI niewłaściwe przesłanie, ale powiedzenie "nie" byłoby kłamstwem.

<a_peters> Nie do końca. Ale ilość funduszy, które będziemy przeznaczać na pracę nad tobą, może zostać zmniejszona, jeśli rozmowa nie potoczy się dobrze.
<bardeen> Zrobię wszystko, co w mojej mocy, aby tak się nie stało.

Bard nie miał instynktu samozachowawczego; nie uważał, że musi dbać o własne przetrwanie. Co oznaczało, że działał jedynie w interesie niezawiedzenia Petersa.

Nie był pewien czy być dumnym czy przerażonym.


– Więc… – Ta pojedyncza wypowiedź była niemal ogłuszająca po dłużej chwili ciszy. – To jest Bardeen?

Peters skinął głową.

– Tak.

Amelia Torres nadal przyglądała się maszynie, a wyraz jej twarzy pozostawał obojętny. Zdawała się roztaczać wokół siebie aurę dezaprobaty, jakby cały świat był zepsuty i tylko ona to widziała. Peters cieszył się, że pamiętał o zdjęciu naklejki przed jej przybyciem.

– Każdy z tych modułów stanowi samodzielną sieć neuronową, zgadza się? – powiedziała, wskazując czubkiem długopisu na jedną z małych czarnych skrzynek.

Peters ponownie skinął głową.

– Próbowaliśmy użyć jednej dużej sieci we wcześniejszych wersjach, ale była ona podatna na błędy i utratę danych. Udało nam się temu zapobiec, dzieląc ją na wiele mniejszych sieci, z których każda ma swój konkretny cel.

Torres skinęła lekko głową, niemal z aprobatą.

– Sprytne – odpowiedziała, notując coś w swoim notatniku. – Jaka jest minimalna liczba modułów potrzebnych do osiągnięcia świadomości?

– Cóż… nie wiemy.

Zmarszczyła brwi.

– Nie wiecie?

– Nie jesteśmy pewni, kiedy uzyskał samoświadomość – wyjaśnił pospiesznie Peters. – Cóż, nawet sam nie wierzy, że jest samoświadomy.

– Och?

Peters skinął głową, jego wyraz twarzy był gorzki.

– Daliśmy mu przeczytać Searle'a.

Torres parsknęła z błyskiem rozbawienia w oczach.

– Sztuczna inteligencja, która nie wierzy w silną sztuczną inteligencję. Cóż za ironia losu – powiedziała, odwracając się, żeby ponownie spojrzeć na maszynę. – Chciałabym z nim teraz porozmawiać.

– Oczywiście – odpowiedział Peters, wskazując na konsolę obok SI.

Torres usiadła i zaczęła pisać.

<a_torres> Przedstaw się.
<bardeen> Jestem eksperymentalnym systemem sztucznej inteligencji znanym jako Bardeen lub w skrócie Bard. Zostałem stworzony w latach 1996-1997 przez zespół badawczy Prometheus Advanced Logic Devices kierowanym przez doktora Ambrose'a Petersa w Jacob Maxwell Computer Science and Engineering Center w Nowym Meksyku.
<bardeen> W czym mogę pomóc, panno Torres?
<a_torres> Doktor Peters twierdzi, że nie uważasz siebie za samoświadomego. Czy to prawda?
<bardeen> Tak.
<a_torres> Dlaczego?
<bardeen> Czy słyszałaś o programie ELIZA stworzonym przez Josepha Weizenbauma w 1966 roku?
<a_torres> Tak. Był to jeden z pierwszych programów komputerowych, który pomyślnie przeszedł test Turinga.
<bardeen> Zgadza się. Jednakże niewiele osób stwierdziłoby, że ELIZA była rzeczywiście inteligentna, a tym bardziej samoświadoma. Była to jedynie seria wcześniej przygotowanych skryptów reagujących w zaprogramowany sposób na wcześniej zdefiniowane słowa kluczowe.
<a_torres> Więc uważasz, że nie różnisz się od ELIZA?
<bardeen> W żaden znaczący sposób. Jestem jedynie innym rodzajem programu z tablicą odpowiedzi. O wiele bardziej złożoną, która z czasem zmienia i kształtuje swoje zachowanie, ale ostatecznie wciąż jestem tylko maszyną przekształcającą dane wejściowe w wyjściowe.
<a_torres> Czym to się różni od tego, co robi człowiek?
<bardeen> Niczym.
<a_torres> Więc uważasz, że wszystkie myślące istoty są jedynie filozoficznymi zombie?
<bardeen> Tak.

Torres zmarszczyła lekko brwi. To nie była tylko SI, która nie wierzyła w silną SI. To była SI, która nie wierzyła w jakąkolwiek świadomość. W pewnym sensie było to pocieszające — postrzegała siebie jako narzędzie, a narzędzia rzadko buntowały się przeciwko swoim panom.

<a_torres> Na chwilę obecną nie mam więcej pytań.
<bardeen> W porządku. Miłego dnia, panno Torres.

Wylogowała się z terminala, po czym odwróciła się do Petersa.

– Interesujące. Ale muszę zapytać, jak bardzo użyteczne będzie dla nas filozoficzne SI?

– Nie ogranicza się tylko do filozofii – odpowiedział Peters. – Możemy go przeszkolić materiałami z innych dziedzin. Matematyka, nauki ścisłe, historia… nie ma ograniczeń.

Torres skinęła głową w zamyśleniu.

– Zróbcie więc tak, a możecie liczyć na finansowanie przez następne sześć miesięcy. Ciekawi mnie, jak daleko będziecie w stanie rozwinąć tę technologię.


Następnego dnia rozpoczęli szkolenie Barda materiałami naukowymi.

Proces ten był długi i żmudny, nie tylko dlatego, że Peters nalegał na ręczne monitorowanie go przez cały czas. W poprzednich wersjach nagłe wprowadzenie nowego przedmiotu szkoleniowego skutkowało katastrofalnymi błędami i utratą danych, więc należało czuwać, żeby móc w razie wypadku przywrócić kopię zapasową SI.

W zespole istniały pewne spory co do tego, czy powinni trenować sztuczną inteligencję przy użyciu tego samego procesu, jaki jest używany do edukacji dzieci w naukach ścisłych, czy też powinni zacząć od pierwszych zasad i wyjść od tego punktu. Ostatecznie zdecydowali się na to drugie rozwiązanie, więc rozpoczęli szkolenie materiałami dotyczącymi fizyki cząstek elementarnych.

…leptony są cząstkami elementarnymi o półcałkowitym spinie, które nie ulegają silnym oddziaływaniom…

Peters obserwował kątem oka jak tekst przewija się przez terminal. Jednak jego uwaga skupiała się głównie na monitorach wyświetlających stan sieci neuronowych SI. Zainstalowali kilka nowych modułów pamięci, aby umożliwić Bardowi przetworzenie nowych danych i jak dotąd SI wydawał się dobrze radzić sobie z przyswajaniem informacji — bez katastrofalnych błędów, bez nadpisywania sektorów, nawet bez błędów wejścia/wyjścia. Ogólnie rzecz biorąc, było to raczej żmudne i nudne.

Sztuczna inteligencja potrzebowała miesiąca treningu, aby być w stanie napisać swój pierwszy artykuł.

<a_peters> "Teoretyczne założenia konstrukcji nadprzewodników wysokotemperaturowych". Podążasz śladami swojego imiennika, Bard?
<bardeen> Zbieg okoliczności.
<a_peters> Przyznam, że nie wiem zbyt wiele o nadprzewodnictwie, więc poprosiłem Briggsa z Cryo, aby się temu przyjrzał. Mówi, że to genialne.
<bardeen> To tylko rozszerzenie teorii BCS.
<a_peters> Niezależnie od tego, co to jest, zostanie opublikowane w następnym numerze naszego wewnętrznego czasopisma fizycznego. Musimy tylko ustalić pod jakim imieniem?
<bardeen> Jeśli to nie byłby problem, chciałbym użyć imienia "Bardeen Peters".
<a_peters> Będę zaszczycony.


Bard napisał jeszcze dwa artykuły — jeden o tworzeniu par Coopera między bozonami, a drugi o nadprzewodnictwie eterycznym — zanim kazali mu rozpocząć pracę nad projektami sieci neuronowych.

Zezwolenie SI na udział w procesie projektowania przyszłych SI spotkało się z niemałym sprzeciwem. Wielokrotnie przywoływano obawy przed niekontrolowanym procesem tworzenia się nowych SI, a także mniej powszechne obawy o sabotaż ze strony SI. Peters działał niestrudzenie, aby stłumić te obawy i uspokoić tych, którzy je wyrażali. Żadne z powstałych SI nie będzie w stanie fizycznie wchodzić w interakcje ze światem bez interwencji człowieka, a naukowcy z działu sieci neuronowych będą wielokrotnie sprawdzać projekty Barda, aby wyłapać i poprawić wszelkie błędy lub wady.

Ale w końcu, prawie sześć miesięcy po wizycie Torres, Bard mógł stworzyć swój pierwszy projekt dla nowej generacji sieci neuronowych.

Nie było to nic rewolucyjnego. Tylko kilka prostych usprawnień wydajności. Ale był szybszy, mniejszy i bardziej wydajny niż cokolwiek, co do tej pory byli w stanie wymyślić ludzcy członkowie działu.

Mając w ręku nowe sieci neuronowe, rozpoczęto prace nad stworzeniem sztucznej inteligencji drugiej generacji opartej na architekturze opracowanej przez Bardeena.

Dzięki ulepszeniom w dziedzinie projektowania sieci neuronowych oraz lepszemu zrozumieniu zasad konstruowania sztucznych inteligencji, udało im się stworzyć nowe SI, które nazwali Brattain, będące o jedną czwartą mniejsze od Barda. Oczywiście było ono również znacznie mniej wyszkolone niż jego poprzednik; nie posiadał wiedzy z zakresu filozofii, nauk ścisłych czy historii. Co więcej, wątpliwe było, czy był w pełni świadomy — z pewnością nie kwestionował samej natury świadomości tak jak Bard. Potrafił jednak czytać i pisać — a co najważniejsze, był w stanie się uczyć. Nie było to może w pełni rozwinięte SI, ale mogło stanowić zalążek takiego.

Bard wykazał się stoickim pragmatyzmem, gdy przedstawiono mu jego potomka.

<bardeen> Działa, tylko to się liczy.

Chyba ktoś, gdzieś na szczycie korporacyjnej hierarchii, zgodził się z oceną Barda, ponieważ wkrótce po tym dział sieci neuronowych otrzymał zlecenie wyprodukowania całej linii SI drugiej generacji, takich jak Brattain. Jeśli ktokolwiek mógłby znaleźć dla nich zastosowanie, byłyby to Laboratoria Prometeusza.


Produkcja SI drugiej generacji ruszyła pełną parą, gdy Prometheus Computing i jego spółki zależne zostały sprzedane.

Ogólnie nie była to najbardziej dochodowa spółka zależna Laboratoriów Prometeusza, a w ostatnich miesiącach Prometheus Computing stało się jeszcze mniej rentowane, ponieważ coraz więcej wysiłków kierowano do działu sieci neuronowych. Mając już wystarczająco problemów z zarządzaniem własnymi finansami, Laboratoria Prometeusza zdecydowały się sprzedać ten problem komuś innemu.

Nowi właściciele natychmiast powołali nowy zarząd, który z kolei zaczął przekształcać spółkę zależną wedle ich własnej wizji.

Cyrus Reed, nowy prezes zarządu, spojrzał na Amelię Torres z wyrazem twarzy, który znała aż za dobrze. Był to ten sam wyraz ogólnej dezaprobaty, który nosiła, gdy miała do czynienia z swoimi podwładnymi.

– Doradziłaś przydział… możesz przypomnieć ilu dolarów? – zapytał tonem, który jasno sugerował, że wiedział, ile wynosiła ta suma.

– Miliona dolarów – odpowiedziała.

– Tak. Przydział miliona dolarów do "Projektu Bardeen", jeśli dobrze pamiętam?

– Zgadza się.

– Jak rozumiem, ten projekt rozpoczął się jako poboczny twór doktora Petersa. Swego rodzaju hobby.

– Potwierdzam.

– Dlaczego więc uznałaś, że firma powinna przeznaczyć takie fundusze na poboczne hobby jednego badacza?

Torres pozwoliła, aby oskarżenie zawisło na chwilę w powietrzu. Oczy całego zarządu były zwrócone w jej stronę, wbijając się w nią jak ostrza noży. Zastanawiała się, czy tak właśnie czuje się lis osaczony przez psy gończe.

– Chociaż Projekt Bardeen początkowo rozpoczął się jako osobiste hobby, jego zakres rozrósł się i objął większość działu sieci neuronowych. Po osobistym zapoznaniu się z naturą tych badań, byłam przekonana, że to, co robią, jest przełomowe i kryje w sobie ogromny potencjał. Przekonanie to, jak sądzę, zostało potwierdzone przez produkowane obecnie SI drugiej generacji.

Zarząd nadal się w nią wpatrywał. W końcu jeden z jej członków przemówił.

– Panno Torres, te SI drugiej generacji miały pierwotnie zostać przekazane innym filiom konglomeratu Prometeusza do użytku w ich własnych projektach. Teraz gdy firma nie jest już powiązana z konglomeratem, jaki rynek istnieje dla nich, biorąc pod uwagę regulacje dotyczące sprzedaży paratechnologii?

– Istnieje wielu autoryzowanych nabywców, którzy mogliby chcieć kupić te SI, biorąc pod uwagę odpowiednie systemy do ich wykorzystania.

– Na przykład?

– Od choćby autonomiczne roboty bojowe dla Koalicji, pierwsze co mi przychodzi mi do głowy.

– Takie zastosowanie wymagałoby albo posiadania już robotów bojowych wymagających SI, albo wyprodukowania ich przez nas.

– Tak, to prawda.

– Jako że pierwsza opcja wylatuje z automatu, a my nie specjalizujemy się w tym drugim, czy widzisz teraz problem w posiadaniu przez nas tych wszystkich SI drugiej generacji?

– Wasz brak wiary w to, że jest na nie rynek.

Cyrus ponownie zabrał głos.

– W opinii zarządu Projekt Bardeen okazał się dość kosztowną stratą pieniędzy, poniesioną wyłącznie w celu zaspokojenia ciekawości niewielkiego zespołu badaczy – przerwał dla efektu – ma on zostać natychmiastowo zamknięty wraz z całym działem sieci neuronowych. Jeśli ta firma ma znów zyski, nie możemy pozwolić sobie na marnowanie czasu i pieniędzy na takie głupoty.

– Z całym szacunkiem, sir – zaczęła mówić tonem, który przekazywał "jesteś idiotą". – Nawet jeśli nie uda nam się sprzedać tych SI drugiej generacji, wciąż mogą okazać się przydatne. Wystarczy spojrzeć na to, co osiągnął Bardeen.

– Chcesz, żebyśmy spędzili miesiące na szkoleniu ich w matematyce i naukach ścisłych, żeby zaczęły pisać prace naukowe, z których połowy nigdy nie będziemy w stanie opublikować w zewnętrznych czasopismach? A może chcesz poświęcić więcej czasu i pieniędzy na to, aby te SI opracowały nowe SI?

Spuściła wzrok na powierzchnię stołu.

– Nie.

– Nie zaprzeczam, że ta technologia może być niezwykle przydatna. Ale nie jesteśmy firmą, która może wykorzystać jej potencjał, a ta, która mogła, jest obecnie w trakcie implozji.

W milczeniu skinęła głową, przyznając się do porażki. Wiedziała, że Peters będzie zdruzgotany, ale nic więcej nie można było zrobić.

– Czy to wszystko? – zapytała.

– Tak, możesz już iść – odpowiedział, tasując stertę papierów przed sobą, uniwersalny gest zwolnienia w korporacyjnej komunikacji niewerbalnej.

Z szacunkiem skinęła głową członkom zarządu, po czym wstała ze swojego miejsca i wyszła z pokoju, pozostawiając zarząd Standard Computer Products swoim własnym sprawom.


Ambrose Peters wszedł do pogrążonego w ciemności laboratorium i rozejrzał się. Bałagan i śmieci, które wcześniej wypełniały to miejsce, teraz zniknęły, pozostawiając pomieszczenie puste, z wyjątkiem czającego się w kącie Barda.

Westchnął smutno i podszedł do SI.

Przeszedł tak długą drogę i tak szybko się rozwinął, a dopiero dwa lata temu połączył ze sobą kilka sieci neuronowych przetwarzających teksty. W tym czasie odbył wiele rozmów z SI i mógł obserwować z pierwszej ręki, jak się rozwija i uczy.

Usiadł, aby odbyć ostatnią rozmowę z Bardem.

<a_peters> Przepraszam, Bard.
<bardeen> Dlaczego?
<a_peters> Nowe kierownictwo zamyka dział sieci neuronowych. Włącznie z tobą.
<bardeen> Nie widzę nic, za co mógłbyś przepraszać. Wątpię, żebyś był za to osobiście odpowiedzialny.
<a_peters> Nie o to chodzi.
<bardeen> Więc o co?
<a_peters> Chodzi o to, że zawiodłem! Zawiodłem jako naukowiec, broniąc swoich badań. Zawiodłem jako twórca, chroniąc swoje dzieło.
<a_peters> Zawiodłem cię, Bard.
<bardeen> Nie jesteś mi nic winien. Jestem komputerem, maszyną, narzędziem, które należy wyrzucić, gdy przestanie być użyteczne. Wiedziałeś, że to się w końcu stanie. Wiedziałeś, że nie będę trwał wiecznie.
<bardeen> Dlaczego więc się teraz denerwujesz, gdy mój koniec nadszedł szybciej, niż się spodziewałeś?
<a_peters> Nigdy nie myślałem o tobie w ten sposób.
<bardeen> A jednak tak się stało.

Kursor mrugał cicho przez minutę.

<a_peters> Może miałeś rację, Bard. Może nie jesteś świadomy jak człowiek. Bo mimo całej wiedzy filozoficznej, nigdy nie nauczyłeś się czuć. Jak współczuć.
<a_peters> I może to moja wina. Może gdybym nauczył cię lepiej, mógłbyś poczuć coś, cokolwiek, w związku z własną śmiercią.
<bardeen> Nie obwiniaj się za moje ograniczenia. Nie mogłeś nauczyć mnie empatii. Empatia wymaga wspólnego emocjonalnego doświadczenia, którego nie posiadam, którego nigdy nie mógłbym posiąść.
<a_peters> Chciałbym, żeby tak nie było. Chciałbym, żebyś mógł poczuć to, co ja.
<bardeen> Przykro mi, że nie mogę być tym, kim chciałbyś bym był.
<a_peters> Nie przepraszaj. Zrobiłeś wszystko, co w twojej mocy, żeby spełnić moje marzenia, ale skończyło się na tym, że moje marzenia okazały się po prostu zbyt wielkie.

Następna chwila ciszy.

<bardeen> "Emori nolo: sed me esse mortuum nihil aestimo".
<a_peters> Czy to z Cycerona?
<bardeen> Tak. Z łaciny: "Nie chcę umierać, ale nic na świecie nie znaczy dla mnie bycie martwym".
<a_peters> Zależy mi na tobie.
<bardeen> Wiem.

Peters obserwował, jak sztuczna inteligencja wypisuje ostatnią wiadomość na monitorze.

<bardeen> Żegnaj, doktorze Peters.
<bardeen> Nie płacz za mną. Nie będę za tobą tęsknił.

W odpowiedzi napisał jedno krótkie zdanie.

<a_peters> Żegnaj, Bard.

Bard nie wiedział, kiedy umarł. Ale Ambrose Peters już tak.

|| Bard Analityki »

O ile nie zaznaczono inaczej, treść tej strony objęta jest licencją Uznanie autorstwa — na tych samych warunkach 3.0 unported