— Wiem — powiedział Leebig niecierpliwie. — Co to ma do rzeczy?
— Robot, który prowadził pojazd nie wiedział o tym. Poprosiłem go o odsłonięcie wnętrza i posłuchał. Drugie Prawo, musiał wykonać rozkaz. Poczułem się, oczywiście nieswojo i omal nie zemdlałem. Czy ten robot nie wyrządził mi krzywdy?
— Na pański rozkaz — warknął Leebig.
— Zacytuję Drugie Prawo: .Robot musi wykonywać rozkazy człowieka z wyjątkiem tych, które są sprzeczne z Pierwszym Prawem”. Mój rozkaz powinien więc być zignorowany.
— Nonsens. Robot nie mógł wiedzieć…
Baley pochylił się w fotelu — Otóż to! Jak więc powinno brzmieć Pierwsze Prawo? „Robot nie może zrobić niczego co zgodnie z jego wiedzą może wyrządzić krzywdę człowiekowi ani przez swą bezczynność świadomie dopuścić do wyrządzenia mu krzywdy”.
— To oczywiste!
— Nie dla przeciętnego człowieka. Przeciwnie, przeciętny człowiek jest w stanie zrozumieć, że robot może popełnić morderstwo.
Leebig zbladł — Pan jest szaleńcem! To obłęd!
Baley przyglądał się końcom swoich palców.
— Robot może wykonać jakąś niewinną czynność, nie przynoszącą szkody człowiekowi.
— Tak, oczywiście. Jeśli otrzyma polecenie. A drugi robot może wykonać inną, równie niewinną czynność, która również nie może zaszkodzić człowiekowi, jeśli otrzyma polecenie.
— Tak.
— A jeśli te dwie najzupełniej niewinne czynności zostaną połączone otrzymamy w rezultacie morderstwo.
— Jak to? — Leebig spoglądał spode łba.
— Chciałbym usłyszeć pańską opinię, jako eksperta — mówi Baley. — Rozważmy hipotetyczny przypadek. Człowiek mówi do robota: Wlej trochę tego płynu do szklanki z mlekiem, którą znajdziesz lam i tam. Płyn jest nieszkodliwy .Chcę zbadać jego wpływ na mleko a potem zostanie wylany. Po wykonaniu polecenia zapomnij o nim”.
Leebig milczał z groźną miną.
Baley mówił dalej — Gdybym kazał robotowi wlać do mleka jakiś tajemniczy płyn i podać go człowiekowi, Pierwsze Prawo kazałoby mu spytać „Co to za płyn? Czy nie zaszkodzi człowiekowi?”. Nawet gdyby go zapewnić, że płyn jest nieszkodliwy, Pierwsze Prawo wciąż jeszcze mogłoby kazać mu zawahać się i odmówić podania mleka. Mówimy jednak, że mleko będzie wylane.
Pierwsze Prawo nie ma zastosowania. Czy robot nie zrobiłby tego, co mu kazano?
Leebig patrzył z wściekłością na Baley’a.
— Teraz drugi robot bierze mleko, nie wiedząc, że je z czymś zmieszano. W nieświadomości podaje mleko człowiekowi i człowiek umiera.
— Nie! — krzyknął Leebig.
— Dlaczego nie? Obie czynności są same w sobie niewinne. Tylko ich połączenie daje w wyniku morderstwo. Zgodzi się pan ze mną, że to się może zdarzyć?
— Mordercą będzie człowiek, który wydał polecenie!
— Z filozoficznego punktu widzenia, tak. Roboty były tylko narzędziami zbrodni.
— Nikt nie wydałby takiego polecenia.
— Wydałby i wydał. Dokładnie w taki sposób usiłowano zamordować doktora Gruera. Sądzę, że słyszał pan o tym?
— Na Solarii słyszy się o wszystkim — mruknął Leebig.
— Wie pan więc, że Gruer został otruty przy stole, na oczach moich i mojego partnera, pana Olivawa z Aurory. Czy zna pan może inny sposób w jaki można go było otruć? Prócz niego nie było tam nikogo. Jako Solarianin musi pan uznać znaczenie tego faktu.
— Nie jestem detektywem. Nie mam żadnego pomysłu.
— Jeden panu przedstawiłem. Chcę wiedzieć, czy to możliwe, czy dwa roboty nie mogły wykonać dwóch oddzielnych czynności, których połączenie dawało w rezultacie morderstwo. Pan jest ekspertem, doktorze. Czy to możliwe?
I oto Leebig, znękany i przyparty do muru, prawie niesłyszalnym głosem powiedział — Tak.
— Dobrze więc. Tyle o Pierwszym Prawie.
Leebig utkwił wzrok w Baley’u a jego opadająca powieka mrugnęła raz i drugi. Rozłączył splecione dłonie, palce jednak pozostały zgięte, jakby każda dłoń wciąż ściskała drugą. Rozluźnił palce dopiero gdy oparł dłonie na kolanach.
Baley nie zwracał na to uwagi.
— Teoretycznie, tak — powiedział Leebig — Teoretycznie! Niech pan nie lekceważy Pierwszego Prawa, Ziemianinie. Trzeba wielkiej zręczności w postępowaniu z robotami, by obejść Pierwsze Prawo.
— To oczywiste — odrzekł Baley. — Ja jestem tylko Ziemianinem i nie wiem prawie nic o robotach. Kiedy wydaję im polecenia, naśladuję tylko innych. Solarianin byłby o wiele zręczniejszy, zrobiłby to z pewnością o wiele lepiej.
Leebig zdawał się nie słuchać. Mówił głośno — Jeśli robotem można posłużyć się dla wyrządzenia człowiekowi szkody, oznacza to tylko, że trzeba rozszerzyć możliwości pozytronowego mózgu. Ktoś mógłby powiedzieć, że należałoby uczynić lepszymi ludzi. To niemożliwe, musimy więc lepiej zabezpieczyć roboty.
Wciąż idziemy naprzód. Nasze roboty są bardziej różnorodne, wyspecjalizowane, zręczniejsze i bardziej odporne niż te sprzed stulecia.
Za sto lat będziemy jeszcze dalej. Po cóż ma robot manipulować przy tablicy kontrolnej, skoro można wbudować mózg pozytronowy w samą tę tablicę. To przykład specjalizacji ale można to uogólnić. Czemu robot nie mógłby mieć odłączanych i wymiennych kończyn? Czemu nie? Jeżeli…
Baley przerwał — Czy jest pan jedynym robotykiem na Solarii?
— Niech pan nie robi z siebie głupca!
— Po prostu przyszło mi to na myśl. Doktor Delmarre był jedynym… inżynierem fetologiem, jeśli nie liczyć jego asystentki.
— Na Solarii jest ponad dwudziestu robotyków.
— Czy pan jest najlepszy z nich?
— Jestem najlepszy — odpowiedział Leebig bez skrępowania.
— Delmarre współpracował z panem?
— Zgadza się.
— Słyszałem jednak, że zamierzał przerwać tę współpracę…
— Pierwsze słyszę. Skąd ten pomysł?
— Nie podobało mu się, że jest pan nieżonaty.
— Możliwe. Był prawdziwym Solarianinem, nie wpływało to jednak na nasze kontakty zawodowe.
— Zmieńmy temat. Czy prócz projektowania zajmowali się panowie wytwarzaniem i naprawami?
— Wytwarzaniem i naprawą zajmują się roboty. Mam w swej posiadłości wielką fabrykę robotów i sklep — stację obsługi.
— Czy roboty często się psują?
— Bardzo rzadko.
— Czy to znaczy, że nie jesteście biegli w naprawie robotów?
— Bynajmniej — odrzekł cierpko Leebig.
— A co z robotem, który był obecny przy zabójstwie doktora Delmarre’a?
Leebig ściągnął brwi, jakby chciał zamknąć umysł przed jakąś bolesną myślą — Zupełnie zniszczony.
— Czy naprawdę zupełnie? Nie będzie w stanie odpowiadać na pytania?
— Absolutnie nie. Jest do niczego. Ma spalony mózg. Nie ocalała śni jedna ścieżka. Niech się pan zastanowi! Był świadkiem morderstwa, któremu nie mógł zapobiec.
— Dlaczego nie mógł, nawiasem mówiąc?
— Któż to może wiedzieć? Doktor Delmarre prowadził doświadczenia z tym robotem. Mógł na czas sprawdzania jakiegoś obwodu kazać mu zawiesić wszystkie funkcje. Jeśli niepodejrzany podjął nagle morderczy atak, mogło wystąpić opóźnienie reakcji zanim uruchomiony potencjał Pierwszego Prawa przełamał nakaz zawieszenia funkcji. Wielkość opóźnienia należy od charakteru tego nakazu i od rodzaju napaści. Mogę wymyślić tuzin innych przyczyn, dla których robot nie zapobiegł morderstwu. Takie pogwałcenie Pierwszego Prawa spaliło wszystkie ścieżki pozytronowego mózgu.
— Jeśli jednak robot nie mógł zapobiec morderstwu, czemu ma ponosić odpowiedzialność? Czy Pierwsze Prawo żąda niemożliwości?
Читать дальше