— Какво искате да кажете? — попита президентът.
Тя огледа всички присъстващи.
— Създаването на истински изкуствен интелект — на мощен изкуствен интелект — прилича на създаването на човешки разум. Дори само в това има нещо дълбоко неморално. А да се използва този разум за военни нужди, за убийства… Не! Прекалено опасно е да създадете оръжия, които сами да решават кого да убият, оръжия, заредени със софтуер, който ги учи да убиват, който ги кара да искат да убиват. Никога няма да можем да контролираме подобен изкуствен интелект. Както не можахме да контролираме и Дороти. Това е равносилно на отварянето на кутията на Пандора. При ядрените ракети поне има един пръст — пръст на човек, — който трябва да натисне копчето.
— Подобно твърдение с абсурдно — възрази генерал Донъли. — Всички системи с изкуствен интелект, които разработим, ще се намират под пълен човешки контрол.
— Така ли мислите? Това е защото никога не сте срещали Дороти.
— Доктор Шепърд, получихте уникално предложение — каза президентът, като повиши глас, за да покаже раздразнението си. — Можете да ни спестите лекцията си. Достатъчно е да ни отговорите с да или не. Има достатъчно кандидати, включително някои членове на екипа ви от НАСА, които с радост биха работили за нас.
— Това приемете, че отговорът ми е не — каза Дороти и взе чантата си. — Приятен ден, господин президент.
— Напомням ви, че предложението, което отхвърлихте, е строго секретно.
Мелиса спря, после се обърна рязко. Изненадващо, но гласът й прозвуча умолително:
— Господин президент, моля ви, не тръгвайте по този път. Това е началото на края на човешката раса. Помислете върху думите ми.
— Благодаря ви, доктор Шепърд, но е излишно да ми казвате какво да правя като главнокомандващ на тази страна.
Мелиса се обърна и си тръгна. Форд я проследи с поглед.
Президентът се обърна към Локуд и се намръщи.
— Не ми каза, че е пацифистка!
— Нямах представа, господин президент. Искрено се извинявам.
Президентът се обърна към Форд.
— А вие какво мислите?
Форд стана.
— След като видях един изкуствен интелект в действие, опасявам се, че трябва да се присъединя към мнението на доктор Шепърд по този въпрос. Използването на изкуствени интелекти за военни цели ще се окаже последната крачка към унищожаването на човечеството. Това е много опасно.
— Китайците вече работят по въпроса — отвърна президентът.
— В такъв случай бог да ни е на помощ — каза Форд и излезе.
Настигна Мелиса в коридора. Тя вървеше бързо, токчетата й тракаха по твърдия под, русите й коси се вееха свободно.
— Съжалявам — каза той. — Бях смаян от предложението, което ти направиха.
Мелиса спря. Лицето й бе побеляло, устните — стиснати.
— Аз също. Някой трябва да ги спре.
Форд я хвана за ръка.
— Не можем да направим нищо. Това е извън нашите възможности.
— Ще го направя публично достояние. Ще се обадя на „Ню Йорк Таймс“.
— Това няма да ги спре. Чу какво каза президентът за китайците. Това е нова надпревара във въоръжаването.
Мелиса поклати глава.
— Започнат ли да правят „умни“ оръжия, това ще е краят. Или ще се самоунищожим, или машините ще поемат контрола и ще унищожат нас. Това е някаква идиотска комбинация между ХАЛ и „Бойна звезда «Галактика»“.
— Колко време ще им отнеме да създадат нова програма от типа на Дороти? — попита Форд.
Мелиса се замисли.
— Е, аз все още разполагам с онзи мой малък трик. И възнамерявам да го запазя в тайна. Без него ще се провалят.
Форд замълча, после каза:
— Мога ли да те попитам какъв е той?
Тя го изгледа. Дълго.
— Не знам защо го правя, но ще ти кажа. Може би защото зная, че мога да ти имам доверие.
— Благодаря.
— Трикът е… в съня.
— В съня?
— Всеки организъм, който има нервна система, се нуждае от сън. Кръглият червей, който има едва триста неврона, се нуждае от сън. Охлювът, който има десет хиляди неврона, се нуждае от сън. Човекът, който има сто милиарда неврона, се нуждае от сън. Защо?
— Не зная.
— Никой не знае. Но явно сънят е от фундаментално значение за живота. Всяка мрежа от неврони, колкото и малка да е, трябва периодично да изпада в състояние на покой, на сън. Това е номерът. Оказа се, че сънят е от фундаментално значение и за сложния изкуствен интелект. Дороти даваше грешки, докато не програмирах възможност за сън. Тя беше самоусъвършенстваща се програма, но се нуждаеше от периоди на сън, докато кодът й се модифицира и преструктурира. А докато кодът се самомодифицираше, тя сънуваше. Това бе неочакван за мен страничен ефект, който обаче се оказа ключов. Преминаването в състояние на сън, както и самите сънища, са двата ключа към всяка самоусъвършенстваща се програма от типа изкуствен интелект. В противен случай тя ще дефектира.
Читать дальше