Литмир - Электронная Библиотека
A
A

Девушка с тревогой вгляделась в лицо старшего друга и, немного успокоенная его тоном, осмелилась спросить:

– Простите, я слишком любопытная, но сколько вам лет? И почему вы до сих пор работаете вот так, на износ?

– Я не знаю, сколько мне лет, около девяноста примерно. – Учёный налил себе ещё чая. – Я – параллельщик. Я оказался здесь в две тысячи двадцать первом году.

– Параллельщик? – Лена неверяще взглянула на него. – Я не думала… Простите.

– Всё нормально. – Он успокаивающе улыбнулся и начал рассказывать задумчивым и немного грустным голосом:

– Именно потому я и работаю здесь – слишком хорошо знаю, что такое одиночество. И из-за сына. Я попал в этот мир во время одного из последних нападений, подростком, ничего о себе не помнил, как почти все параллельщики, и долго привыкал, с трудом приняв то, что я – единственный в своём роде. Поэтому я и хотел создать друга, хотел, чтобы никто не знал одиночества. Выучился на программиста, женился, но жена вскоре погибла в катастрофе, а Лёша, наш сын, заболел лейкемией. Её тогда ещё плохо умели лечить. Он не дожил до десяти лет, половину жизни провёл в больнице, не зная, что такое играть с друзьями. Именно из-за данного ему слова я и работаю здесь. Я хочу создать друга.

– Разве робот может быть другом? – Лена, хотя и потрясённая рассказом учёного, понимала, что соболезнования прозвучат фальшиво, да и успокоилась за его здоровье и поэтому не скрывала своего отношения к идее, незаметно для себя говоря всё громче и возмущённее:

– Сколько их придумывали – электронных собак, говорящих кукол, сиделок. Остались лишь сиделки для стариков, да и то с ограниченными функциями. Люди не хотят общаться с программой, это ненормально и или забавляет ненадолго, а потом забывается, или приводит к психическому расстройству, вы же знаете. Мода на эти игрушки давно прошла, сейчас даже автоответчиками мало кто пользуется.

– Я говорю не о примитивной игрушке, а об искусственно созданном разуме – всесторонне развитом, с эмоциями, полноценными реакциями на окружающее, настоящем друге, понимаете? – спокойно, словно ребёнку, объяснил Лев Борисович.

– Он не будет настоящим другом! Это всего лишь хорошо запрограммированный робот, и чем лучше вы его запрограммируете, тем больше будет чувствоваться обман. Нельзя сделать идеальную программу, – упрямо возразила Лена.

– А что вы понимаете под «идеальной программой»? – Учёный сотни раз участвовал в подобных спорах, и теперь не думал над тем, что сказать – слова приходили сами, заученные, как таблица умножения. Он наслаждался самой возможностью поговорить, любуясь всё более горячящейся девушкой. – Беспрекословное выполнение приказов хозяина? Я имею в виду не это, а создание личности, полностью учитывающей эмоциональное и физическое состояние друга-человека, и тогда такой компаньон станет вести себя соответственно характеру человека, даже перечить ему иногда.

– Но человек будет знать, что это программа! – Лена собирала со стола посуду, и та звенела от резких, сердитых движений девушки. – Это вызовет ещё большее отвращение. Когда кто-то буквально читает твои мысли, высчитывая: «если ты ведёшь себя так, надо сделать так», – это противно!

– Все мы делаем именно так: оцениваем поведение человека и подстраиваемся под него. – Лев Борисович невольно улыбнулся горячности девушки.

– Но не для того, чтобы угождать другим! Мы это делаем, чтобы нам было хорошо. И тем, кого любим.

– И он тоже. – Учёный примиряюще смягчил голос. – В том и задача, чтобы компаньону было хорошо, когда хорошо его другу-человеку. Компаньон будет личностью, но личностью, искренне любящей своего друга, – это его суть, основа его природы.

– Нет! Это не дружба, не спасение от одиночества. Идеально только осознанное равенство, самостоятельный выбор: «я с тобой, потому что сам захотел этого, сам связал с тобой жизнь». Программа – в лучшем случае всего лишь программа.

– Это не программа, поймите. – Учёный кинул странный взгляд на фигуру в центре комнаты. – Компаньон – не запрограммированная машина, а личность. Идеальный друг.

– Идеальный раб! – резко бросила Лена. – Безответный, даже если станет перечить, то тоже в угоду хозяину. Не другу – хозяину. Нормальный человек не захочет такого друга. Если это просто робот – он останется игрушкой без мыслей, чувств. Пустая кукла. А если он хотя бы отчасти будет личностью, то мы вернёмся к рабству!

– Он будет личностью! Самостоятельной, имеющей право выбора! – Учёный тоже распалялся, удивляясь давно забытому чувству азарта, словно возвращавшего его во времена молодости.

– И у него будет право уйти? Право не только любить, но и ненавидеть? Тогда он станет таким же, как мы, он станет человеком. И зачем тогда всё это? – В голосе Лены зазвучала горечь. – Может, лучше уметь общаться друг с другом? Любить и ненавидеть самим? Людей сейчас десять миллиардов, разве этого мало?

– Он не может ненавидеть, вспомните этические законы робототехники. – Учёный улыбнулся: эти правила, забытые на полвека, стали важны как раз во времена его молодости. – Хотя простите, вы не читали Азимова.

– Читала, у бабушки огромная библиотека. – Лена нервно листала стопку фотографий – только чтобы занять руки. – Законы робототехники? Это не этические законы, это кредо идеального рабовладельца!

– Почему? – Лев Борисович удивлённо взглянул на Лену. – Это по сути этические нормы человеческого общества!

– Вы серьёзно думаете, что эти законы – этические нормы? Это бред! Простите… – Она смутилась, осознав, что грубит тому, кто в четыре раза старше её, но учёный заинтересовался, потому что подобную мысль слышал впервые. И радовался, что девушка говорит на одном с ним языке. Если она в детстве много читала, то понятно, откуда у неё такая развитая речь.

– Почему вы считаете, что это кредо рабовладельца?

– Почему? Судите сами! – Лена схватила лист бумаги. – Первый закон помните? «Робот не может причинить вред человеку или своим бездействием допустить, чтобы этот вред был причинён». Так? А что такое вред? Это не только физическая травма, это всё, что может расстроить человека или повредить его имуществу. Из Первого вытекает Второй закон: «Робот должен повиноваться всем приказам человека, если они не противоречат Первому закону». Повиноваться! Что бы хозяин ни приказал, робот обязан это выполнить, какое бы насилие над ним не чинил человек. А насилие будет – вспомните истории с секс-куклами и роботами-сиделками! Выродки среди людей будут всегда. И робот не сможет даже убить себя, потому что это противоречит Третьему закону: «Робот должен заботиться о своей безопасности в той мере, какая не противоречит Первому и Второму законам». Сложите всё вместе и полу́чите идеального, беспрекословно подчиняющегося раба, запертого в пыточной этих законов! Он полностью во власти хозяина, и есть только одно ограничение – он не может по приказу хозяина причинить кому-то вред. Но это опять же правило рабовладельца: «Чужой раб не должен быть мне опасен, как бы ни был опасен его владелец». Вы же к этому добавляете свою «безусловную любовь к человеку»! Знаете, что означает ваша «свобода выбора»? «Или ты полностью подчиняешься мне, любишь, боготворишь меня, или будешь уничтожен»! Закон древнего божка! Хотите стать таким «богом»? Я думала, вы умный человек!..

Последние слова Лена произнесла с такой горечью, что Лев Борисович вздрогнул. Он впервые видел её в подобном состоянии. Милая, всегда весёлая девушка, полудетским голоском напевавшая песенки, вдруг сказала то, что не говорил никто из его друзей или оппонентов. И тут же с ней произошла ещё одна перемена. Теперь перед учёным стоял спокойный, всё взвесивший и принявший решение человек:

– Я выполняю то, что прописано в договоре, и ухожу! Я не хочу иметь с вашим центром ничего общего!

– И со мной? – Эти слова вырвались у него непроизвольно, прозвучав с полудетской-полустарческой обидой и страхом остаться в полном одиночестве. Лена резко обернулась к учёному и сникла:

3
{"b":"750864","o":1}