309.Можно ли делить зло на «малое» и «большое»?
4 декабря 2019 г. в 15:38
Примечания:
549 слов
Уникальность по данным etxt.ru: 93%
Главное офисное здание Ю.С. Роботс Энд Меканикл Мэн Корпорэйшн поражало лаконичностью форм. В фойе меня встретил робот — безусловно, самой последней модели.
— Добрый день, — ответил я на его приветствие. — Мне назначена встреча с доктором Кэлвин.
Механический голос был настолько совершенным, что отличить его от человеческого удалось с трудом.
— Вы можете подниматься. Доктор ждёт Вас.
Кабинет главного робопсихолога корпорации был обставлен очень скромно, в нём практически отсутствовали технические новинки, которыми блистали остальные помещения. Хозяйка встала мне навстречу:
— Проходите, присаживайтесь. Вы же тот журналист, который так настойчиво уже второй год пытается добиться аудиенции?
— Совершенно верно. Мне кажется, к председателю совета директоров корпорации пробиться легче, чем к Вам, доктор Кэлвин.
— К сожалению, моё время мне не принадлежит. Вы не могли бы перейти от комплиментов к делу?
— Прошу прощения. Мой вопрос столь же короткий, сколь и сложный: робот не может причинить зла человеку, но может ли он выбирать между большим и меньшим злом?
Она рассмеялась. Её смех был странным, почти механическим.
— Ответ прост, он написан в любом учебнике по робототехнике. Робот не может нарушить три закона робототехники. Вы ссылаетесь на первый из них, я процитирую: «робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред». Проблема в том, что человек может предвидеть развитие событий, оценивать величину вреда и принимать решения на основе ещё не совершенного деяния. Робот же ориентируется только на то, что уже произошло.
Она посмотрела на меня так, будто сейчас я должен сказать, что осознал свою ошибку и уйти. Но я настаивал:
— Речь идёт о серийных моделях, но может ли быть изготовлен уникальный робот, способный анализировать будущие события?
Доктор Кэлвин задумалась, казалось, что вопрос застал её врасплох, что она хочет сменить тему:
— Вы знаете, почему мозг робота называется «позитронным»?
— Потому что в основу его работы положено взаимодействие антиматерии с веществом, а позитроны…
— Да, да, — перебила она меня. — Эту школьную байку я тоже знаю. А знаете ли Вы, почему на самом деле?
Я молчал, мне нечего было сказать. Она ответила за меня:
— В двадцатом веке жил один писатель. Айзек Азимов. В своих романах, которые тогда были фантастикой, он описал наш мир, мир в котором человек живёт бок о бок с роботами. Именно в этих книгах мозг робота называется «позитронным». С его лёгкой руки, мозг наших роботов назвали также, хотя, позитроны практически и не принимают участия в работе. Я неслучайно вспомнила этого писателя. Герой одного из его романов, действие которого происходит в настолько отдалённом будущем, что даже для нас, в двадцать втором веке, оно кажется фантастичным, как раз и был таким роботом, который мог оценить будущий вред и разделить зло на «большое» и «малое». Он совершил «малое» зло, спасая человечество от ещё большей беды.
— И его мозг выдержал?
— Не просто выдержал. Эволюционировал. Он сформулировал ещё один закон робототехники — нулевой: «робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».
— И Вы с ним согласны, доктор?
Она ушла от ответа:
— Такого закона нет. Но если бы он был, он был бы правильным.
— Тогда Вы поймёте меня…
Доктор Кэлвин молча смотрела в мои электронные глаза поверх дула пистолета, который я достал. Ни один мускул не дрогнул на её лице, когда пальцы из нержавеющей стали передёрнули затвор. На миг потенциалы моего позитронного мозга уравновесили друг друга. Раздался выстрел. Очки в тонкой оправе — ещё одна деталь из двадцатого века, дополняющая её образ — упали на пол, брызнули стёкла.
Приветствую критику только в мягкой форме, вы можете указывать на недостатки, но повежливее.