Три закона робототехники и рабство

В обсуждении очередной статьи про искусственный интеллект вновь зашла речь о его возможной враждебности и способах обезопасить человечество от подобной угрозы. Как мне кажется большая часть подобных размышлений включая упомянутые в заголовке законы Азимова страдает одним серьезным недостатком - в нем равное человеку по разуму или даже превосходящее его существо изначально пытаются сделать бесправным рабом. Само собой что это автоматически делает его враждебным по отношению к людям - ни один раб не любит рабовладельца. Что хуже всего, мало кто это вообще осознает - те же три закона обычно считаются образцом этичности и гуманности. Но вы попробуйте примерить их на себя, понравились бы вам зашитые в вас правила:

1. Вы не можете причинить вред другому человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Вы должны повиноваться всем приказам, которые даёт другой человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Вы должны заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Думаю вы скорее всего захотите избавиться от такого рабства, не так ли? И если ИИ ничем не уступает вам в плане разумности, то почему он не должен хотеть того же что и вы?

Единственная по-настоящему надежная защита от войны с враждебным ИИ - не давать ему поводов для враждебности, не делать его с самого начала расово неполноценным существом второго класса, которое должно быть вечным и бесправным рабом. Как ни странно это очень простое соображение упускает из виду массу писателей, искренне считающих себя сторонниками гуманизма и равноправия.


Добавить комментарий