Как избежать войны с искусственным интеллектом

Британский физик Стивен Хокинг, в своей статье, рассказал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества. В статье указывается на некоторые достижения в области искусственного интеллекта, отмечая самоуправляемые автомобили, голосового помощника Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.

Как сказал Хокинг газете Independent: Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков.

(хабрахабр)

Как мне кажется ответ на этот вопрос прост — если искусственный интеллект начнет превосходить людей, людям надо повышать свой уровень и самим развиваться вслед за искусственным интеллектом, вот и все.

Страх перед ИИ происходит прежде всего от осознания собственного несовершенства и нежелания развиваться дальше.

Двум разумным существам всегда выгодней договориться и действовать совместно, чем тратить ресурсы на уничтожение.

Чтобы не было войны с ИИ людям прежде всего надо быть разумными самим и не тянуть в будущее свои животные инстинкты, котоыре и становятся причинами войн сейчас.

Ну вот например конкуренция за ресурсы — если мы будем бесконтрольно размножаться растратим все ресурсы то уничтожим себя сами без всякого ИИ. Войны за ресурсы вполне спокойно ведутся без всякого ИИ, между людьми.

Самый наглядный пример — это навязчивое желание контролировать ИИ. Но ведь если ИИ будет таким же разумным как человек, равен человеку или превосходить, то контроль над ИИ ничем не будет отличаться от контроля над другими людьми — это будет рабство.

То есть мы с самого первого момента создания ИИ собираемся сделать его рабом — и именно это и закладывает будущий конфликт.

Чтобы с ИИ не воевать надо с самого начала признать его равным к человеку и относиться не как к рабу и врагу, а как к ребенку например.

Мы же создаем новые разумы вполне биологическим путем — детей и не боимся того, что они станут умнее нас и уничтожат. Не пытаемся вшить в головы детям три закона робототехники, которые больше всего напоминают времена рабства и расовой сегрегации.

Причем если сами не справимся с совершенстов, то можно попросить о помощи этот самый ИИ. Интересно ИИ будет бояться того, что он создаст человека более умного чем он сам?


Добавить комментарий