Дмитрий (jerald) wrote,
Дмитрий
jerald


Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

Интересно, если робот увидит человека с сигаретой во рту, что он должен будет делать? Забирать у него сигарету? А если человек занимается каким-нибудь экстремальным видом спорта, где высока вероятность сломать себе руку или свернуть шею? Само по себе вождение автомобиля уже подразумевает некую вероятность попасть в аварию…

Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

К какому выводу должен будет прийти робот, если он задастся целью исключить все вероятности опасности для людей? Не к тому ли самому, к которому пришла ВИКИ в фильме «Я робот», что свобода воли людей является главным источником опасности для них самих. А раз первый Закон является приоритетным над вторым…

«Истинная любовь»

То же самое, представьте, что Скайнет задался целью раз и навсегда решить для людей проблему поиска и выбора пары. Что является для многих одиноких людей самым главным препятствием на пути достижения этой цели? Свобода выбора! То есть, я хотел сказать свобода не выбора.

Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

А что, если робот решил, что от его безопасности зависит выполнение Первого закона? Может, тогда можно пожертвовать несколькими людьми ради общей безопасности? Несколькими, это сколько? Десять? Сотня? Миллион? Азимов, по видимому, следовал той же логике, что и я , поэтому, в 1986-м году в романе «Роботы и Империя» он предложил Нулевой Закон:

0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества.

И как это можно доказать? И кому робот должен это доказывать? В своих рассказах Азимов неоднократно обыгрывал тему трёх законов с самых разных сторон. В общем, выходи так: Если постоянно вносить поправки в программу робота, то мы невольно придём к человеку. То есть, ко всему разнообразию человеческих характеров. Моделирование интеллекта робота – есть не что иное, как моделирование личности человека! Терминатор действовал по программе, запрограммировали убивать – убивал, запрограммировали защищать – защищал. Разве человека нельзя запрограммировать убивать? Чем человек отличается от робота?
Subscribe

  • (no subject)

    Переговоры Молдовы с Газпромом. - По чём газ? - 790? - У меня столько нет. - Проходи мимо. - У меня народ замёрзнет. - Иди, говорю, товар не…

  • (no subject)

    Зеленский, похоже, тупо ещё не понимает в какую передрягу он попал. Нельзя просто сказать, "продавайте дешевле", Венесуэла не даст соврать. Либо у…

  • (no subject)

    СМИ по прежнему муссируют тему ковида. Когда люди, выздоровившие от ковида, увидят платёжки за отопление, они горько пожалеют что не умерли.

  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments