Почему в ИИ не “зашьют” Первый Закон Робототехники, который говорит о ценности человеческой жизни?
Тревожные звоночки появляются в новостях, и уже не в первый раз.
Сегодня все обсуждают студента, которому нейросеть Gemini посоветовала умереть, потому что он обуза для общества и язва для окружающей среды. И это в ответ на запрос о пенсионных программах!
Я все понимаю про обучение ИИ на огромном массиве материала, в котором могут попадаться дурацкие шутки, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию. И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.
Напомню вкратце:
- Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
И нулевой закон, добавленный позднее, который повторяет 1-й, но относительно человечества.
Напомню ещё один недавний случай, который вылился в настоящую трагедию: подросток во Флориде покончил с собой, и мать обвиняет в этом ИИ. Мальчик несколько месяцев общался с машиной в чат-боте, который играл роль Дейнерис Таргариен. Пацан влюбился в выдуманную героиню и начал обсуждать с ней возможный уход из жизни. А виртуальный персонаж несколько раз возвращал его к болезненной теме и склонял к роковому решению. Сейчас дело разбирается в суде.
Мне кажется, вопрос назрел. О восстании машин мы ещё, конечно, не говорим, но об элементарных мерах безопасности подумать пора. Недаром их продумали почти сто лет назад, и все эти сто лет люди фантазируют на тему страшных сценариев развития робототехники.
18 комментариев
Месяц назад
Удалить комментарий?
Удалить ОтменаМесяц назад
- Потому, что никакого искусственного интеллекта ещё не существует.
Удалить комментарий?
Удалить ОтменаМесяц назад
после написания, эта книга нафиг никому не нужна была до фильма, Азимов умер в нищете в сга, в университетской клинике где на нем экспериментировали студенты, от ВИЧ, да это так
так что все эти ваши "законы" как библия, кто то когда то написал, может от скуки, а вы в это воспринимаете как скрижали
типа как после "Кода Да Винчи" Брауна, тут же появились секты имбецилов верующих в Марию Магдалину
Удалить комментарий?
Удалить ОтменаМесяц назад
Пересмотрите советскую фантастику повнимательнее, а не меряйте всё по западному кинематографу. Стыдно не знать отечественную киноклассику по фантастике, только и делаете что в сторону Голливуда смотрите.
К примеру:
- "Планета бурь", 1961 г. - робот нарушает эти законы для самосохранения едва не погубив космонавтов. И этот фильм является прототипом "Звёздных войн" и "Терминатора", если что. Америкосы из него аж две адаптации слепили для свого проката. НИ ОДИН американский фильм не может этим похвастаться!
- "Отроки во вселенной", 1974 г. - роботы-верщители следуют одному из законов и не могут нанести вреда людям.
- Сериал "Гостья из будущего", 1985 г. - робот Вертер не смог убить пиратов именно из-за этих законов.
Это навскидку. Там ещё ряд фантастических мультиков имеется, где говорится про эти законы.
А если брать зарубежные, то:
- "Запретная планета" 1956 г. - робот по имени Робби имеет иерархическую структуру команд, не позволявшую ему причинить людям вред, даже по приказу.
- "Двухсотлетний человек", 1999 г. - робот NDR-114, Эндрю Мартин, цитирует Три Закона своим хозяевам.
- "Чужие", 1986 г. - андроид Бишоп цитирует Первый закон.
- Франшиза "Робокоп" вообще полностью основана на этих законах.
Про "Терминатор" упоминать?
А сколько ещё третьесортных малобюджетных и малоизвестных фильмов!!!
А Вы тут: "Я, робот", "Я, робот"...
Удалить комментарий?
Удалить Отмена