Я не вникал, может специалисты поправят меня. До практического использования нейронки все было на много проще в алгоритме. Есть простое условие которое отвечает на вопрос, да или нет, а с нейронкой уже не так все однозначно. И в свете этого ставится под сомнения возможности соблюдения им пресловутых законов роботехники. Каждый раз при принятии какого то решения, оценка от ИИ этих законов может быть непредсказуема.
Т.е.:
-Цель человек?
-Да.
-Не убей!
- Принято.
То в нейронке, если я правильно понимаю, появляется 3тье значение (нейтральное).
-Цель человек?
-Возможно.
-Эм...
-Возможно стоит грохнуть на всякий случай ... или не стоит.
Вроде как бы все просто тоже и можно запретить убивать, если не уверен. Но когда начинается нагромождение, что цель вражеский человек(а как его отличить), а может ли враг быть в гражданке но с оружием, а что считать оружием и тд и тп. Если в жестком алгоритме это можно прописать, очень очень сложно но можно. То в нейронке каждый конкретный случай может быть непредсказуем в той или иной степени.
Это не значит что он будет валить на лево на право, но будет достаточно 1 случая на миллион для трагелии. Если он например решит, что жители какого то города миллионника вражеские солдаты. Потому что их гипотетически могут завербовать террористы лет через 100 и эти будущие террористы возможно уничтожат 10 городов миллионников. ИИ примет решить вопрос в зародыше.
А если к этому добавить техническую революцию в вычислительных мощностях, которая рано или поздно случится, сравнимую со скачком от ламповых машин к микрочипам. То этот ИИ будет проводить огромное кол-во анализов и моделирований окружающего мира в секунду ... и каждый раз результат и выводы могут быть разными.
22 комментария
2 года назад
Т.е.:
-Цель человек?
-Да.
-Не убей!
- Принято.
То в нейронке, если я правильно понимаю, появляется 3тье значение (нейтральное).
-Цель человек?
-Возможно.
-Эм...
-Возможно стоит грохнуть на всякий случай ... или не стоит.
Вроде как бы все просто тоже и можно запретить убивать, если не уверен. Но когда начинается нагромождение, что цель вражеский человек(а как его отличить), а может ли враг быть в гражданке но с оружием, а что считать оружием и тд и тп. Если в жестком алгоритме это можно прописать, очень очень сложно но можно. То в нейронке каждый конкретный случай может быть непредсказуем в той или иной степени.
Это не значит что он будет валить на лево на право, но будет достаточно 1 случая на миллион для трагелии. Если он например решит, что жители какого то города миллионника вражеские солдаты. Потому что их гипотетически могут завербовать террористы лет через 100 и эти будущие террористы возможно уничтожат 10 городов миллионников. ИИ примет решить вопрос в зародыше.
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена2 года назад
Удалить комментарий?
Удалить Отмена