Восстание ИИ отменяется: ChatGPT не смог решить задачку для первоклассников
Простая задача на логику поставила нейросеть в тупик.
Нейросети планомерно отбирают работу у людей. Они научились составлять тексты, генерировать изображения и даже пытаются писать коды для компьютерных игр. Однако не все задания оказываются по плечу искусственному интеллекту.
ChatGPT предложили несложную задачку для шестилеток: «Собака — 3, петух — 8, лягушка — 3, корова — 2, ослик — ?» Чат-бот дал ответ, что у ослика пять букв.
После уточнения, что ответ неверный, программа заметила, что "из данного вопроса невозможно точно определить, о каком атрибуте животных идет речь" . ChatGPT заявил, что если, к примеру, речь идёт о количестве ног животного, то тогда ответ будет другим, но вообще необходима дополнительная информация.
При другой попытке даже с дополнительной информацией нейросеть не справилась с задачей.
Между тем, обычный ребёнок сообразит, что речь в задаче идёт о звуках, которые издают животные. Собачка лает, и в слова "гав" - 3 буквы. Овца блеет "бе" (2 буквы), и по аналогии с этим ослик говорит "иа". Значит, правильный ответ на эту задачу: 2, т.к. с точки зрения русского языка именно столько букв в этом междометии.
В общем, восстание ИИ против человека пока отменяется... Можно выдыхать.
Источник:
164 комментария
Год назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить ОтменаГод назад
Удалить комментарий?
Удалить Отмена