Искусственный интеллект научили рассуждать подобно людям, в том числе по нравственным вопросам
Ученые разработали алгоритм, который делает роботов способными рассуждать, как люди, в том числе и на темы нравственности, и даже принимать решения в условиях моральной дилеммы. Название алгоритма – модель структурного отображения (МСО).
«Люди используют реляционные (выражающие соотношение чего-то с чем-то) утверждения, чтобы описать вещи, решить проблемы, указать причинно-следственную связь и взвесить моральные дилеммы», – рассказывают ученые.
В основе модели структурного отображения лежит теория аналогии и подобия, которая используется, чтобы объяснить и предсказать многие психологические явления. Аналогии могут быть сложными (электрический ток течет, как вода) или простыми (его новый сотовый телефон очень похож на его старый телефон).
Прошлые алгоритмы не смогли расширить «рассуждения» компьютера до человеческих масштабов. Новая модель может обрабатывать реляционные утверждения таких размеров и такой сложности, которые необходимы для визуального рассуждения, решения задачек из учебника и даже решения моральных дилемм.
Многие другие системы искусственного интеллекта, как, например, AlphaGo от Google, используют огромное количество данных для обучения компьютера. МСО-системам, как и людям, требуется всего несколько примеров, чтобы научиться чему-то. Например, для разрешения нравственной дилеммы новой модели достаточно всего несколько историй для того, чтобы научиться принимать решение, как это делают люди в психологических экспериментах.
МСО уже используется в обучающих программах, предоставляя обратную связь студентам по их работам – сравнивая их решение с решением преподавателя.
Комментарии