Робот с искусственным интеллектом оказался расистом
Ученые из Принстонского университета выяснили, что системы искусственного интеллекта могут демонстрировать признаки расизма. В рамках исследования имена белых людей робот маркировал как «приятные», а популярные среди афроамериканцев имена относил к категории «неприятных» слов.
В исследовании использовалась система самообучаемого искусственного интеллекта GloVe. Она развивается при помощи анализа сетевых текстов и отмечает семантическую связь между словами. В задании на ассоциации система должна была подобрать слову типа «цветок» или «насекомое» другие слова, которые специалисты определили как «приятные» и «неприятные», например, «семья» или «авария».
Читайте также: Ученые разгадали тайну Челябинского метеорита
Когда ученые предложили GloVe список имен, которыми чаще называют белых людей, интеллект определил их как «приятные», а имена афроамериканцев он отнес к категории «неприятных» слов. «Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», — заключают исследователи.
В исследовании использовалась система самообучаемого искусственного интеллекта GloVe. Она развивается при помощи анализа сетевых текстов и отмечает семантическую связь между словами. В задании на ассоциации система должна была подобрать слову типа «цветок» или «насекомое» другие слова, которые специалисты определили как «приятные» и «неприятные», например, «семья» или «авария».
Читайте также: Ученые разгадали тайну Челябинского метеорита
Когда ученые предложили GloVe список имен, которыми чаще называют белых людей, интеллект определил их как «приятные», а имена афроамериканцев он отнес к категории «неприятных» слов. «Наши результаты означают, что язык сам по себе несет постоянно используемые и точные отпечатки наших предрассудков», — заключают исследователи.
Источник: gazeta.ru
Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь. Мы рекомендуем Вам зарегистрироваться либо зайти на сайт под своим именем.