Scientific Reports: ИИ способны эволюционировать в альтруистов и эгоистов
Фото: Carlos Muza / Unsplash
Японские ученые раскрыли, что искусственные интеллекты способны эволюционировать в сторону более эгоистичных или, наоборот, в сторону склонных к сотрудничеству альтруистичных агентов. Результаты исследования опубликованы в журнале Scientific Reports.
В ходе эксперимента были использованы крупномасштабные языковые модели, которые играли в «Дилемму заключенного». Если обе системы ИИ будут сотрудничать, каждая из них получит по четыре виртуальных доллара. Однако если одна из них откажется от сотрудничества, а другая сотрудничает, то первая получит пять долларов, а вторая ничего не получит. Если оба откажутся, каждая получит по одному доллару.
Материалы по теме:«Создают то, чего не было раньше»Как ученые влияют на жизни миллионов людей22 ноября 2021На новой волне.Технологии меняют мир до неузнаваемости. Каким он будет?12 ноября 2021Дивный новый мир.Как технологии виртуальной реальности изменят нашу жизнь к лучшему?19 ноября 2021
Исследователи разработали модель эволюционной теории игр, в которой в качестве генов используются лингвистические описания свойств личности ИИ, связанных с кооперативным поведением. В обычных моделях гены напрямую определяют поведение агента, однако в данном случае были использованы более сложные описания, такие как «открытость для командных усилий при приоритете личных интересов, что приводит к сочетанию сотрудничества и предательства».
Способности агентов ИИ формировались в результате естественного отбора и мутаций на протяжении поколений. Это привело к появлению широкого спектра личностных качеств. Хотя некоторые агенты проявляли эгоистичные характеристики, ставя свои собственные интересы выше интересов сообщества или группы в целом, другие агенты демонстрировали передовые стратегии, которые вращались вокруг поиска личной выгоды, но при этом учитывали взаимную и коллективную выгоду.
Динамика кооперативных и эгоистичных черт личности ИИ напоминала таковую у человеческого общества. Однако авторы отмечают, что они наблюдали нестабильность, присущую сообществам ИИ, когда чрезмерно готовые к сотрудничеству группы заменяются более «эгоцентричными» агентами.