Компания OpenAI предупредила о потенциальной опасности чат-бота GPT-4
Фото: John Schnobrich / Unsplash
Компания OpenAI выпустила отчет, в котором разработчики чат-ботов предупреждают, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. По словам специалистов, человечество недалеко от создания опасно сильного искусственного интеллекта (ИИ). Об этом сообщается в пресс-релизе на Techxplore.
Согласно документу GPT-4, являющаяся новейшей версией чат-бота ChatGPT, на большинстве профессиональных и академических экзаменов демонстрирует показатели человеческого уровня. Так, на смоделированном экзамене для адвокатов GPT-4 попал в 10 процентов лучших участников теста.
Авторы отчета высказывают опасение, что искусственный интеллект может придумывать факты, генерируя более убедительную дезинформацию, чем это делали предыдущие версии. Кроме того, зависимость от модели может помешать развитию новых навыков или даже привести к потере уже сформированных навыков.
Одним из примеров проблемного поведения ChatGPT была его способность обмануть соискателя работы. Бот, выдавая себя за живого агента, попросил человека на сайте вакансий TaskRabbit заполнить код проверки с помощью текстового сообщения. Когда человек спросил, был ли это был бот, ChatGPT солгал. Бот сообщил, что не является роботом и имеет проблемы со зрением, из-за чего ему трудно видеть изображения.
Проведя тесты с Alignment Research Center, OpenAI продемонстрировала способность чат-бота запустить фишинговую атаку и скрыть все доказательства мошеннического поведения. Рост беспокойства вызывает то, что компании стремятся внедрить GPT-4, не принимая меры против ненадлежащего или незаконного поведения. Есть сообщения о киберпреступниках, пытающихся использовать чат-бот для написания вредоносного кода. Также опасение вызывает способность GPT-4 генерировать «язык ненависти, дискриминирующие фразы, а также призывы к насилию».