Глава отдела безопасности ИИ в Anthropic уволился, поняв, что «мир в опасности»Дмитрий Воронин
Фото: insta_photos / Shutterstock / Fotodom
Глава исследовательского подразделения по безопасности искусственного интеллекта (ИИ) в недавно оцененной в 350 миллиардов долларов компании Anthropic Мринанк Шарма сообщил в письме коллегам, что «мир в опасности», и уволился, написав, что решил заняться изучением поэзии и «посвятить себя практике смелой речи». Его послание процитировал портал Business Insider.
«Мир в опасности. И не только из-за ИИ или биологического оружия, но и из-за целой серии взаимосвязанных кризисов, разворачивающихся прямо сейчас. Кажется, мы приближаемся к порогу, когда наша мудрость должна расти в равной мере с нашей способностью влиять на мир, иначе мы столкнемся с последствиями», — поделился испугавшийся за судьбу мира специалист. Он отметил, что добился в компании всего, чего хотел, включая разбор причин «подхалимства ИИ» и работу над проектом, «посвященным пониманию того, как ИИ-помощники могут сделать нас менее человечными или исказить нашу человечность».
«Я чувствую призвание к написанию текстов, которые обращаются к тому месту, где мы находимся, и которые ставят поэтическую истину рядом с научной истиной как одинаково допустимые способы познания», — написал Шарма, рассуждая о своих дальнейших планах. Также он пообещал «создать пространство», чтобы отбросить «сковывавшие» его до этого структуры и процитировал свое любимое стихотворение Уильяма Стаффорда.
Ранее «Лента.ру» писала о том, как опасения ведущих американских программистов за свои рабочие места в связи со стремительным развитием ИИ переросли в их среде в ожидания конца мира и вылились в прожигание жизни из-за неверия в будущее.
Материалы по теме:
«Бумеранг увольнений»Работники по всему миру лишились должностей из-за ИИ. Почему их позвали обратно?16 ноября 2025
«Специалистов не хватает катастрофически»Бизнес столкнулся с дефицитом кадров в сфере ИИ. Как эту проблему будут решать в России?5 февраля 2026
Сама Anthropic — американская технологическая компания в сфере искусственного интеллекта, основанная бывшими сотрудниками OpenAI, создавшими семейство больших языковых моделей под общим названием Claude, — на прошлой неделе презентовала Claude Opus 4.6 — обновленную ИИ-модель, предназначенную для повышения офисной производительности и эффективности программирования. Также, как писала The Wall Street Journal, Anthropic, отпустив решившего заняться поэзией сотрудника, взяла в штат доктора философии Аманду Аскелл, которая изучает схемы рассуждения чат-бота Claude и разговаривает с ним, формируя его личность.
Философ рассказала журналистам о важности признания того, что в моделях ИИ «есть этот человекоподобный элемент» и «у них неизбежно сформируется чувство самости». Аскелл, сравнивающая свою работу с воспитанием ребенка, также сообщила, что учит Claude распознавать разницу между правильным и неправильным и считывать тонкие сигналы, наделяя его уникальными чертами личности.



