Агент Смит

иллюстрации:
ваня татаринов
В апреле 2025 года генеральный директор OpenAI Сэм Альтман сходил на интервью в рамках конференции TED2025. Крис Андерсон, глава самого известного лектория мира, спросил Альтмана о так называемых ИИ-агентах. Вопрос Андерсона начинался со слов: «Это невероятная сила, но это — немного страшно». В чем эта невероятность и почему многим страшно даже думать про ИИ-агентов? Разобрались вместе с экспертами, которые создают ИИ-агентов и пытаются их контролировать.
Столпы агентуры
Бум нейросетевых помощников начался в конце 2022 года, когда ChatGPT вышла на рынок. За неполные три года искусственный интеллект стал частью повседневности. Корпорации интегрировали ИИ в «умных помощников», и Алиса научилась не только ставить музыку, но и рассказывать сгенерированные сказки, а Siri — давать ответы на любые вопросы, подключаясь к ChatGPT.
Это «умные ассистенты»: любой запрос они возвращают обратно, чтобы дождаться новых указаний. ИИ-агенты — следующая ступень эволюции — умеют обходиться без сопровождения: они решают комплексные задачи, не возвращаясь после каждого этапа к заказчику с вопросом «Я ведь делаю то, что вам нужно?».
«“Агент” звучит как титул на визитке у Джеймса Бонда, а не как скучное “бот”. В английском agent — тот, кто действует от вашего имени. Он не просто тараторит ответы, а выполняет поручения: роется в базе товаров, бронирует календарь, зовет курьера», — говорит сооснователь платформы для создания ИИ-ассистентов для бизнеса Arteus LLM, профессор НИУ ВШЭ и основатель Segmento, платформы для автоматизации рекламных размещений, Роман Нестер.
В классическом определении, которое сформулировали Стюарт Рассел и Питер Норвиг, агент — это сущность, воспринимающая окружение с помощью «сенсоров» и воздействующая на него через «исполнительные механизмы». Ключевое значение здесь — agency (самостоятельность, субъектность).


В октябре 2024 года конкурент OpenAI, компания Anthropic, показала, как ее модель Claude может буквально управлять компьютером пользователя. ИИ-агенту поручили создать простой сайт-визитку. В какой-то момент Claude открыл Claude, чтобы написать промпт в самого себя. Затем он запустил Visual Studio Code — популярный редактор кода — и написал в нем сайт. Затем с помощью терминала запустил тестовый веб-сервер, чтобы проверить, как сайт работает. Получилась простая, но рабочая страница из эпохи 1990-х. Без ошибок не обошлось, но когда тестировщик заметил баг, Claude снова открыл код, сам нашел проблему и пофиксил ее. К человеку он возвращался только на финальных этапах решения задачи.
Кажется, что ИИ-ассистент может так же. Отчасти это верно, потому что, по сути, ассистенты и агенты друг от друга мало чем отличаются. И то, и другое — языковые модели, которые понимают задачи, генерируют текст и принимают решения. Но у ИИ-агентов есть Workflow — сценарий использования разных инструментов, — а также Memory и Tools, которые дают доступ к разным программам, от Gmail до Adobe Photoshop, если это необходимо.
Сейчас ИИ-агенты умеют, например, разбирать почту, писать и публиковать посты в соцсетях, выставлять акты, формировать чеки для самозанятых, собирать продуктовые корзины в приложениях торговых сетей, бронировать билеты и отели (при наличии доступа к платежной карте), анализировать контент и составлять по нему конспекты.
Перспективные «джуны»
Виктория Баг, британская журналистка и автор WIRED, поручила ИИ-агенту Operator, доступному пользователям ChatGPT Pro (эта подписка стоит $200
в месяц), спланировать однодневную поездку в Брюгге. Агент формально справился, но действительно преуспел только в поиске необычного ресторана для ужина — во всех остальных случаях Виктории пришлось либо исправлять за агентом странные решения на этапе планирования, либо расплачиваться комфортом уже в самом путешествии.
Но представить будущее, где ИИ-агент станет тем самым замечательным другом, который продумает план поездки и посчитает бюджет, можно.
Предполагается даже, что ваш ИИ-агент, чтобы позвать в путешествие еще и вашего друга, будет обращаться не к нему напрямую, а к его ИИ-агенту. Тот уже проверит календарь и донесет ваше послание до владельца, сопроводив его информацией о свободных датах. Это теоретически возможно благодаря протоколу Agent2Agent (A2A), анонсированному Google в апреле 2025 года.
Компания Google вообще оптимистично смотрит на возможности общения ИИ-агентов друг с другом. В 2023 году ее специалисты вместе с учеными из Стэнфорда провели исследование, посвященное сложному социальному поведению у нейросетей. Оказалось, что ИИ-агенты, находящиеся в одной системе и действующие по общим правилам, могут генерировать изначально не предполагавшиеся связи. 25 персонажей, наделенных памятью и способностью к планированию, спонтанно начали взаимодействовать друг с другом: обмениваться информацией, формировать отношения и даже без прямого указания самостоятельно организовали вечеринку к Дню святого Валентина. Звучит одновременно и мило, и пугающе.
Но пока случаев «дружеского» общения ИИ-агентов друг с другом при реальном, а не смоделированном взаимодействии не фиксировалось. В рамках протокола A2A агенты ищут не приятелей, а подрядчиков для исполнения задач, на которые у них самих функционала не хватает.
Использовать ИИ-агентов, чтобы устроить личную жизнь, как это сделал в 2023 году российский айтишник, запрограммировавший нейросеть на выбор девушек и общение с ними, можно. Но для этого придется заморочиться с нетривиальным кодом. Пользователи с базовым знанием программирования чаще используют агентов для менеджмента простейших рутинных задач вроде планирования дня и бронирования тренировок в спортзале.
Зато для упрощения рабочих задач люди используют ИИ-агентов очень активно. 15 млн юзеров уже проверяют свой код через GitHub Copilot, который может дописывать программы за человека. А 90% компаний из рейтинга крупнейших мировых компаний Fortune 500 создали агентов через Copilot Studio от Microsoft. Корпорации автоматизируют процесс найма, отслеживание попыток взлома и мошеннических операций, оптимизируют логистику и так далее.
Это перспективные «стажеры». Рынок ИИ-решений в 2025 году быстро растет: по оценкам аналитиков, он уже достиг $7,6–7,9 млрд и может вырасти до $47–52 млрд к 2030 году. Среднегодовой темп роста — около 45%. А в долгосрочной перспективе, к 2034–2035 годам, рынок может вырасти до $216–236 млрд. McKinsey прогнозирует, что генеративный ИИ добавит до $4,4 трлн к мировой экономике ежегодно. А из отчета одной из крупнейших финансовых компаний мира JPMorgan следует, что ИИ-агенты уже помогли корпорации сэкономить много часов ручной работы и снизили риск ошибок.
ИИ-инженер, ex-CEO Maps.Me и ex-CMO Litres.com Евгений Лисовский прогнозирует, что к 2030 году «мы увидим появление систем, способных полностью взять на себя функции целых отделов, например, бухгалтерии, IT-поддержки или маркетинга — так называемых вертикальных AGI (Artificial General Intelligence — буквально общие генеративные интеллекты).
Но пока в корпорациях ИИ-агенты не принимают решения. В том числе потому, что пока склонны «врать»: как у всех ИИ, у них хромает причинно-следственное мышление. По словам Романа Нестера, это связано с тем, что ИИ просто не «проживал» опыт, необходимый для ответов на большинство сложных пользовательских запросов. Но это не единственная сложность.
«Сам
решу-у-у»
Возможности ИИ-агентов позволяют не автоматизировать рутинные процессы, а делегировать контроль над ними программам. Разница в том, что при делегировании агент не ждет указаний, с помощью каких инструментов ему решать задачу, — он берет и делает. Иными словами, возможно будущее, в котором человек вообще не будет контролировать рутинные процессы, например, расписание поездов: искусственный интеллект все проанализирует и примет решение, когда и куда направлять составы.
Пока отдать контроль ИИ нельзя хотя бы потому, что в юридическом поле нет единого подхода к правам и обязанностям нейросетей. Скорее всего, речь будет идти об ограниченной правоспособности, когда агент не выступает самостоятельным субъектом права, а от кого-то зависит.
Сейчас над законодательством в сфере ИИ параллельно работают в ЕС и Китае. И тот, и другой вариант вводят «уровни допуска», на каждом из которых у ИИ-агентов разные пакеты прав. Ни одна из систем не предполагает, что нейросети будут судить за ошибочные и вредные решения — ответственность распределяется между крупными компаниями, эксплуатирующими агентов, и поставщиками.
Каждому ИИ-агенту, возможно, будут назначать уровень автономности (от А0 до А5), который будет определять, какие задачи он может выполнять, какой потенциальный ущерб может нанести и в каких отраслях может применяться без контроля человека. Например, на объектах критической инфраструктуры и в медицине ИИ-агент даже с допуском А5 работать без человека все равно не сможет.
Евгений Лисовский считает, что в итоге ИИ-агенты смогут автоматически арендовать облачные вычислительные мощности или закупать данные через смарт-контракты, действуя в пределах выделенных бюджетов. Но пока таких прецедентов с участием ИИ-агентов в мировой практике нет.
Вернемся к вопросу о том, почему сейчас персональные ИИ-агенты популярностью не пользуются. Отчасти это происходит и потому, что они не могут реально распоряжаться деньгами владельцев: и сами пользователи против, и поставщики агентов не готовы брать на себя ответственность, если что-то пойдет не так. Повсеместное внедрение ИИ-агентов потребует новых проверок безопасности, в том числе внедрение систем «нулевого доверия», где любое подозрительное или неподписанное действие блокируется до ручного подтверждения. Пока сделать это повсеместно невозможно.
Часть для тех, кому очень хочется своего агента
Вариантов обзавестись своим «умным помощником» у обычного человека уже достаточно. И хотя функционал у ИИ-агента будет ограниченным, справиться, например, с разбором почты он сможет. Если вы HR или занимаетесь наймом, можете сгрузить на ИИ разбор резюме — так уже сделал один пользователь Reddit, который даже натренировал программу общаться с кандидатами по почте и давать им детализированный фидбэк.
Разобраться, что к чему, и проверить способности ИИ-агентов на практике можно, даже не зная сложных языков программирования. Сейчас активно развиваются low-code-конструкторы — в них практически не нужно создавать объемные строки кода, только переставлять визуальные блоки и иногда, очень редко, писать что-то самостоятельно. Да и в этом случае речь идет не о сложной разработке на C++, а о доступных новичкам скриптах на JavaScript. На YouTube плодятся уроки по созданию ИИ-агентов на n8n, Zapier, Make.com.
Но биг-тех-корпорации и стартапы уже озабочены тем, чтобы предложить покупателям готовые решения. Forbes пророчит, что поисковики заменит одна строка «Что нужно сделать?». «Если раньше вы щелкали по иконкам и тапали пальцем (что будет выглядеть дичью из 2030 года), то скоро будете шептать задачу “забронируй два билета и пришли счет” — и агент, вшитый прямо в Windows, Android или iOS, сделает все сам, — говорит Роман Нестер. — Microsoft уже называет это open agentic web и строит слой, где агенты принимают решения за пользователя. Google втачивает Gemini прямо в Chrome и Workspace, Apple — ChatGPT-плагины в iOS, пытаясь догнать коллег».

Евгений Лисовский предполагает, что смартфоны с полноценными экранами вообще потеряют популярность. Их вытеснят AR-очки и AI-амулеты — аккуратные кулоны без интерфейса, которым можно будет отдавать голосовые команды. Как Алиса, но умнее и на шее, а не на полке или в рюкзаке. Впрочем, если пользователю не понравится таскать ИИ на шее, он сможет купить вместо амулета наушники, например, от стартапа Natura Umana. Разработчики обещают, что умный помощник, встроенный в устройство и синхронизирующийся со смартфоном, заменит и личного секретаря, и энциклопедию. Но пока продукт Natura Umana нельзя купить — только встать в лист ожидания.
На российском рынке пока появился только один гаджет, по описанию претендующий на звание ИИ-агента, — rabbit r1. Его можно купить примерно за 20–24 тысячи рублей. У него есть собственная OS, работающая на основе искусственного интеллекта, минималистичный интерфейс и слабенькая камера. Хотя rabbit r1 заявлен как ИИ-агент, способный управлять разными приложениями вроде Spotify, Midjorney и прочих самостоятельно, с этими задачами он справляется посредственно (или вообще не справляется). А разряжается «коробочка» за 4 часа использования. Неудивительно, что 95% покупателей перестали пользоваться устройством.
Тревожное сотрудничество
Вместе с нейросетями появился термин «ИИ-тревожность» — состояние, обусловленное страхом перед искусственным интеллектом и его возможностями. Тем не менее, судя по опросу 2025 года, проведенному NTechLab и центром «Новая эра» среди 1200 россиян в возрасте от 18 до 35 лет, 88% молодежи используют ИИ в повседневной жизни и воспринимают его в основном позитивно — как «библиотеку знаний» и инструмент «освобождения от сложных задач».
В эту концепцию легко встраиваются ИИ-агенты, которые могут общаться со своими владельцами дружелюбно и человечно. Некоторые эксперты, например, старший научный сотрудник Microsoft, профессор Калифорнийского университета и автор книги «Атлас искусственного интеллекта» Кейт Кроуфорд, смотрят на эту перспективу скептически.
«Появление персональных ИИ-агентов знаменует собой новый уровень когнитивного контроля — не грубого, как отслеживание Cookie или контекстная реклама, а гораздо более тонкого: управления самой перспективой, — пишет Кроуфорд в колонке для Wired. — Тем, кто контролирует информацию, больше не нужно демонстративно ее направлять. Они действуют незаметно, через алгоритмическую «помощь», незримо формируют реальность, якобы подстраивая ее под наши желания. Это уже не просто контроль над данными — это создание самих очертаний мира, в котором мы живем».

Предлагая детально персонализированный контент, нейросети смогут точнее предсказывать наши следующие желания, реакции, выборы. Конечно, человеку будет удобно жить в мире, подогнанном под него самого, но в итоге он не заметит, как окажется в замкнутой камере с дозированным контентом.
Но рассуждения о влиянии ИИ на человеческую психику и картину мира пока не подкреплены масштабными исследованиями. Зато ясно, что в ближайшем будущем нейросети не станут по-настоящему этичными. Да, разные модели всегда дают вежливые, осторожные ответы, которые не нарушают политику компаний. Даже Grok отказывается разговаривать об очевидно вредных вещах.
Тем не менее любой ИИ можно «взломать» и заставить говорить о «запрещенке». Поэтому истинных этических принципов у нейросетей нет. И неизвестно, что будут выбирать ИИ-агенты, оказавшись перед двумя вариантами — рациональным и этичным. Евгений Лисовский замечает, что проекты вроде Constitutional AI от Anthropic пытаются встроить этические принципы в ядро модели, но ощутимых результатов эта практика пока не дает.