часть 2
Ловушки менеджера
В предыдущей части мы обсудили, что изменился сам объект управления менеджера. AI перестал быть просто инструментом и стал активным (иногда даже проактивным) участником рабочей среды, новым «коллегой». Всё, теперь это наша новая реальность, которую бессмысленно отрицать. Даже в сугубо консервативных (и не-ИТ) индустриях проявляется типовой паттерн использования AI
Один сотрудник сделал отчёт с помощью LLM. Другой сотрудник попросил LLM проанализировать этот отчёт и подготовить комментарии. Модель первого сотрудника проанализировала комментарии и подготовила на них свои ответы. При этом, оба сотрудника вообще не понимают деталей отчёта, решений и комментариев. Модель общается с моделью, а люди — это просто наблюдатели или курьеры.
Если объект управления изменился, то и роль менеджера не может остаться прежней. Сходу, конечно, хочется сказать, что в первую очередь руководителю нужно научиться пользоваться AI: понимать инструменты, писать промпты, проверять выводы, соблюдать правила безопасности, не отдавать критические решения модели без контроля. Всё это верно, но это только первый слой, как пенка над чашкой с капучино.

Долгие годы роль менеджера строилась вокруг доступа к информации, опыта и способности быстрее других понять, что делать. Можно упрощённо сказать, что в классической парадигме управления руководитель доказывал свою ценность через способность быстро решать проблемы. Хороший менеджер собирал факты, видел проблему, предлагал решение, объяснял его команде и запускал исполнение. В этой логике он был важен как носитель ответа и ответственности. Да, он мог не знать всего, но именно он должен был удерживать общий фрейм и в нужный момент сказать «Делаем вот так». В эпоху AI информация больше не является главным дефицитом. Черновик анализа можно получить за минуты. Варианты решений генерируются пачками. Стратегические гипотезы, письма, саммари встреч, сценарии развития, аргументы за и против — всё это стало дешевле, быстрее и доступнее. Иногда даже слишком доступно.

Но изобилие вариантов и ответов не делает управление проще, а саму роль менеджера менее важной. Скорее даже наоборот. Когда компания получает двадцать правдоподобных вариантов вместо двух, ей становится сложнее понять, какой вопрос вообще стоило задавать. И в принципе, когда AI убедительно формулирует любую позицию, убедительность перестаёт быть признаком качества. Поэтому, когда ответы становятся дешёвыми, ценность смещается к постановке вопроса
Не «что нам делать?», а «какую проблему мы на самом деле решаем?».

Не «какой вариант выглядит убедительнее?», а «какие допущения стоят за каждым вариантом?».

Не «как быстрее выполнить задачу?», а «не подменяем ли мы результат видимой активностью?».
Именно здесь и меняется роль менеджера. Он перестаёт быть главным производителем ответов и становится человеком, который удерживает смысл, критерии, ограничения, последствия и качество суждения. Но, как говорится, нельзя так просто взять и поменяться. Можно выделить конкретные ловушки, в которые попадают даже опытные руководители, искренне стремящиеся использовать новые технологии во благо. Эти ловушки не технические, а когнитивные и социальные. Они встроены в привычные паттерны мышления, в динамику команд и в само устройство современной организации. В этой части мы разберём несколько важных (с моей точки зрения) ловушек, а уже в следующей — какие ключевые компетенции потребуются руководителю в это новое время.
Ловушка замещения
Признайтесь, у вас наверняка проскакивали мысли из серии «Пусть машина заберёт рутину, а я, наконец-то, займусь стратегией». Звучит здраво, ведь нам всегда говорили, что делегирование — признак зрелого руководителя. Да и кто в здравом уме будет спорить с тем, что менеджеру лучше думать о будущем, а не тратить время на протоколы, отчёты, письма и операционные мелочи? Но именно эта логика — логика замещения — одна из ловушек современного менеджмента. Человек, освобожденный AI от рутины, склонен просто потреблять больше алгоритмического контента, теряя глубину собственного погружения в задачу.

В управленческой работе граница между рутиной и мышлением проходит не так чётко, как кажется. Черновик письма руководителя — это не просто текст. В нём уже расставлены акценты, выбрана тональность, определена позиция по отношению к адресатам. Саммари встречи — это не просто сжатая форма обсуждения. В нём уже решено, что считать главным, а что второстепенным.

Когда менеджер отдаёт AI операционку, он отдаёт машине первые шаги суждения: формулировку проблемы, выбор языка, первичную структуру аргументов, список возможных решений. А потом говорит себе: «Я всё проверю». Но если черновик выглядит связно, уверенно и профессионально, проверка быстро превращается в точечное редактирование. Чем качественнее выглядит этот результат, тем меньше мотивации разбираться, как он был получен. Исчезает то самое трение, необходимое для рождения суждения. Вскоре менеджер обнаруживает, что его роль свелась к утверждению готовых выводов, а его «стратегическая работа» — это просто компиляция чужих и машинных текстов. Он уже не мыслит с нуля, а движется внутри рамки, которую предложила модель. Атрофирование навыка суждения (judgment) во всей красе.
Парадокс автоматизации-усиления
Исследователи Себастьян Райш и Себастьян Краковски (Sebastian Raisch & Sebastian Krakowski) в 2021 году описали этот феномен как «парадокс автоматизации-усиления» (automation–augmentation paradox). Задуманная как «усиление» (augmentation), система на деле вытесняет человека из цепочки мышления. Робкая стратегия «AI делает, а я проверяю» ведет к тому, что проверка становится формальностью. Человек — самое слабое звено в этой цепи, он физически и когнитивно не успевает за скоростью машины, генерирующей варианты. Со временем у него формируется привычка доверять первому попавшемуся правдоподобному ответу.

Мы видим это сплошь и рядом. Менеджеры, которые слепо доверяют аналитическим дашбордам, не понимая логики данных за ними. HR-специалисты, которые делегируют найм алгоритмам, теряя чутьё на культурный код кандидата. Внедрение AI в таком режиме не увеличивает ценность, а создаёт иллюзию продуктивности: объём артефактов (output) растёт, а реальный результат (outcome) стагнирует или падает, потому что люди перестают осмыслять, зачем они делают то, что делают. Ловушка замещения опасна именно своей рациональностью, потому что не выглядит как ошибка. Она выглядит как эффективность. Попытки тотальной автоматизации порождают новые издержки координации, контроля и доверия. Хотя более корректный и устойчивый подход лежит через проектирование усиления, где человеческое мышление остаётся ведущим, а AI — его катализатором.

Это особенно критично для управленческой роли, где редко есть однозначно правильный ответ. Большинство важных решений возникает в условиях неполной информации, конфликтующих целей и последствий второго порядка. Здесь нельзя просто спросить модель: «Как правильно?». Сначала нужно определить, что в этой ситуации значит «правильно»: быстрее, дешевле, безопаснее, справедливее, полезнее для клиента, устойчивее для команды или важнее для долгосрочной стратегии. AI может помочь взвесить эти критерии, но он точно не должен незаметно выбрать систему ценностей вместо менеджера.
Проблема «сверхрезультативного сотрудника»
Ловушка замещения бьёт по индивидуальному суждению руководителя, но когда AI встраивается в команду, проявляется вторая, ещё более масштабная ловушка. Она связана с тем, как присутствие алгоритма меняет динамику коллектива, ведь он быстрее пишет, шире и глубже перебирает варианты, увереннее формулирует выводы и почти никогда не устаёт. В этом смысле его можно сравнить со сверхрезультативным сотрудником — человеком, который резко превосходит остальных по скорости, объёму и видимой продуктивности.

Казалось бы, наличие такого участника должно усиливать команду. Но в реальных командах сверхрезультативный сотрудник всегда создаёт двойной эффект. Он может поднимать общий уровень, а может незаметно подавлять остальных. Если один участник слишком быстро берёт на себя инициативу, остальные начинают меньше думать, меньше спорить, меньше предлагать и чаще занимать вспомогательную позицию. Команда внешне становится продуктивнее, но внутренне беднее. Как в известном «лодочном тесте», который описывал Дэвид Гоггинс (в своей книге «Меня не сломать»). Команда должна наполнить надувную лодку водой и удерживать её над головами, преодолевая препятствия. Гоггинс, как самый высокий и сильный участник своей команды, пытаясь изо всех сил держать тяжелую лодку над головой, непроизвольно перекладывал вес воды на руки самых низкорослых членов команды. Он превосходил остальных, но в итоге «раздавил» команду, и они провалили задание.

С AI этот эффект усиливается. Человек-сверхисполнитель хотя бы остаётся частью социума команды, ведь с ним можно спорить, его можно притормозить, он может объяснить ход мысли, взять на себя наставничество или почувствовать, что подавляет других. А вот бездушный алгоритм этого не чувствует. Он не понимает, что его уверенность может превращать коллег в пассивных редакторов. Он не стремится развивать команду. Он просто выдаёт следующий ответ. В отличие от человека, AI не думает о других — он нейтрален.
Деградация команды
Этот дисбаланс запускает три стадии деградации команды:

1. Подчинение.
Она логично вытекает из ловушки замещения. Люди начинают воспринимать AI как более умного участника обсуждения и всё чаще уступают ему право первой версии. Люди осознают масштаб способностей AI и смиряются. «Он всегда будет умнее меня, так зачем вообще пытаться?». Исследования MIT с использованием ЭЭГ показали, что при использовании AI (например, ChatGPT) для написания эссе когнитивная вовлеченность мозга падает до минимума по сравнению с самостоятельной работой или использованием Google. Мозг буквально формирует привычку передавать задачи на аутсорсинг. Удобство AI приучает команду отдавать сложные размышления на откуп машине.

2. Выученная беспомощность.
Если команда слишком часто сталкивается с системой, которая формулирует быстрее, увереннее и аккуратнее, у людей может возникнуть ощущение собственной вторичности. Это чувство, что тебя затмили. Неспособность конкурировать с машиной усиливает желание просто подчиниться алгоритму. Сотрудники становятся пассивными, перестают генерировать собственные инициативы и боятся брать ответственность, перекладывая её на рекомендацию системы. Так команда теряет свою агентность.

3. Коллективная слепота.
У любого сверхрезультативного участника есть слепые зоны, вот и у AI они тоже есть. Он не обладает эмпатией, не способен к этическим суждениям в условиях неоднозначности и не имеет жизненного опыта. Он может не видеть политический контекст в компании, не различать формальную и неформальную власть, переоценивать доступные данные, сглаживать конфликт, имитировать уверенность или воспроизводить старые паттерны организации. В нормальной команде разные люди перекрывают слепые зоны друг друга. Но если все начинают смотреть туда, куда смотрит AI, пробелы модели становятся пробелами всей команды. «Часть команды — часть корабля».

Именно поэтому одна из важнейших задач руководителя не просто дать команде AI, а не позволить AI превратиться в единственного сильного игрока на поле. Сверхрезультативному сотруднику нужна выделенная полоса, по которой он может быстро ехать, и границы, в которых он не раздавит остальных. С AI логика та же. Его нужно использовать там, где он ускоряет работу, расширяет поле гипотез, находит паттерны и помогает увидеть альтернативы. Но нельзя позволять ему забирать у команды право на первичное суждение.

Практически это означает три управленческих действия:

1. Фрейминг.
До внедрения AI менеджер должен помочь команде прояснить цель, неопределённость, ставки, роли и критерии хорошего решения. Иначе модель слишком быстро предложит рамку, внутри которой все начнут думать и действовать.

2. Границы.
Нужно понимать, в какой момент процесса AI усиливает команду, а в какой лишает её силы. Иногда AI полезен в начале, чтобы расширить поле вариантов. Иногда, наоборот, его стоит подключать после человеческого обсуждения, чтобы проверить слепые зоны и альтернативные объяснения.

3. Фасилитация.
Менеджер должен удерживать людей активными участниками мышления. Фасилитация здесь означает управление последовательностью обсуждения: сначала люди формулируют собственную версию проблемы, затем AI помогает проверить слепые зоны, и только после этого команда собирает итоговое решение. Иначе AI превращается из инструмента усиления в машину, вокруг которой люди начинают обслуживать готовый ответ.

AI опасен не тем, что думает вместо нас. Он опасен тем, что создаёт достаточно хорошую имитацию промежуточного мышления, чтобы мы перестали замечать, где именно перестали думать сами. Проблема AI в управлении не сводится к галлюцинациям, безопасности данных или качеству промптов. Это, конечно, важные вопросы, но они лежат на поверхности. Риск в том, что команда может постепенно потерять привычку думать вместе. А значит, следующим управленческим вопросом становится не «как нам использовать AI чаще», а «как нам использовать AI так, чтобы коллективное мышление становилось сильнее, а не слабее». Менеджеру придётся развивать новые управленческие компетенции: от алгоритмической эмпатии до мета-осмысления. Именно об этом — следующая часть.