Этот дисбаланс запускает три стадии деградации команды:
1. Подчинение.
Она логично вытекает из ловушки замещения. Люди начинают воспринимать AI как более умного участника обсуждения и всё чаще уступают ему право первой версии. Люди осознают масштаб способностей AI и смиряются. «Он всегда будет умнее меня, так зачем вообще пытаться?». Исследования MIT с использованием ЭЭГ показали, что при использовании AI (например, ChatGPT) для написания эссе когнитивная вовлеченность мозга падает до минимума по сравнению с самостоятельной работой или использованием Google. Мозг буквально формирует привычку передавать задачи на аутсорсинг. Удобство AI приучает команду отдавать сложные размышления на откуп машине.
2. Выученная беспомощность.
Если команда слишком часто сталкивается с системой, которая формулирует быстрее, увереннее и аккуратнее, у людей может возникнуть ощущение собственной вторичности. Это чувство, что тебя затмили. Неспособность конкурировать с машиной усиливает желание просто подчиниться алгоритму. Сотрудники становятся пассивными, перестают генерировать собственные инициативы и боятся брать ответственность, перекладывая её на рекомендацию системы. Так команда теряет свою агентность.
3. Коллективная слепота.
У любого сверхрезультативного участника есть слепые зоны, вот и у AI они тоже есть. Он не обладает эмпатией, не способен к этическим суждениям в условиях неоднозначности и не имеет жизненного опыта. Он может не видеть политический контекст в компании, не различать формальную и неформальную власть, переоценивать доступные данные, сглаживать конфликт, имитировать уверенность или воспроизводить старые паттерны организации. В нормальной команде разные люди перекрывают слепые зоны друг друга. Но если все начинают смотреть туда, куда смотрит AI, пробелы модели становятся пробелами всей команды. «Часть команды — часть корабля».
Именно поэтому одна из важнейших задач руководителя не просто дать команде AI, а не позволить AI превратиться в единственного сильного игрока на поле. Сверхрезультативному сотруднику нужна выделенная полоса, по которой он может быстро ехать, и границы, в которых он не раздавит остальных. С AI логика та же. Его нужно использовать там, где он ускоряет работу, расширяет поле гипотез, находит паттерны и помогает увидеть альтернативы. Но нельзя позволять ему забирать у команды право на первичное суждение.
Практически это означает три управленческих действия:
1. Фрейминг.
До внедрения AI менеджер должен помочь команде прояснить цель, неопределённость, ставки, роли и критерии хорошего решения. Иначе модель слишком быстро предложит рамку, внутри которой все начнут думать и действовать.
2. Границы.
Нужно понимать, в какой момент процесса AI усиливает команду, а в какой лишает её силы. Иногда AI полезен в начале, чтобы расширить поле вариантов. Иногда, наоборот, его стоит подключать после человеческого обсуждения, чтобы проверить слепые зоны и альтернативные объяснения.
3. Фасилитация.
Менеджер должен удерживать людей активными участниками мышления. Фасилитация здесь означает управление последовательностью обсуждения: сначала люди формулируют собственную версию проблемы, затем AI помогает проверить слепые зоны, и только после этого команда собирает итоговое решение. Иначе AI превращается из инструмента усиления в машину, вокруг которой люди начинают обслуживать готовый ответ.
AI опасен не тем, что думает вместо нас. Он опасен тем, что создаёт достаточно хорошую имитацию промежуточного мышления, чтобы мы перестали замечать, где именно перестали думать сами. Проблема AI в управлении не сводится к галлюцинациям, безопасности данных или качеству промптов. Это, конечно, важные вопросы, но они лежат на поверхности. Риск в том, что команда может постепенно потерять привычку думать вместе. А значит, следующим управленческим вопросом становится не «как нам использовать AI чаще», а «как нам использовать AI так, чтобы коллективное мышление становилось сильнее, а не слабее». Менеджеру придётся развивать новые управленческие компетенции: от алгоритмической эмпатии до мета-осмысления. Именно об этом — следующая часть.