Новостной контент
Ещё вчера ИИ в стройке выглядел, как пилот на пару объектов: «попробуем компьютерное зрение», «погоняем генеративные варианты фасада», «посмотрим, что он скажет про график». В 2026-м этот этап заканчивается. ИИ становится операционной реальностью: он проникает в планирование, контроль качества, технику безопасности, проектирование и координацию, а вместе с ним в проект приходят новые вопросы: кто отвечает за ошибку алгоритма, как оформлять результаты, кому принадлежат «сгенерированные» модели и что делать с персональными данными работников.
Что меняется на площадке и в офисе: три «моторчика» ИИ
Предиктивная аналитика
ИИ всё чаще используется для прогнозов: срывы сроков, риски поставок, отклонения бюджета, вероятные коллизии и переделки. В хорошей версии это раннее предупреждение. В плохой версии это «красивая уверенность», которая усыпляет контроль.
Автономная техника и роботизация
Механизмы получают больше самостоятельности: от полуавтономной логистики до роботизированных операций. Это повышает производительность, но увеличивает ставки по безопасности и ответственности.
Генеративное проектирование
Генеративные инструменты предлагают варианты планировок, конструктивных решений, узлов, схем. Они ускоряют итерацию, но требуют дисциплины в части критериев выбора, проверки соответствия нормам и документирования человеческого решения.
Регуляторная карта 2026: ЕС и Великобритания
ЕС: EU AI Act и «высокорисковые» ИИ-системы
EU AI Act (European Artificial Intelligence Act) это регламент Европейского союза про правила использования и вывода на рынок систем ИИ.
Регламент вступил в силу 1 августа 2024. Полное использование EU AI Act вступает в силу с 2 августа 2026 года, но с исключениями.
В EU AI Act есть идея: комиссия выпускает гайдлайны (разъяснения), чтобы рынку было проще понять:
- попадает ли система под маркировку «Высокий риск» (как именно трактовать критерии, где границы);
- где именно должен быть обязательный человеческий контроль;
- как оформлять документацию, мониторинг после запуска, отчётность об инцидентах и т.д.
Проблема в том, что публикацию таких разъяснений уже переносили и откладывали, поэтому компаниям сложнее опираться на «официальные примеры» и приходится готовиться по самому тексту регламента и осторожным интерпретациям. Это значит, что они могут внедрять ИИ, но делают это в режиме «едем, но без карты с подсказками».
Великобритания: ставка на принципы и «sandbox»
В Великобритании пока нет одного большого «закона про ИИ», который бы как в ЕС разложил всё по полочкам. Его обсуждают, но принятие сдвигается.
Но в отличии от ЕС, в Великобритании существует «AI Growth Lab sandboxes» = испытательный полигон.
Sandbox (песочница) это официальный режим тестирования, когда компания может попробовать ИИ в реальных условиях, но:
- под надзором
- с ограничениями и защитными мерами
- иногда с временными точечными послаблениями/настройками требований, чтобы понять, как технология работает и какие правила реально нужны
Зачем это государству? Получить краш-тест ИИ на практике и потом на основе результатов выпускать законы/правки/правила.
А что с этим на российском рынке?
Если коротко: Россия идёт по модели «регулирование + стандартизация», но без прямого аналога EU AI Act прямо сейчас, и при этом активно растёт практическое внедрение ИИ в безопасности и операционных процессах.
1) Регулирование: появился проект закона об ИИ
В марте 2026 года Минцифры опубликовало проект закона о регулировании ИИ и вынесло его на общественное публичное обсуждение (новшества могут заработать с 1 сентября 2027 года (ст. 21 проекта). Их публичное обсуждение завершится 15 апреля).
В новостных разборах отмечалось, что проект вводит понятия вроде «суверенной», «национальной» и «доверенной» моделей ИИ.
Для строительных компаний это означает, что регулирование становится предметным, и в закупках/договорах ИИ начнут чаще появляться требования про прозрачность, маркировку, ответственность, источники данных и контуры применения.
2) Стандарты: «управление ИИ» уже легализовано как практика менеджмента
С 1 января 2025 действует ГОСТ Р ИСО/МЭК 42001-2024 (система менеджмента ИИ). Это не «запреты», а рамка управления: политика, роли, риски, контроль, улучшения.
Также есть ГОСТ Р 71476-2024 (на базе ISO/IEC 22989) как словарь и базовая терминология по ИИ, что полезно, когда вы пишете договоры, ТЗ и регламенты и хотите говорить на одном языке.
Росстандарт ведёт подборку стандартов по направлению ИИ, и их список расширяется.
3) Практика: ИИ в охране труда и мониторинге уже «в поле»
В РФ активно продвигаются кейсы по AI-мониторингу безопасности на стройплощадках и в промышленности (видеонаблюдение, распознавание СИЗ, контроль опасных зон).
И вот здесь важная прикладная мысль: даже если специальный ИИ-закон ещё в обсуждении, риски по персональным данным, трудовым отношениям и доказуемости решений уже живые. Поэтому контрактная часть, политика хранения данных, регламент доступа и человеческий контроль нужны «сейчас и здесь, а не «когда примут закон».
Несмотря на то, что регулирование ИИ ещё не оформлено окончательно, технологии уже применяются на практике. С какими проблемами сталкивается рынок сейчас?
Ключевые риски и затруднения
1.Ответственность и «дырки» в контрактах: кто виноват, если ошибся ИИ
Главная боль 2026 года звучит просто: кто отвечает, если ИИ-рекомендация привела к дефекту/задержке/инциденту? Подрядчик? Поставщик ИИ? BIM-координатор? Заказчик, который настоял на инструменте?
Типовые договоры часто не успевают за реальностью. Поэтому всё чаще нужны специальные условия под конкретные ИИ-системы, фиксирующие:
- где ИИ применяется (и где запрещён)
- обязательность раскрытия, что результат сгенерирован/подсказан ИИ
- Обязательный человеческий контроль и формальное утверждение результата: выводы ИИ не принимаются «автоматом». Ответственное лицо должно проверить результат и официально его утвердить с фиксацией, кто, когда и какую версию/решение одобрил и за что отвечает.
2. Интеллектуальная собственность: кому принадлежат модели, варианты и документация?
Чем больше ИИ генерирует (модели, варианты планировок, спецификации, тексты, схемы), тем громче вопрос: кто владелец результата.
Что важно закрепить в договорах и при покупке ИИ-инструментов:
- Чтобы вы могли свободно использовать, править, включать в документацию и тиражировать внутри проекта всё, что выдаёт ИИ (модели, чертежи, отчёты и т.д.).
- Права на данные, которыми «кормят» ИИ.
Прописать, кому принадлежат исходные проектные данные, которые вы загрузили в систему (BIM-модель, спецификации, документация), и что с ними можно делать. - Запрет на «перенос» ваших наработок в чужие проекты.
Ограничить, чтобы поставщик или подрядчик не использовал ваш проектный датасет, настройки, обученную под объект модель для других клиентов или проектов без вашего согласия. - Проверка лицензий и условий вендора.
В некоторых лицензиях прописано, что поставщик может сохранять права на сгенерированные решения или использовать ваши данные/результаты для обучения своих моделей. Это нужно увидеть заранее и, при необходимости, запретить или согласовать отдельно.
3. Скрытый риск «исторических данных»
ИИ, обученный на исторических данных стройки, может унаследовать перекосы, например, в выборе подрядчиков, распределении задач, оценке производительности. В 2026-м в зрелых проектах это решают через:
- аудит данных на bias (аудит предвзятости данных)
- критерии состоящие из системы метрик и правил, с помощью которых оценивают, насколько беспристрастно искусственный интеллект принимает решения или делает прогнозы;
- мониторинг решений и причинно-следственные логи: почему алгоритм предложил именно это
Какие можно сделать выводы?
В 2026 году ИИ в строительстве окончательно переходит из пилотов в операционную практику и начинает напрямую влиять на сроки, качество и безопасность проектов. На этом фоне ключевой вызов рынка смещается с «как внедрить» на «как управлять»: закрепить ответственность за решения ИИ, встроить обязательный человеческий контроль и формальное утверждение результатов, а также закрыть вопросы прав на данные и сгенерированные материалы. При этом регулирование развивается неравномерно (ЕС, UK, РФ), поэтому компаниям важно выстраивать комплаенс и договорную базу уже сейчас, не дожидаясь идеальной ясности. Те, кто заранее оформит правила игры, получат преимущество, а те, кто оставит ИИ в «серой зоне», рискуют расплачиваться спорами, задержками и инцидентами.