
В 2025 году профессиональное сообщество столкнулось с прецедентом, который наглядно продемонстрировал риски бесконтрольного применения генеративного искусственного интеллекта. Австралийское подразделение Deloitte подготовило отчет для государственного департамента (DEWR) об автоматизации санкций для получателей социальных пособий. Позже компанию обязали вернуть окончательный платеж за эту работу — 440 тысяч австралийских долларов (примерно 290 тысяч долларов США) [1]. После публикации в документе было обнаружено до 20 критических ошибок: несуществующие академические ссылки, вымышленные цитаты из судебных решений — классические «галлюцинации». Изначально использование AI не раскрывалось; позднее на странице отчёта появилось примечание о применении Azure OpenAI GPT-4o.
Этот инцидент — не провал технологии как таковой, а провал внутреннего процесса и контроля качества. Он обнажил системную проблему: в 2025 году даже ведущие консалтинговые фирмы, на экспертизу которых полагаются правительства и корпорации, все еще не до конца готовы к интеграции AI в свои рабочие процессы. Когда на кону стоят решения в области социальной политики, промышленной безопасности или многомиллиардных инвестиций, цена ошибки становится недопустимо высокой.
На нас, консультантах, лежит особая ответственность. Клиенты доверяют нам не просто обработку информации, а создание выверенных и надежных рекомендаций. Использование AI не снимает с нас этой ответственности — напротив, оно ее усугубляет, требуя новых, более строгих подходов к верификации, прозрачности и управлению. Чтобы системно подойти к решению этой задачи и превратить AI из источника рисков в надежный инструмент, мы предлагаем простой фреймворк «Четырех столпов надежного AI».
Попытка внедрить AI без прочного технологического фундамента — это как строить небоскреб на болоте. Прежде чем инвестировать в алгоритмы, необходимо подготовить «машину», на которой они будут работать, и обеспечить ее качественным «топливом» — данными.
1. Инфраструктура и качество данных
По разным оценкам, от 70% до 85% корпоративных AI-инициатив не достигают ожидаемых результатов или не доходят до успешного внедрения [2]. Первопричина часто кроется в данных. Показателен пример IBM Watson for Oncology — проект, который не спасли даже миллиардные инвестиции. Систему обучали не на реальных данных пациентов, а на синтетических случаях, которые придумали эксперты одного онкоцентра. Когда Watson столкнулся с реальными данными из других больниц, он не справился: рекомендации системы оказались неверными и даже опасными, потому что Watson не был готов к тому, насколько зашумленными и «грязными» бывают данные в реальной медицине [3].
2. MLOps и дообучение моделей
Модель AI — не статичный актив. Ее точность со временем падает, так как меняются условия на производстве, изнашивается оборудование, появляются новые операционные регламенты.
3. Безопасная архитектура развертывания
Развертывание AI-инфраструктуры без должной настройки безопасности может стать прямой дорогой к катастрофе. В 2025 году было обнаружено более тысячи незащищенных серверов для развертывания языковых моделей (Ollama), которые были доступны в открытом интернете без надлежащей аутентификации, создавая риск несанкционированного доступа и утечек чувствительной информации (геологоразведка, рецептуры, финансовые показатели).
AI без правил способен генерировать не только прибыль, но и многомиллионные убытки. Управление данными (data governance) создает необходимые «дорожные ограждения» и регламенты.
1. Управление рисками
Многие компании не знают, с чего начать оценку рисков, связанных с AI. К счастью, не нужно изобретать велосипед — существуют готовые решения.
2. Предотвращение утечек данных
Сотрудник-человек — главный вектор риска при использовании публичных AI-сервисов. Исследования показывают, что до 77% организаций столкнулись с инцидентами, связанными с внутренними утечками данных [7], в то время как другие опросы указывают, что значительная часть сотрудников признается в использовании публичных AI-инструментов для рабочих задач, вводя туда конфиденциальную информацию [8]. Это может быть что угодно: от фрагментов кода и внутренних отчетов до деталей контрактов, которые затем могут быть использованы для обучения общедоступных моделей.
Самый совершенный инструмент бесполезен, если им не умеют пользоваться. Успех или провал AI на 80% зависит от людей, их навыков и культуры взаимодействия с технологией.
1. Дисциплина промпт-инжиниринга и верификации
Кейс Air Canada [9] — пример недоработки на этом уровне. Чат-бот авиакомпании «выдумал» несуществующую политику возврата билетов. Когда клиент обратился в суд, тот постановил, что компания несет полную ответственность за информацию, предоставленную ее чат-ботом, поскольку он является неотъемлемой частью сайта, а не отдельным юридическим лицом. Провал был не в модели, а в неполном системном промпте: боту не дали четкой инструкции ссылаться только на официальные документы и не предоставили механизм верификации его ответов.
2. Создание централизованной библиотеки промптов
Работающие промпты, которые ваши сотрудники разрабатывают для решения прикладных задач — ценный интеллектуальный актив. Без централизации он теряется, и каждый сотрудник заново «изобретает велосипед».
3. Культура «Человек-в-цикле» (Human-in-the-Loop)
В 2025 году северокорейская хакерская группа APT Kimsuky использовала генеративный AI для создания убедительных поддельных изображений (deepfake) и документов, выдавая себя за представителей оборонных ведомств Южной Кореи [10]. Это демонстрирует, как AI становится инструментом для целенаправленных атак и социальной инженерии на государственном уровне, где отсутствие человеческого контроля на этапе верификации личности может привести к серьезным инцидентам в области безопасности.
Чтобы AI приносил реальную пользу, он должен быть бесшовно интегрирован в повседневные рутинные бизнес-процессы компании, а не существовать как изолированное технологическое решение, о котором IT-отдел отчитывается в рамках плана по инновациям.
1. Интеграция в операционные процессы
Одной из ключевых проблем при внедрении инноваций является «пилотное чистилище» (Pilot Purgatory). Пилотные проекты, успешные в тестовой среде, оказываются неспособными к масштабированию на реальном производстве [11]. Подобный барьер, ведущий в «пропасть разочарования» по терминологии Gartner, возникает, потому что пилоты разрабатываются на изолированных данных и без учета реальной сложности интеграции с унаследованными корпоративными системами (ERP, MES).
2. Протоколы эскалации и прозрачности
Чат-бот MyCity NYC, запущенный для помощи бизнесу, советовал нарушать трудовое законодательство, законы о защите прав арендаторов и требования к приему наличных [12]. У системы не было протокола «если не уверен — переведи на эксперта», и она начала генерировать вредные рекомендации. Администрация Нью-Йорка признала проблемы и усилила дисклеймеры, но оставила бота онлайн, при этом ошибочные ответы сохранялись.
3. Измерение реальной эффективности
Бизнес не интересует точность модели в 99,5%. В реальной жизни значение имеют такие результаты, как влияние на EBITDA, снижение операционных затрат и рост производительности.
Внедрение искусственного интеллекта — это не спринт за новой технологией, а типичный для любой цифровизации марафон по организационной трансформации. Кейс Deloitte стал холодным душем для всей индустрии профессиональных услуг, напомнив, что доверие клиента — наш главный актив, который легко подорвать технологической самонадеянностью.
Успех приходит не к тем, кто внедряет самые сложные и современные алгоритмы, а к тем, кто методично выстраивает все четыре столпа: надежную инфраструктуру, четкие правила, обученных людей и интегрированные процессы. Построив этот фундамент, можно превратить AI из источника непредсказуемых рисков в мощный, контролируемый и полезный инструмент для вашего бизнеса.
Источники
У нас появился Telegram-канал!
Pieff в действии: кейсы, инструменты и подходы, которые приносят результат.