Современный бизнес уже невозможно представить без искусственного интеллекта. Технологии ИИ проникли практически во все сферы – от рутинной обработки документов до сложных аналитических задач и принятия стратегических решений. Предприниматель, публицист, основатель компании Юнисофт Алексей Оносов рассказывает о том, насколько можно доверять искусственному интеллекту.
Поначалу может показаться, что искусственный интеллект – это просто программа, которая всегда работает по заданным правилам и алгоритмам. На деле современные системы ИИ принципиально отличаются от традиционных компьютерных программ своей вероятностной природой.
Нейросети не следуют чётким детерминированным инструкциям, а обучаются на огромных массивах данных, формируя статистические модели и закономерности. Это приводит к тому, что ИИ может выдавать разные ответы на один и тот же вопрос в разное время или в различном контексте. Такая непредсказуемость создаёт фундаментальную проблему доверия. Если бухгалтерская программа всегда считает 2+2=4, то нейросеть в определённых условиях может “увидеть” в этом выражении что-то иное, например, проявление тенденций рынка или метафору экономического роста, и выдать совершенно неожиданный ответ.
Галлюцинация ИИ
Особенно ярко вероятностная природа ИИ проявляется в феномене так называемых “галлюцинаций” – когда нейросеть уверенно генерирует фактически неверную информацию. Такие случаи становятся всё более распространёнными по мере увеличения использования языковых моделей. Нейросеть может с абсолютной убежденностью “создать” несуществующие исторические события, выдумать научные исследования или предоставить ложные данные о компаниях и персонах. Это происходит потому, что ИИ не понимает информацию так, как ее понимает человек – он оперирует статистическими паттернами в данных, не имея реального понимания содержания и контекста. Это принципиально отличает его от человеческого сознания и создаёт серьёзный барьер для полноценого доверия.
Ошибки ИИ могут иметь самые разные последствия – от забавных курьёзов до серьёзных инцидентов с угрозой здоровью и жизни. Один из наиболее показательных примеров потенциальной опасности произошёл совсем недавно, в 2024 году. Семья из Британии серьезно отравилась грибами после использования пособия для начинающих грибников, которое, как выяснилось позже, было полностью написано с помощью нейросети и продавалось на платформе Amazon.

Книга содержала критически опасные ошибки и рекомендации по идентификации грибов, включая абсурдный с точки зрения микологии совет определять ядовитые виды по вкусу и запаху.
Этот случай наглядно демонстрирует, насколько опасным может быть слепое доверие к контенту, созданному искусственным интеллектом, особенно в областях, связанных со здоровьем, безопасностью или принятием важных решений.
Случай с грибным пособием поднимает ещё один важный вопрос: кто несёт ответственность за ошибки ИИ? Автор книги, который по сути просто попросил нейросеть сгенерировать текст? Разработчики системы ИИ, которые создали технологию, но не могли предвидеть конкретное применение? Платформа, разместившая книгу без надлежащей проверки? Или сами пострадавшие, которые доверились информации из непроверенного источника? Юридическая система пока не готова дать однозначные ответы на эти вопросы. Законодательство в области ответственности за действия ИИ только формируется, и многие правовые аспекты остаются в “серой зоне”.
Это создаёт дополнительные риски для бизнеса, использующего ИИ-решения в критически важных процессах. В своей практике постоянно сталкиваюсь с ситуациями, когда предприниматели чрезмерно полагаются на рекомендации искусственного интеллекта, не подвергая их критическому анализу. Подобный подход может привести к серьезным репутационным потерям и финансовым убыткам, особенно когда речь идет о стратегических решениях или коммуникациях с клиентами.
Важным аспектом проблемы доверия к ИИ является вопрос безопасности данных, которые используются при работе с такими системами. Большинство современных нейросетей и других ИИ-решений требуют подключения к внешним серверам и передачи информации через интернет. Это создаёт потенциальные каналы для утечки конфиденциальных данных. Многие не задумываются о том, что происходит с текстами запросов, которые они отправляют в популярные чат-боты. А ведь эти запросы могут содержать коммерческую тайну, персональные данные клиентов, финансовую информацию и другие чувствительные сведения. Разработчики ИИ-систем обычно оговаривают в пользовательских соглашениях, что они могут использовать данные запросов для дальнейшего обучения своих моделей, что означает потенциальный риск компрометации конфиденциальной информации.
Проблема усугубляется тем, что многие ИИ-системы обладают непрозрачным принципом работы. “Чёрный ящик” нейросети не позволяет пользователю понять, почему система пришла к тому или иному выводу, какие факторы повлияли на решение и где возможны ошибки. Это создаёт фундаментальную проблему доверия – как можно полагаться на рекомендации, если невозможно проверить логику их формирования? В традиционных системах автоматизации всегда можно проследить цепочку решений и понять, где произошёл сбой. В случае с нейросетями такая возможность часто отсутствует, что делает контроль качества результатов крайне затруднительным. Это особенно критично в таких областях как медицина, финансы, юриспруденция, где точность и надежность информации имеют решающее значение.
Впрочем, современные усовершенствованные модели нейросетей, такие как DeepSeek, Claude, GPT-4o и другие, постепенно преодолевают проблему “чёрного ящика” благодаря технологии “цепочки размышлений” (chain-of-thought reasoning). Эти системы теперь способны не только выдавать результат, но и демонстрировать последовательность рассуждений, которая привела к конкретному выводу – шаг за шагом показывая логические переходы, промежуточные вычисления и анализ альтернатив. Такой подход существенно повышает прозрачность работы ИИ и позволяет специалистам идентифицировать возможные ошибки в рассуждениях. Например, в задаче диагностики заболевания нейросеть может показать, какие симптомы она учла, какие гипотезы рассмотрела и почему предпочла один диагноз другому. Это критически важное усовершенствование, хотя оно пока не решает проблему полностью, поскольку базовые механизмы формирования первоначальных ассоциаций в нейросетевой модели всё ещё остаются непрозрачными.
Отдельного внимания заслуживает проблема потенциального мошенничества с использованием технологий ИИ. Генеративные модели достигли такого уровня развития, что могут создавать фальшивые документы, письма, голосовые и видеосообщения, которые практически неотличимы от настоящих. Эта технология получила название “дипфейк” и уже активно используется злоумышленниками для различных видов мошенничества. Были зафиксированы случаи, когда преступники с помощью синтезированного голоса руководителя компании обманом заставляли сотрудников переводить крупные суммы денег на подставные счета. С развитием технологий ИИ подобные атаки становятся всё более изощрёнными и трудноотличимыми от реальных коммуникаций, что создаёт новые вызовы для информационной безопасности бизнеса.

Верификация данных, полученных от систем искусственного интеллекта, становится критически важным навыком в цифровую эпоху. Особенно это касается информации, которая используется для принятия бизнес-решений. Нейросеть может предоставить впечатляющий по форме и стилю анализ рынка, но содержащиеся в нём данные могут быть полностью или частично выдуманными. Без надлежащей проверки такая информация может привести к катастрофическим последствиям для бизнеса. Методология проверки фактов, полученных от ИИ, должна включать в себя сверку с надёжными источниками, консультации с экспертами в соответствующей области и критический анализ предлагаемых выводов и рекомендаций. Это требует дополнительных ресурсов, но эти затраты оправданы с учетом возможных рисков.
Особую тревогу вызывают случаи, когда компании используют ИИ для автоматизированного принятия решений без должного контроля со стороны человека. Например, системы скоринга на основе искусственного интеллекта, определяющие кредитоспособность заемщиков, могут содержать скрытые предубеждения и дискриминационные паттерны, унаследованные из обучающих данных. Система может систематически занижать оценки определённым группам населения не из-за их реальной платежеспособности, а из-за косвенных корреляций в исторических данных. Подобные проблемы были выявлены в системах ИИ, используемых для подбора персонала, когда алгоритмы демонстрировали предвзятость по гендерному или этническому признаку, хотя формально такие параметры не учитывались при обучении.

При всех рисках и ограничениях технологии искусственного интеллекта обладают огромным потенциалом для повышения эффективности бизнеса. Ключ к успешному применению ИИ лежит в формировании сбалансированного подхода, который максимизирует преимущества новых технологий при минимизации рисков. Такой подход должен включать в себя несколько обязательных элементов. Во-первых, необходимо чёткое понимание ограничений существующих ИИ-систем и осознание их вероятностной природы. Во-вторых, критически важно внедрение процедур верификации и проверки данных, полученных от ИИ, особенно в чувствительных областях. В-третьих, требуется разработка внутренних политик и протоколов безопасности при работе с конфиденциальной информацией через системы ИИ.
Технические решения для повышения безопасности при работе с ИИ развиваются параллельно с самими нейросетевыми технологиями. Одним из перспективных направлений является развитие локальных систем ИИ, которые могут работать непосредственно на устройствах пользователей без передачи данных на внешние серверы. Такие решения значительно снижают риски утечки информации, хотя и имеют ограничения по производительности. Другим важным направлением является разработка техник дифференциальной приватности, которые позволяют обучать модели ИИ на чувствительных данных без риска их компрометации. Эти подходы уже нашли применение в медицине и финансовом секторе, где требования к конфиденциальности особенно высоки.
Корпоративная культура ответственного применения ИИ должна стать неотъемлемым элементом цифровой трансформации бизнеса. Это подразумевает не только технические аспекты безопасности, но и формирование определённых поведенческих норм и практик. Сотрудники должны понимать, какую информацию можно доверять системам ИИ, а какая требует дополнительной защиты. Руководству необходимо установить чёткие процедуры валидации результатов, полученных от искусственного интеллекта, прежде чем они будут использованы для принятия важных решений. В Юнисофт мы разработали специальную методику оценки рисков при внедрении ИИ-решений, которая учитывает как технические, так и организационные аспекты безопасности.
Вопрос ответственности за ошибки и проблемы, вызванные использованием ИИ, остаётся одним из самых сложных в современной юридической практике. Законодательство разных стран по-разному подходит к этой проблеме, но общая тенденция направлена на повышение ответственности разработчиков и пользователей ИИ-систем. В России также ведётся работа над нормативной базой для регулирования искусственного интеллекта. Бизнесу стоит внимательно следить за развитием законодательства в этой области, поскольку новые нормы могут существенно повлиять на стратегию применения ИИ-технологий.
Доверие к искусственному интеллекту – это не абстрактная философская концепция, а вполне конкретный бизнес-вопрос, имеющий прямое влияние на эффективность и безопасность компании.
Чрезмерное доверие может привести к серьёзным ошибкам и уязвимостям, а избыточная осторожность лишит компанию конкурентных преимуществ, которые дают современные технологии. Найти золотую середину непросто, но именно этот баланс определит успешных игроков на рынке в ближайшие годы. Сталкиваясь с этой дилеммой в своей практике, всегда рекомендую руководителям компаний начинать с малого – внедрять ИИ в некритичные бизнес-процессы, накапливать опыт и постепенно расширять сферу применения, одновременно выстраивая систему контроля и верификации.
Будущее взаимодействия бизнеса и искусственного интеллекта видется в развитии концепции “ИИ, заслуживающего доверия”. Эта концепция, активно продвигаемая как технологическими компаниями, так и регуляторами, предполагает создание систем ИИ, которые не только эффективны, но и соответствуют этическим нормам, обеспечивают прозрачность принятия решений и защиту данных. Такие системы должны быть устойчивы к внешним атакам, минимизировать риски предвзятости и дискриминации, а также предоставлять пользователю достаточный контроль над процессом принятия решений. Развитие в этом направлении потребует как технологических инноваций, так и новых подходов к обучению и настройке моделей искусственного интеллекта.
Ещё одной перспективной тенденцией является развитие “объяснимого ИИ” (Explainable AI или XAI) – подхода к разработке систем искусственного интеллекта, позволяющего людям понимать, как ИИ пришёл к тому или иному решению. В отличие от традиционных “чёрных ящиков” нейросетей, системы XAI способны предоставить логическое обоснование своих выводов, что значительно повышает уровень доверия к ним. Это особенно важно в высокорегулируемых отраслях, таких как медицина, финансы или юриспруденция, где непрозрачность алгоритмов является существенным барьером для внедрения ИИ-решений. Технологии объяснимого ИИ находятся в активной фазе развития, и в ближайшие годы мы увидим их более широкое применение в корпоративном секторе.
Информационная безопасность при работе с системами искусственного интеллекта становится отдельным направлением киберзащиты. Помимо традиционных угроз, таких как утечка данных или несанкционированный доступ, появляются специфические векторы атак, характерные именно для ИИ-систем. Например, “отравление данных” (data poisoning) – внедрение вредоносной информации в обучающие наборы данных, что приводит к неправильной работе ИИ. Или “состязательные атаки” (adversarial attacks) – специально сформированные входные данные, которые заставляют нейросеть делать ошибки. Защита от таких угроз требует новых подходов и компетенций в области информационной безопасности, которые пока есть далеко не у всех компаний.
Этические аспекты применения искусственного интеллекта тесно связаны с вопросами доверия. Использование ИИ без учёта потенциальных социальных последствий может привести к усилению существующего неравенства, дискриминации определённых групп населения или нарушению приватности. Эти риски особенно высоки в таких областях как кредитование, страхование, найм персонала, где решения, принимаемые с помощью ИИ, напрямую влияют на жизнь людей. Бизнес не может игнорировать этическую составляющую цифровой трансформации, поскольку репутационные риски, связанные с неэтичным использованием ИИ, могут перевесить все потенциальные выгоды от внедрения новых технологий.

Технологии ИИ предоставляют беспрецедентные возможности для повышения эффективности, персонализации продуктов и услуг, оптимизации бизнес-процессов. Однако эти преимущества сопряжены с новыми рисками, которые требуют осознанного и ответственного подхода. Компании, которые сумеют найти правильный баланс между внедрением инноваций и обеспечением безопасности, получат значительное конкурентное преимущество в цифровой экономике.
Доверие к искусственному интеллекту не может быть абсолютным – это противоречит самой природе вероятностных систем.
Но оно может быть обоснованным, если подкреплено тщательным анализом возможностей и ограничений конкретных ИИ-решений, надёжными механизмами проверки и валидации результатов, а также разумной стратегией управления рисками. ИИ – это инструмент, который может быть использован как во благо, так и во вред, в зависимости от того, кто и как им пользуется. Ответственность за последствия применения этого инструмента несут люди – разработчики, пользователи, руководители компаний.
В дальнейшем можно ожидать развития как самих технологий ИИ, так и методов обеспечения их безопасности и надежности. Регуляторные механизмы будут совершенствоваться, устанавливая более чёткие правила ответственности и этические нормы использования искусственного интеллекта. Технологические решения для защиты данных, обеспечения прозрачности алгоритмов и предотвращения злоупотреблений станут более доступными и эффективными. Бизнес, который уже сейчас инвестирует в формирование культуры ответственного применения ИИ, будет наилучшим образом подготовлен к этому будущему.
Некоторые кейсы компаний:
Сбербанк: ИИ в банковском секторе
Сбербанк внедрил систему искусственного интеллекта для выявления мошеннических операций и оптимизации кредитного скоринга. Их подход включает строгие протоколы для верификации решений ИИ и защиты данных клиентов.

Яндекс: Алиса и корпоративные решения
Яндекс разработал не только голосового помощника “Алиса”, но и предлагает корпоративные ИИ-решения с акцентом на локальную обработку данных, что минимизирует риски утечки конфиденциальной информации.

МТС: ИИ в телекоммуникационной отрасли
МТС использует нейросети для прогнозирования нагрузки на сеть и оптимизации клиентского сервиса. Компания разработала систему внутреннего аудита ИИ-решений для предотвращения предвзятости алгоритмов.

СИБУР: ИИ в промышленном производстве
СИБУР внедрил технологии искусственного интеллекта для оптимизации химических процессов и предиктивного обслуживания оборудования. Их система включает механизмы “объяснимого ИИ”, что повышает доверие к рекомендациям системы.

X5 Group: ИИ в ритейле
X5 Group (Пятерочка, Перекресток) внедрили системы ИИ для управления ассортиментом и оптимизации цепочек поставок. Компания разработала строгие протоколы для защиты потребительских данных и верификации рекомендаций ИИ.


