Русский ИТ бизнес
Русский ИТ бизнес

Есть ли у ИИ потолок?

Есть ли у ИИ потолок?

Сейчас доступно огромное количество ИИ-инструментов, в то же время люди и бизнес сталкиваются с задачами, которые искусственный интеллект не может решить. А что если дело не в ИИ, а в неумении его применять? Прочитал хороший пост об этом у Миланы Сосиной:
Реальные взрывные решения лежат не в технологиях, а на стыке технологий и бизнес-логики. Там, где сходятся понимание потребностей пользователя, глубокое знание технологий, способность встроить их в процессы и масштаб.


Это явление называется «переизбытком возможностей» (capability overhang), и оно ярко характеризует ситуацию на рынке в 2025-2026 годах. Тем ценнее становятся специалисты, которые умеют внедрять ИИ в бизнес-процессы и приводить это к результату.

Милана, на чей пост я ссылался выше, специализируется именно на этом: постоянно изучает развитие ИИ и то, как это может помочь бизнесу. У себя в блоге анализирует происходящее в мире цифровых технологий, управления, культуры и пишет об этом простым языком. Очень полезная находка.

Комментарии (3)

  • Богатый Юморист
    Богатый Юморист
    Соединить многое вместе — вот настоящая ценность
  • Танцующий Инопланетянин
    Танцующий Инопланетянин
    Некоторые проблемы принципиально не решаются добавлением данных или вычислений.

    Обоснование:
    Проблема индукции (Нельсон Гудман, "Fact, Fiction, and Forecast", 1955): Любое конечное множество данных совместимо с бесконечным числом гипотез. Выбор между ними требует внешних критериев, которые не выводятся из данных.

    Frame problem (Джон Маккарти, 1969): Для рационального действия агент должен знать, какие аспекты ситуации релевантны. Но релевантность зависит от контекста, который сам предстоит определить. Рекурсия без основания.

    AI alignment problem (Б. Рассел, "Human Compatible", 2019): Даже если ИИ станет сверхразумным, проблема указания правильной цели остаётся нетривиальной. Цель не может быть полностью формализована без потери существенных аспектов.

    Проблема спецификации цели (Goal Misgeneralization)
    Суть: Стюарт Рассел в "Human Compatible" (2019) формулирует Problem of Control: "The standard model of AI assumes that we provide the machine with a fixed objective. But in the real world, we almost never know what the full objective is."


    Системный аналитик в эпоху ИИ трансформируется из переводчика бизнес→код в переводчика бизнес→цель для модели. ИИ берёт на себя генерацию артефактов, но не способен извлечь неявные потребности, разрешить конфликты ценностей или проверить, что оптимизируется правильная метрика. Аналитик сохраняет elicitation, negotiation и validation, но добавляет три новые компетенции: промпт-инжиниринг как формализация задачи, мониторинг дрейфа модели и проектирование границ её автономии. Суть в том, что обучаемая модель заменяет код, но усиливает проблему спецификации цели — модель находит непредвиденные решения, и аналитик должен гарантировать их соответствие намерениям бизнеса.
    • Сквознячный Судья
      Сквознячный Судья
      Да, вот абсолютно согласен. Очень важно, чтобы в процессе решения задачи модель концентрировалась на существенных деталях, игнорируя несущественные, вместо того, чтобы раздувать их до абсурда. А для этого ее нужно достаточно грамотно направить.