Масштабирование следующего поколения ИИ увеличивает риски, а не улучшает качество

Пределы масштабирования искусственного интеллекта

Искусственный интеллект долгое время определялся масштабом — созданием больших моделей, ускорением обработки и расширением дата-центров. Предполагалось, что такой рост будет улучшать производительность, снижать затраты и расширять доступ. Однако сейчас эта гипотеза перестаёт работать. Масштабирование ИИ оказывается капиталоёмким, ограниченным физическими ресурсами и сталкивается с убывающей отдачей заметно раньше, чем ожидалось.

Прогнозы показывают, что к 2030 году потребление электроэнергии дата-центрами в мире удвоится и достигнет уровней целых промышленных секторов. Только в США спрос на электроэнергию дата-центров может вырасти более чем на 100% к окончанию десятилетия. Такое расширение требует триллионов долларов инвестиций и существенного увеличения мощности электросетей.

Риски ошибок в критически важных областях

ИИ активно внедряется в право, финансы, комплаенс, трейдинг и управление рисками — сферы, где ошибки распространяются быстро, а доверие крайне важно. В июне 2025 года Верховный суд Великобритании предупредил юристов прекратить подавать документы, ссылающиеся на сфабрикованные прецеденты, созданные ИИ.

Если система ИИ способна выдумывать несуществующие судебные решения, и профессионал им пользуется, вопросы масштабирования превращаются в проблему доверия общества. Масштабирование усиливает слабости ИИ, а не устраняет их.

Ограничения масштабирования и необходимость нового подхода

Проблема заключается в том, что именно улучшает масштаб. Крупные языковые модели (LLM) становятся более беглыми, поскольку язык основан на шаблонах. Чем больше примеров текста видит модель, тем быстрее она совершенствуется.

Однако глубокое понимание — причинно-следственное мышление — не масштабируется так же. Следующее поколение ИИ должно уметь распознавать причинно-следственные связи и осознавать неопределённость или неполноту ответов. Оно должно объяснять логику выводов, а не просто выдавать уверенный результат. Это нельзя улучшить лишь увеличением параметров или вычислительной мощности.

Из-за этого проверка результатов ИИ ложится всё большей нагрузкой на человека, который тратит больше времени на верификацию, чем на использование результатов. Эта нагрузка возрастает с распространением систем.

Рост затрат на обучение и эксплуатацию моделей

Обучение передовых моделей ИИ стало чрезвычайно дорогим, с ежегодным ростом затрат. Ожидается, что одна сессия обучения скоро может превысить миллиард долларов. Но обучение — только начальная стоимость.

Значительно дороже становится вывод — постоянный запуск моделей в реальном времени с требованиями к задержке, доступности и проверке. Каждая операция потребляет энергию, каждая реализация требует инфраструктуры. С ростом использования увеличиваются затраты и энергопотребление.

Применение ИИ в криптосреде и связанные риски

В криптоэкосистеме ИИ используется для мониторинга onchain-активности, анализа настроений, генерации кода для смарт-контрактов, обнаружения подозрительных транзакций и автоматизации решений. В динамичной и конкурентной среде беглый, но ненадёжный ИИ быстро распространяет ошибки; неверные сигналы влияют на распределение капитала, а вымышленные объяснения и галлюцинации подрывают доверие.

Один из примеров — массовые ложные срабатывания в автоматизированных системах борьбы с отмыванием денег (AML), что тратит время и ресурсы на проверку невиновных операций. Масштабирование ИИ без улучшения его рассуждений усугубляет риски, особенно там, где автоматизация и достоверность критичны.

Необходимость новых архитектур и децентрализации ИИ

Для обеспечения экономической и социальной эффективности ИИ нельзя полагаться только на масштабирование. Современная доминирующая стратегия — увеличение вычислительной мощности и объёма данных, при этом архитектура рассуждений остаётся практически неизменной. Это приводит к роста затрат без адекватного повышения безопасности.

Альтернатива — архитектурные изменения. Системы должны не просто предсказывать слова, а представлять отношения, применять правила, проверять собственные выводы и обеспечивать прозрачность логики.

Нейросимволические когнитивные системы, которые организуют знания в взаимосвязанные концепции, а не опираются только на шаблонное сопоставление, демонстрируют высокую способность к рассуждению при гораздо меньших энергозатратах и требованиях к инфраструктуре.

Когнитивные платформы способны работать локально на серверах или edge-устройствах, позволяя пользователям удерживать контроль над собственными знаниями вместо передачи их централизованной инфраструктуре. Хотя такие системы сложнее в разработке и менее эффективны в открытых задачах, повторное использование рассуждений снижает затраты и упрощает проверку.

Контроль над разработкой ИИ важен наряду с его способностями. Необходимы сообщества, которые смогут формировать, проверять и использовать ИИ без ожидания разрешений от централизованных владельцев платформ.

Некоторые проекты исследуют этот путь с помощью блокчейна, позволяя частным лицам и компаниям вносить данные, модели и вычислительные ресурсы. Децентрализация разработки уменьшает риски концентрации и ориентирует внедрение на локальные потребности вместо глобальных.

Переосмысление масштабирования в эпоху ИИ

ИИ стоит на переломном этапе. При возможности повторного использования рассуждений вместо их заново открытия через масштабное сопоставление шаблонов, системы требуют меньше ресурсов на каждое решение и уменьшают нагрузку на проверяющих людей. Это меняет экономику — эксперименты становятся дешевле, выводы — предсказуемее, а масштабирование — менее зависимым от экспоненциального роста инфраструктуры.

Масштабирование достигло пределов. Оно выявило ограничения подхода, основанного только на увеличении размеров. Сейчас в индустрии стоит выбор — либо продолжать делать ставку на увеличение масштабов, либо начать инвестировать в архитектуры, способные обеспечивать надёжный интеллект до его увеличения.

Алекс Крипт
Мнение аналитикаАлекс Крипт

Я считаю, что рост масштабов ИИ сталкивается с существенными физическими и экономическими ограничениями, а также с ростом рисков из-за ошибок. Важно рассматривать архитектурные изменения, которые позволят повысить качество рассуждений и снизить зависимость от громоздких вычислительных ресурсов. Только такой подход обеспечит устойчивое развитие ИИ.