BitcoinWorld
Термины ИИ, с которыми все кивают: практический глоссарий
Искусственный интеллект меняет отрасли, но вместе с тем породил плотный новый словарь, в котором даже опытные технологи с трудом успевают разобраться. Такие термины, как LLM, RAG, RLHF и диффузия, постоянно мелькают в заголовках, анонсах продуктов и залах заседаний — однако их точные значения нередко остаются размытыми. Этот глоссарий, который наша редакция регулярно пополняет и обновляет, призван дать чёткие и достоверные определения важнейших терминов ИИ. Он задуман как живой справочник, развивающийся вместе с описываемой технологией.
AGI (искусственный общий интеллект) остаётся одним из наиболее дискуссионных терминов в области. Несмотря на разброс определений, он в целом означает системы ИИ, которые соответствуют или превосходят возможности человека в широком спектре задач. Устав OpenAI описывает его как «высокоавтономные системы, превосходящие людей в большинстве экономически значимых работ», тогда как Google DeepMind трактует его как «ИИ, способный выполнять большинство когнитивных задач как минимум на уровне человека». Отсутствие единого согласованного определения подчёркивает, насколько спекулятивной и умозрительной остаётся эта концепция даже среди ведущих исследователей.
Инференс — это процесс запуска обученной модели ИИ для генерации прогнозов или результатов. Он отличается от обучения — вычислительно затратного этапа, на котором модель извлекает закономерности из данных. Инференс может происходить на самом разном оборудовании: от процессоров смартфонов до облачных кластеров GPU, однако скорость и стоимость инференса существенно варьируются в зависимости от размера модели и инфраструктуры.
Токены — это фундаментальные единицы коммуникации между людьми и большими языковыми моделями (LLM). Они представляют собой дискретные фрагменты текста — зачастую части слов, — которые обрабатывает модель. Токенизация устраняет разрыв между естественным языком и числовыми операциями, выполняемыми системами ИИ. В корпоративной среде количество токенов также определяет стоимость, поскольку большинство компаний в сфере ИИ взимают плату за каждый токен.
Обучение предполагает подачу огромных объёмов данных в модель машинного обучения, чтобы она могла выявлять закономерности и улучшать свои результаты. Этот процесс дорогостоящий и ресурсоёмкий: он требует специализированного оборудования и больших наборов данных. Дообучение (fine-tuning) берёт предварительно обученную модель и дополнительно тренирует её на более узком, задачно-ориентированном наборе данных, позволяя компаниям адаптировать универсальные модели для специализированных применений без необходимости начинать с нуля.
Обучение с подкреплением — это парадигма обучения, при которой модель учится методом проб и ошибок, получая вознаграждения за правильные действия. Этот подход оказался особенно эффективным для улучшения рассуждений в LLM, в частности с помощью таких техник, как обучение с подкреплением на основе обратной связи от людей (RLHF), которое согласовывает выходные данные модели с человеческими предпочтениями в отношении полезности и безопасности.
Дистилляция — это техника, при которой меньшая модель-«ученик» обучается воспроизводить поведение большей модели-«учителя». Это позволяет создавать более эффективные и быстрые модели с минимальной потерей производительности. OpenAI, по всей видимости, использовала дистилляцию для создания GPT-4 Turbo — более быстрой версии GPT-4. Однако применение дистилляции к модели конкурента, как правило, нарушает условия использования.
Нейронные сети — это многослойные алгоритмические структуры, лежащие в основе глубокого обучения. Вдохновлённые взаимосвязанными путями человеческого мозга, эти сети стали значительно мощнее с появлением современных GPU, способных выполнять тысячи вычислений параллельно. Параллелизация — выполнение множества вычислений одновременно — является фундаментальной как для обучения, так и для инференса и во многом объясняет, почему GPU стали аппаратным хребтом индустрии ИИ.
Вычислительные мощности (Compute) — сокращённый термин для обозначения вычислительной мощи, необходимой для обучения и работы моделей ИИ. Он охватывает аппаратное обеспечение — GPU, CPU, TPU — и инфраструктуру, обеспечивающую функционирование отрасли. Этот термин часто фигурирует в дискуссиях о стоимости, масштабируемости и экологическом воздействии ИИ.
Кэш памяти (в частности, KV-кэширование в трансформерных моделях) — это техника оптимизации, повышающая эффективность инференса за счёт сохранения ранее выполненных вычислений и снижения необходимости их повторного выполнения при каждом новом запросе. Это ускоряет время отклика и снижает операционные расходы.
ИИ-агенты знаменуют переход от простых чат-ботов к автономным системам, способным выполнять многоэтапные задачи от имени пользователя — например, бронировать поездки, оформлять расходы или писать код. Агенты кодирования — это специализированное подмножество, которое может самостоятельно писать, тестировать и отлаживать код, выполняя итеративную разработку с минимальным участием человека. Инфраструктура для агентов всё ещё формируется, и определения различаются в зависимости от компании.
Диффузия — это технология, лежащая в основе многих моделей генерации изображений, музыки и текста. Вдохновлённые физикой, диффузионные системы учатся обращать процесс добавления шума к данным, что позволяет им генерировать новые реалистичные результаты из случайного шума. GAN (генеративно-состязательные сети) используют иной подход, противопоставляя две нейронные сети друг другу — генератор и дискриминатор — для получения всё более реалистичных результатов, особенно в дипфейках и синтетических медиа.
RAMageddon — неформальный термин, описывающий острую нехватку чипов RAM, вызванную ненасытным спросом индустрии ИИ на память в центрах обработки данных. Этот дефицит взвинтил цены на потребительскую электронику, игровые консоли и корпоративные вычисления, и немедленного решения пока не предвидится.
Понимание этих терминов больше не является необязательным для специалистов в области технологий, бизнеса и политики. По мере того как ИИ внедряется в продукты, услуги и процессы принятия решений, общий словарь обеспечивает более чёткую коммуникацию, более осознанные дискуссии и более взвешенные стратегические решения. Этот глоссарий будет регулярно обновляться по мере развития отрасли, отражая новые разработки и уточнения в том, как индустрия описывает собственную работу.
В1: В чём разница между обучением и инференсом?
Обучение — это процесс подачи данных в модель, чтобы она усваивала закономерности; он вычислительно интенсивен и дорогостоящ. Инференс — это процесс запуска обученной модели для генерации результатов или прогнозов; он может происходить на более широком спектре оборудования и, как правило, быстрее и дешевле.
В2: Что означает «открытый исходный код» применительно к моделям ИИ?
Модели ИИ с открытым исходным кодом, например семейство Llama от Meta, предоставляют свой базовый код, а иногда и веса в открытый доступ для изучения, модификации и повторного использования. Модели с закрытым исходным кодом, такие как серия GPT от OpenAI, держат код в тайне. Это различие занимает центральное место в дискуссиях о прозрачности, безопасности и доступности в разработке ИИ.
В3: Почему «галлюцинации» являются проблемой в ИИ?
Галлюцинация означает генерацию моделями ИИ неверной или выдуманной информации. Она возникает из-за пробелов в обучающих данных и может приводить к вводящим в заблуждение или опасным результатам, особенно в критически важных областях, таких как здравоохранение или финансы. Это стимулирует интерес к более специализированным, предметно-ориентированным моделям ИИ, менее склонным к пробелам в знаниях.
Эта публикация «Термины ИИ, с которыми все кивают: практический глоссарий» впервые появилась на BitcoinWorld.


