Свежая выжимка ml и AI статей - каждый день
В последние годы большие языковые модели (LLM) стали важным инструментом в области обработки естественного языка (NLP). Однако существующие LLM, как правило, зависят от токенизации — процесса, который разбивает текст на фиксированные токены, что может привести к различным недостаткам, таким как чувствительность к доменам и языкам, а также к шуму в входных данных. В этой статье мы рассмотрим новую архитектуру, представленную в исследовании под названием ByteLatentTransformer (BLT), которая предлагает подход без токенизации, позволяя моделям лучше обрабатывать сырые байты данных.
ByteLatentTransformer (BLT) — это новая архитектура LLM, которая, впервые, достигает производительности, сопоставимой с токенизационными моделями, при этом значительно улучшая эффективность вывода и устойчивость. BLT работает на уровне байтов, что позволяет ему избегать традиционных проблем, связанных с фиксированной токенизацией. Вместо этого BLT кодирует байты в динамически размерные патчи, которые служат основными единицами вычислений.
Токенизация, как правило, является необходимым этапом в обучении LLM, но она имеет свои недостатки. Токены могут вводить предвзятости, влияющие на то, как строка сжимается, что приводит к недостаткам, таким как чувствительность к входному шуму и отсутствие орфографических знаний. Кроме того, токенизация может создать неравенство между языками, так как некоторые языки могут быть представлены менее эффективно, чем другие.
BLT использует динамическое, обучаемое распределение вычислительных ресурсов, позволяя модели выделять больше вычислительной мощности для более сложных патчей данных. Это достигается за счет сегментации данных на основе энтропии предсказания следующего байта, что создает контекстуальные группы байтов с относительно однородной информационной плотностью.
Процесс патчинга в BLT позволяет динамически выделять вычислительные ресурсы на основе контекста. Существует несколько методов патчинга, включая фиксированный размер патча, патчинг по пробелам и динамический патчинг на основе энтропии. Динамический патчинг, в частности, использует оценки энтропии для определения границ патчей, что позволяет более эффективно распределять вычислительные ресурсы.
Фиксированный патчинг: Простой способ группировки байтов в патчи фиксированного размера. Хотя этот метод легко реализуется, он не учитывает сложность данных.
Патчинг по пробелам: Создает новые патчи после каждого пробела, что обеспечивает более естественное разделение на лексические единицы, но не всегда эффективно для всех языков.
Динамический патчинг: Использует оценки энтропии для определения границ патчей. Это позволяет модели выделять больше вычислительных ресурсов для сложных предсказаний, что улучшает общую производительность.
BLT состоит из трех основных модулей:
Локальный энкодер: Легковесная модель на основе трансформеров, которая кодирует входные байты в патч-репрезентации. Она использует кросс-внимание для максимизации потока информации между патчами и байтами.
Глобальный латентный трансформер: Основная модель, которая обрабатывает патч-репрезентации и производит выходные патч-репрезентации. Она использует блочно-каузальное внимание, что позволяет ей сосредоточиться на текущем патче и предыдущих патчах в документе.
Локальный декодер: Модель, которая декодирует патч-репрезентации обратно в сырые байты. Она также использует кросс-внимание, чтобы создать байт-репрезентации из патчей.
Исследование BLT включает первое масштабируемое исследование моделей на уровне байтов с контролем за вычислительными затратами. Результаты показывают, что BLT может достичь производительности, сопоставимой с Llama 3, при использовании до 50% меньше вычислительных операций при выводе.
BLT демонстрирует заметные улучшения как в обучении, так и в выводе. Динамическое выделение длинных патчей, когда данные предсказуемы, приводит к повышению эффективности. Модели BLT более устойчивы к шумным входным данным и показывают улучшенные способности к пониманию на уровне символов.
BLT предлагает значительные преимущества по сравнению с токенизационными моделями, такими как Llama 3. В частности, BLT может одновременно увеличивать размер модели и размер патча, сохраняя фиксированный бюджет вычислений для вывода. Это позволяет эффективно перераспределять вычислительные ресурсы и достигать лучших результатов на сложных задачах.
BLT показывает улучшенные результаты на задачах, связанных с долгосрочной генерализацией и рассуждением. Модели BLT демонстрируют более высокую устойчивость к шуму и лучшее понимание орфографических аспектов, что делает их особенно полезными для приложений в области перевода и обработки естественного языка.
ByteLatentTransformer представляет собой значительный шаг вперед в архитектуре больших языковых моделей. Благодаря динамическому патчингу и обучению на уровне байтов, BLT предлагает решение для многих недостатков традиционных токенизационных моделей. Это открывает новые возможности для более эффективных и адаптивных подходов к обработке естественного языка, что делает BLT многообещающим инструментом для будущих исследований и разработок в области AI и NLP.