Свежая выжимка ml и AI статей - каждый день
Современные большие языковые модели (LLMs) демонстрируют впечатляющие способности к генерации текста, однако они часто сталкиваются с проблемами, связанными с "галлюцинациями" — генерированием неверной или несуществующей информации. Для решения этой проблемы появилась концепция генерации с поддержкой извлечения (RAG), которая позволяет моделям использовать внешние источники знаний для повышения точности и надежности своих ответов. Однако существующие методы RAG имеют свои ограничения, такие как необходимость в отдельном извлекателе, избыточные токены ввода и отсутствие совместной оптимизации извлечения и генерации.
В этой статье мы рассмотрим новый подход, предложенный в исследовании RetroLLM, который объединяет процессы извлечения и генерации в единую, согласованную систему. RetroLLM позволяет языковым моделям напрямую генерировать фактические доказательства из корпуса данных, минимизируя проблемы, связанные с избыточностью и неэффективностью извлечения.
Существующие методы RAG обычно зависят от отдельного извлекателя, который извлекает текстовые фрагменты из большого корпуса данных. Это приводит к нескольким проблемам:
RetroLLM предлагает решение этих проблем, предлагая интегрированную платформу, в которой извлечение и генерация происходят в рамках единого авто-регрессионного процесса. Это позволяет модели самостоятельно решать, сколько доказательств извлекать и когда генерировать окончательный ответ, что значительно повышает гибкость и эффективность системы.
Структура RetroLLM состоит из нескольких ключевых компонентов:
Процесс декодирования в RetroLLM включает несколько этапов:
FM-индекс (Full-text index in Minute space) — это эффективная структура данных, которая позволяет быстро извлекать подстроки из больших текстовых корпусов. RetroLLM использует иерархические FM-индексы, которые включают глобальный индекс для всего корпуса и локальные индексы для отдельных документов. Это позволяет модели быстро находить релевантные документы и минимизировать пространство для декодирования.
На этапе генерации подсказок RetroLLM создает набор ключевых фраз, которые помогают определить релевантные документы. Эти подсказки формируются на основе запроса и глобального FM-индекса, что позволяет модели более точно нацеливаться на релевантные темы.
На этапе генерации доказательств RetroLLM использует документальные FM-индексы для извлечения информации из ранее определенных релевантных документов. Это позволяет модели сосредоточиться на наиболее подходящих фрагментах текста, избегая ненужной информации.
После извлечения доказательств модель переходит к генерации окончательного ответа. Этот этап не подлежит ограничениям, что позволяет модели свободно формулировать ответ на основе собранной информации.
RetroLLM демонстрирует ряд преимуществ по сравнению с традиционными методами RAG:
Эксперименты, проведенные на пяти открытых наборах данных для вопросов и ответов, показали превосходные результаты RetroLLM как в рамках задач в своем домене, так и вне его. RetroLLM значительно превзошел традиционные методы RAG и сложные стратегии RAG, что подтверждает его эффективность и универсальность.
RetroLLM представляет собой значительный шаг вперед в области генерации с поддержкой извлечения, предлагая интегрированную платформу, которая объединяет извлечение и генерацию в единую систему. Это позволяет моделям более эффективно извлекать и генерировать фактические доказательства, что, в свою очередь, улучшает качество ответов. Несмотря на свои достижения, RetroLLM также сталкивается с некоторыми ограничениями, которые открывают новые возможности для будущих исследований, включая улучшение устойчивости и оптимизацию производительности.
RetroLLM не только решает текущие проблемы в области RAG, но и закладывает основу для дальнейших исследований и разработок в области больших языковых моделей и извлечения информации.