Свежая выжимка ml и AI статей - каждый день
В эпоху цифровизации, где видеоконтент становится всё более значимым, понимание и анализ длинных, неотредактированных видео становится критически важной задачей. Однако, несмотря на значительные достижения в области больших мультимодальных моделей (LMM), обработка длинных видео остаётся сложной задачей из-за ограничений в длине контекста и значительного потребления памяти. Эти ограничения часто приводят к потере важной информации и снижению релевантности ответов модели.
В этой статье мы представляем SALOVA (Segment-Augmented Long Video Assistant), новаторскую платформу, разработанную для улучшения понимания длинного видеоконтента через целенаправленный процесс извлечения. SALOVA адресует два основных вызова:
Создание датасета SceneWalk: Высококачественного набора данных из 87.8K длинных видео, каждое из которых плотно аннотировано на уровне сегментов, что позволяет моделям улавливать непрерывность сцен и поддерживать богатый описательный контекст.
Разработка архитектурных решений: Интеграция динамического механизма маршрутизации и пространственно-временного проектора для эффективного извлечения и обработки релевантных сегментов видео на основе пользовательских запросов.
Для создания датасета SceneWalk, который фокусируется на длинных и неотредактированных видеосюжетах, мы учитывали три ключевых аспекта:
Длительность видео и разнообразие категорий: Мы выбрали видео с YouTube, обеспечивая разнообразие и сложность контента, отражающего реальные условия.
Качество контента: Исключались низкокачественные и эстетические пользовательские видео, которые больше подходят для задач генерации видео.
Частые переходы сцен: Видео с частыми изменениями сцен были предпочтительны для обучения модели распознаванию и пониманию динамических изменений в контенте.
Видео сегментировались на более мелкие части с использованием PySceneDetect, который динамически настраивает порог обнаружения сцен, основываясь на визуальной информации. Это позволило получить 1.29M сегментов видео с средней длиной 33.11 секунд.
Каждый сегмент видео был снабжен детальным описанием, созданным с помощью предобученных моделей (VILA-1.5-13B), обеспечивая среднюю длину описания в 137.5 слов. Эти описания охватывают как визуальные, так и нарративные элементы, что обогащает интерпретацию на уровне сцен.
Для обучения модели мы использовали LanguageBind для измерения соответствия между видео и текстом, а также SBERT для оценки текстового контекста, создавая матрицы соответствия для обучения модели на распознавание релевантных сегментов.
SALOVA состоит из четырёх основных компонентов:
Визуальный энкодер: Используется CLIP-ViT-L-336px для извлечения визуальных признаков.
Пространственно-временной коннектор: Управляет пространственно-временными признаками, используя Perceiver Resampler для встраивания сегментов видео в фиксированные латентные векторы.
Маршрутизатор извлечения сегментов: Выбирает и маршрутизирует релевантные сегменты видео в LLM (Large Language Model) на основе текстовых запросов.
LLM: Мы использовали различные модели, такие как LLaMA-3.2, Phi-3.5 и Qwen-2.5, для обработки и генерации ответов.
Этот компонент эффективно обрабатывает длинные и переменные по длине входные видео сегменты, извлекая их визуальные семантики в фиксированные латентные векторы. Для этого используется динамический токен-дроп, который уменьшает вычислительную нагрузку, сохраняя при этом важные визуальные данные.
Ключ к передаче релевантной информации из видео в LLM заключается в извлечении соответствующих сегментов видео на основе запроса. Маршрутизатор извлечения сегментов использует трансформеры для оценки сходства между сегментами видео и текстовыми запросами, обеспечивая целенаправленный выбор сегментов для дальнейшей обработки.
SALOVA применяет стратегию FocusFast, которая разделяет обработку видео на две ветви:
Focus: Концентрируется на детальном анализе выбранных сегментов для глубокого понимания.
Fast: Быстро получает общий контекст видео, используя маршрутизирующие токены из всех сегментов.
Эта стратегия позволяет SALOVA поддерживать комплексное понимание видео, приоритизируя детали там, где это необходимо, и эффективно обрабатывая длинные и неотредактированные видео.
SALOVA представляет собой значительный шаг вперёд в области анализа длинных видео, предлагая решение для двух основных проблем: ограниченной длины контекста и высокого потребления памяти. С помощью инновационного подхода к извлечению сегментов и динамической маршрутизации, SALOVA позволяет моделям эффективно работать с длинными видеосюжетами, сохраняя при этом релевантность и точность ответов на запросы пользователей.