cookie

Мы используем файлы cookie для улучшения сервиса. Нажав кнопку «Принять все», вы соглашаетесь с использованием cookies.

avatar

КПД

Квантование & Прунинг & Дистилляция Блог про сжатие сетей и не только. От древнейших времен по настоящее время.

Больше
Рекламные посты
880
Подписчики
+224 часа
+97 дней
+25830 дней

Загрузка данных...

Прирост подписчиков

Загрузка данных...

Квантование KV-кэшей добавили в 🤗! [Блогпост] Чтобы не пересчитывать каждый раз все заново при авторегрессивной генерации, в трансформерах используются kv-кэши, ключи и значения, посчитанные для прошлых токенов, сохраняются в памяти и используются при подсчете attention для каждого нового токена. Однако есть проблема - если последовательность длинная, кэш слишком тяжелый становится. Для 🦙 (1 или 2) 7b для 10к токенов потребуется 5Gb памяти (2 * 2 * 32 * 32 * 128 * 10000 ≈ 5GB). А для более крупных моделей и , если контекст переваливает за миллион, страшно представить сколько. Существуют разные подходы к сжатию KV-кэшей, и один из наиболее очевидных - квантизация кэша, преставление ключей и значений в более низкой битности. Метод В работе KIVI предложили 2-битное ассиметричное (с zero point) квантование кэшей. Ключи квантуются поканально, значения - по токенно. Поканальное квантование помогает бороться с outliers. В HF использует по-токенное квантование для ключей и значений из соображений скорости, несколько жертвуя качеством. Кроме того, чтобы немного улучшить качество, самые свежие 128 токенов держат в исходной точности. Они обычно самые важные для текущего токена, и не добавляют много памяти для длинного контекста. HF поддерживает два метода квантизации: - quanto (простой rount-to-nearest) - hqq Оба метода data-free. Валидация На замерах перплексии на Llama-2-7b на PG-19, 4-битный HQQ не просаживает качество, а quanto_int4 умеренно просаживает. 2-битные квантизации сильно роняют качество. На LongBench в 4 битах почти нет просадки по качеству. На длинных последовательностях удается достичь до 2.5x экономии потребляемой памяти. Скорость, генерации, однако замедляется так как на текущий момент нет оптимизированных ядер. Просадка по скорости 30-50% судя по графикам (крайняя правая точка на графике number_of_tokens/sec явно забагованная). Кроме того, данная стратегия помогает именно на стадии генерации, а заполнение промпта (pre-fill) приходится делать стандартным способом. Метод совместим с Flash Attention. Использование Достаточно установить quanto, и прописать аргументы в методе .generate.
Показать все...
👍 20
Фото недоступноПоказать в Telegram
С приближением дедлайна NeurIPS частота сообщений про новый revision стремительно нарастает...
Показать все...
18😁 5 2😨 2
Фото недоступноПоказать в Telegram
Чем ближе к дедлайну, тем
Показать все...
Что у вас приходит первым на ум при слове КВАНТ?Anonymous voting
  • Что-то из физики элементарных частиц
  • Что-то из экономики
  • Что-то про сжатие нейронок
  • Свой вариант
0 votes
Судя по количеству создателей, имеет место scaling law не только по размеру модели и обьему данных на обучении, но и числу рисерчеров при обучении LLMок.
Показать все...
😁 18🍾 3
Полагаю, многие уже успели восхититься выдающимися возможностями нового детища от OpenAI - GPT4o. Детальный разбор и сводка имеющейся информации приведена в постах Сиолошной, так что дабы сэкономить на генерации собственных токенов я не буду повторяться. На мой взгляд, самое удивительное во всем этом, что новая модель, не только стала лучше, обрела новые возможности и кучу мелких и крупных плюшек, но и стала дешевле в использовании. Безумно любопытно, в чем же секрет столь эффективного и быстрого инференса при сохранении высочайшего качества? Подозреваю, что там весьма нетривиальное сочетание алгоритмов сжатия и ускорения, разных оптимизаций движка. Вероятно, и архитектурные навороты - смесь / несмесь экспертов (может в ширину, а может и в глубину). А может просто большой трансформер без причуд?) И возможнось бесплатного пользования моделью (хоть и в ограниченном количестве) - очень неожиданный ход от OpenAI, которые хоть немножечко, но приоткрылись) Но думаю, что все продумано, не разорятся на этом жесте доброй воли...
Показать все...
🤔 9👍 2 2
1x16 AQLM квантизации 🦙-3 на хабе! 1️⃣ Meta-Llama-3-8B-AQLM-2Bit-1x16 2️⃣ Meta-Llama-3-8B-Instruct-AQLM-2Bit-1x16 3️⃣ Meta-Llama-3-70B-AQLM-2Bit-1x16 4️⃣ Meta-Llama-3-70B-Instruct-AQLM-2Bit-1x16 Дело заняло несколько дольше времени ⏳, чем предполагалось. Новую линейку LLMок от Меты оказалось сложнее квантовать по сравнению с предшественниками с приемлемой просадкой в качестве, а выкладывать шлак, под красивой этикеткой не позволял кодекс чести самурая. Пришлось улучшить процедуру файнтьюна - больше токенов, больше компьюта. Но в итоге добили до приемлемого качества. Пользуйтесь, делитесь впечатлениями) 8B версия великовата (~4Gb) из-за больших эмбедов и lm_head (так как словарь большой). В будущем планируем попробовать посжимать и эмбеды / языковую голову.
Показать все...
👍 26🙏 5
Абитуриентов в принципе можно евалить как LLMки. Вместо ЕГЭ давать MMLU_ru. А на вступительных давать проверяющему (которого можно заменить GPT4 или Зелибобой) ответы двух абитуриентов (без указания их имен) и затем отсекать по ELO score.
Показать все...
👾 28
Эксперименты Предлагаемую парадигму валидируют на аппроксимации явно заданных математических функции и еще в ряде физических приложений - решении уравнений в частных производных, исследовании Андерсоновской локализации в разных решеточных системах. При том же числе параметров, KAN сходятся значительно быстрее и достигают лучшего качества по сравнению с традиционными архитектурами. Проблема переобучения , тем не менее, все равно может иметь место. Кроме того, для повышения интерпретируемости, авторы предлагают накладывать L1 + энтропийную регуляризацию для удаления побочных связей в сети, и полученная спарсифицированная сеть на игрушечных примерах действительно вполне интуитивна. Вывод Работа весьма занятная и интересная. Однако, преждевременно утверждать, что предложенный подход тут же возьмет и вытеснит MLP. Во-первых, требуется валидация на реальных данных. Удивительно, что авторы не показывают эксперименты на том же MNIST или табличных данных, которые должны быть по зубам даже исследователям с ограниченными ресурсами. Возможно, KAN просто имеют хороший inductive bias для решения определенного круга задач. Кроме того, текущая парадигма построения сетей хороша тем, что удачно ложится на возможности современных GPU, способных параллелизовать эффективно операции с большими тензорами. KAN же не настолько hardware-friendly в этом отношении. Но могут найти свою нишу при инференсе на CPU и FPGA. Для приложений математики и физики, KAN, безусловно, представляют интерес, но можно ли ими заменить MLP в трансформере? Поживем, увидим 🤷‍♂️.
Показать все...
20👍 7
KAN: Kolmogorov-Arnold Networks [Статья][Код] Введение В основе всех (ну почти всех) современных архитектур лежит многослойный перцептрон (MLP) с обучаемыми матрицами, сдвигами и фиксированными активациями и некоторым механизмом агрегации для пространственных входов (свертки, attention, state-spaces, мамба, хуямба). Теория гласит, что при некоторых предположениях на целевую функцию и функции активации в сети, таким образом достаточно большой сетью можно приблизить эту самую целевую функцию. Возникает вопрос - оптимален ли такой подход по вычислениям / точности и нельзя ли изобрести нечто лучшее? Метод В данной статье авторы переосмысляют и в некотором смысле обобщают парадигму построения многослойной сети. В основе идеи лежит знаменитая теорема Колгмогорова-Арнольда, что непрерывную многомерную функцию на ограниченной области можно всегда представить в виде композиции функций от одной переменной. Однако, при этом теорема не дает явного вида этих функций, которые могут оказаться сколько угодно плохими, потому не реализуема на практике. В данной статье предлагают выучивать сами функции активации, параметризуя их некоторым образом. Каждое ребро между входным и выходным нейроном задается некоторой параметрической функцией довольно общего вида. Традиционный MLP является одним из частных случаев предлагаемой парадигмы. В оригинальной теореме перцептрон всего с одним скрытым слоем, но ничто не мешает технически настакать их побольше. На практике KAN-слой реализуется как B-сплайн с residual connections, домноженный на константу: \phi(x) = w(b(x) + spline(x)), где b(x) = silu(x) = x / (1 + e^{-x}) Оптимизация такого сплайна довольно нетрививальна, и для улучшения сходимости сплайн инициализирует так, чтобы быть близким к нулю в начальный момент времени, и сетка с узлами сплайна обновляется на лету. При той же глубине и ширине в KAN-сети больше параметров, чем в классической MLP в G (G - размер сетки) раз, но мотивация работы в том, что KAN требуется меньшая ширина для достижения сопоставимого качества. Далее авторы обосновывают, что KAN обладает значительно лучшей масштабируемостью в сравнении c MLP и обходит проклятие размерности за счет того, что представляет многомерную функцию в виде композиции одномерных, тем самым переводя задачу эффективно в низкоразмерное пространство и выводят степенной закон убывания функции потерь. Для KAN в однослойной сети, аппроксимирующие функции могут быть очень плохими, но с ростом глубины, существуют все более гладкие комбинации, способные решать целевую задачу. По ходу дела, для повышения выразительности сети можно добавлять дополнительные узлы в сплайн.
Показать все...
👍 30 5