cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Dealer.AI

Жоский ИИ дядя. Твой личный поставщик AI 💊💉🤖 Канал о мире интересного AI: ML, DL, NLP/NLU, RL, Retrieval, RecSys. Для связи @dealer_ai Habr @Andriljo

Show more
Advertising posts
4 854
Subscribers
+1224 hours
+197 days
+19530 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Продолжим про память, но в разрезе ее инструмента-функций. Работы и тут предвидится много. Есть куда приложить разрабам и MLE свои руки и умы. + Масло в огонь подкидывает мнение: The function calling accuracy in LLMs is really poor. The best function calling accuracy is obtained with GPT-4 and it's 86.76%. It's already too low to be practical, but one should discount this number more assuming that the test data Berkeley used to evaluate function calling contained up to 4 functions to choose from. If with <=4 functions to choose from the accuracy is ~80%, imagine how low it would be when we will have 20 functions to choose from. Залетел по ссылке, годный guide в gorilla berkley получился, помимо leaderboard.
Show all...
Andriy Burkov (@burkov) on X

Function calling accuracy in LLMs really sucks. The best function calling accuracy is obtained with GPT-4 and it's 83.8%. It's already too low to be practical, but one should discount this number more assuming that the test data Berkeley used to evaluate function calling…

👍 7🔥 1🤔 1💯 1
"Что-то с памятью моей стало, всë, что было не со мной, помню." Из жизни LLM. Немного отвлеку вас, но не себя от шашлындоса в эти майские. Тут OpenAI выкатили обновление функции памяти, снова. Тем временем, память и персонализация, имхо, одна из самых недооцененных фичей виртуальных ассистентов. И это я не про 20 тэгов, что вы помните в своей колонке Дусе в ее сценарном движке. Я про действительно гибкий механизм и лучше на LLM. Который бы позволял вам: 1. Сохранять из контекста диалога важные факты о юзере: истории из биографии, интересы, не говоря уже про имя его собаки и состав семьи. А далее, это можно было бы шэрить в другие каналы и сервисы. Это ж фичестор для next-best-offer, recsys и пр., улучшающего retention и уменьшающего churn, решения. 2. Вызывать эти данные из памяти, с помощью, например, функций и КОНТЕКСТНО их использовать в диалоге. Это, вообще, Вам открывает ап интересности, retention, MAU/DAU, длину сессии и тп. А для челиков с денежным мышлением - потенциально, возможность контекстной рекламы/рекомендаций в цифровом канале (но только аккуратно). 3. Обладал бы свойством масштабируемости, те условный RAG, как память, мне не предлагать. Тк к каждому юзеру (особенно когда их > сотни тысяч) я замотаюсь хранить, под каждого, условный faiss индекс. Тут лучше реально делать на подобии функций для динамического вызова + что-то сразу класть в систем промпт под начало сессии: пол юзера, имя, состав семьи и тп, что надо перманентно иметь ввиду. Отсюда возникают вызовы: 1. Контекст не резиновый, че хранить в нем. 2. Форматы сохранения и вызова: и это не пресловутый json go brr, а какие ключи в нем и значения, как и когда вызывать эту портянку. С ходу скажу, по вызову. У вас есть контекст из диалога юзер vs ассистент. На текущий квант, времени вы имеете К фраз и вот исходя из них надо сгенерить К+1ю фразу ответ. НО сначала, вызвать тэг памяти с помощью LLM и только потом генерить с полученной от функции памяти инфой ответ. Ну иначе, делать генерацию фразы ответа и в середине нее видеть тэг вызова памяти ну такое, хз как туда вкинуть инфу из памяти и догенерить ответ. У вас ж стримминг, да с учетом delay, но я ума не приложу, как догенерить умно. Пишите идеи в комменты. А я пока вижу ток сначала, если только это нужно, LLM (или иное) генерит токен вызова, получает подсказку и только после генерируем ответ. 3. Под пункты 1,2 нам надо иметь заварку датки на тюн вызова LLM при помощи генерации токена памяти с параметрами: извлечь из памяти или записать в память. И как положено, у нас ж ЖЭПЭТЭ и она и глюкает и ошибается в генерации в принципе. Будет весело, поверьте. Тут разве, что делать на первых этапах аннотаторы контекста (small классификаторы), которые банально трекают контекст и выдают вероятность вызова функции памяти на запись или на извлечение. FP/FN будут, но глюков не будет. Еще плюс, что это не sft на генерацию, а тупо small BERTы классификация 0/1(для вызова) + NER (для извлечения сущностей, что кладем). Крч, я не знаю, что там у OpenAI под капотом, но вижу возможности и проблематику так. Пишите ваши варианты памяти в комментарии и не забудьте перевернуть шампур, а то у вас уже подгорает.
Show all...
ChatGPT’s AI “memory” can remember the preferences of paying customers

ChatGPT remembers it all too well.

👍 12 3🔥 3🤔 2
На майские начать с нового листа. Сорева по решению математических задач с LLM обнулилась... https://www.kaggle.com/competitions/ai-mathematical-olympiad-prize/leaderboard
Show all...
🥴 9
Почему SkipMoe.
Show all...
👍 9 2
Arctic LLM 🥶 Skip MoE 🤩 Тут уже все обсосали обсудили жирный 480b Arctic MoE. Я его уже обозвал SkipMoE. Почему? Обратите внимание на скрин архитектуры ниже. Теперь вместо того, чтобы роутить К экспертов в ffn после multi head attention, мы роутим skip connection эмбы прям после эмб матриц токенов (с учетом эмбов позиций конечно). Те мы делаем доп отображение векторов токенов сразу без MHA и risidual коннектим к выходу блока. Зачем такое может быть нужно? Возможно, чтобы лучше сохранять изначальную инфу без MHA отображения по различным "доменам" информации. Ablation. А еще есть вот такой постик на medium, чет аля тех репорт. Описанны эксперименты + losses для сетапов с/без MoE, а так же с разными вариантами выбора по частоте и топК экспертов. В работе Arctic используется топ-2 на 128 экспертах, при этом размер ffn на каждый топК уменьшается в М раз и увеличиваем в L число экспертов. Для топ-2 в 2 раза. Еще интересно исследование числа FFN на MoE в блоках трансформера. Это или на каждый FFN мы даем МоЕ блок или через блок или через каждые N>1. Крч, народ обмазывается MoE в разных местах архитектуры трансформер опять же.
Show all...
Snowflake/snowflake-arctic-instruct · Hugging Face

We’re on a journey to advance and democratize artificial intelligence through open source and open science.

6
Apple представил свой вариант кода для обучения LLM, CLIP-like и тп. https://github.com/apple/corenet
Show all...
GitHub - apple/corenet: CoreNet: A library for training deep neural networks

CoreNet: A library for training deep neural networks - apple/corenet

👍 4
Полное 3D погружение.🌿 В последнее время все чаще ко мне заходят работодатели и ищут людей с опытом в 3D CV. Даже один мой бывший студент, у которого стартап по Medicine CV забегал. К чему я это? Сейчас высокий спрос, а значит надо оседлать очередную "волну". И тут ребята из deepschool как раз подготовили такой курс, а для начала проведут лекцию «Погружение в 3D CV». На лекции вы узнаете: - какие задачи решают в 3D - почему таких задач становится больше - с чего начать погружение в эту область - почему CV-инженеру важно знакомиться с 3D - что такое SLAM, SfM, SMPL, NeRF, 3D Gaussian Splatting и другие баззворды. А еще челики не жадные и подготовили скидки участникам💸 📌 Лекция пройдет в четверг, 25 апреля, 18:00 МСК. Регистрируйтесь тут.
Show all...
Онлайн-лекция"Погружение в 3D CV"

🤪 13👍 4 3🔥 3🤡 1
если кто не понял о чем я и забыл, что такое Alpaca tuning. Ребзя из тимы Вихря, вероятно, хотят провернуть тоже с 70b LLama3.
Show all...
👍 7
Ща за альпачинят 👇
Show all...
Надеплоил llama3 70b, собираем синту под русские инструкт датасеты, приходите тыкаться! @vikhrbot
Show all...
🔥 9