cookie

ما از کوکی‌ها برای بهبود تجربه مرور شما استفاده می‌کنیم. با کلیک کردن بر روی «پذیرش همه»، شما با استفاده از کوکی‌ها موافقت می‌کنید.

avatar

Мишин Лернинг 🇺🇦🇮🇱

Субъективный канал об искусстве машинного обучения, нейронных сетях и новостях из мира искусственного интеллекта.

نمایش بیشتر
پست‌های تبلیغاتی
7 979
مشترکین
-124 ساعت
-37 روز
-6330 روز

در حال بارگیری داده...

معدل نمو المشتركين

در حال بارگیری داده...

Photo unavailableShow in Telegram
📰 OpenAI объявили, что начали обучение новой версии GPT, скорее всего, речь идет про GPT-5. В посте говорится, что сегодня совет директоров OpenAI сформировал Комитет по Безопасности, возглавляемый Бретом Тейлором, Адамом Д’Анджело, Николь Селигманом и Самом Альтманом. И это связано с выпуском следующей версии GPT, цитирую: OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что полученные системы выведут нас на новый уровень возможностей на нашем пути к AGI. Скорее всего, речь идет именно про GPT-5. Анализируя актуальный релиз GPT-4o, можно сделать вывод, что кроме еще более дорого претрейна из коробки стоит ожидать: — более качественный Aligning (понимание и следование намерениям пользователя) с уклоном не только в точность, но и в безопасность — Еще больший упор в мультимодальность. Тут фантазирую, но вероятно, что будет еще более глубокий fuse визуальных, текстовых и аудио токенов. читать 👉 OpenAI Board Forms Safety and Security Committee
نمایش همه...
🦄 14🔥 5 2👍 1🌚 1
Photo unavailableShow in Telegram
🫦 GPT-4o — Вот вам "HER" от OpenAI tl:dr End-to-End Image + Text + Speech версия GPT-4 До появления GPT-4o использование режима Voice Mode с ChatGPT позволяло получать ответы со средним временем задержки в 2.8 секунды для GPT-3.5 и 5.4 секунды для GPT-4. В этом режиме были задействованы три отдельные модели: 1. Speech-to-Text переводила аудио в текст 2. Затем GPT-3.5 или GPT-4 обрабатывала текст и генерирует ответ. 3. И, наконец, третья модель переводила текст обратно в аудио. Это означает, что модель GPT-4 не имеет доступа ко всей информации — она не воспринимает интонации, не различает голоса разных собеседников и не учитывает фоновые шумы, она не может воспроизводить смех, пение или передавать эмоции. GPT-4o представляет собой новую модель, обученную end-to-end на трех доменах, включая текст, изображения и аудио. 👁 Блог OpenAI 🎞 YouTube OpenAI
نمایش همه...
38👍 10
Photo unavailableShow in Telegram
Макс пытается в OpenAI 2.0 Его новая компания xAI, Выложили 314B (а это реально Пи3дец как много для опенсорса) MoE модель Grok-1. По метрикам, пишут, что лучше чем GPT-3.5, но, имхо для 314B звезд с нема не хватает. Реализация на: import haiku as hk import jax Из интересного, это самый большой опенсорс, да еще и лицензией apache. Ну а пока, если кажется, что 46.7B (8x7B) Hermes-Mixtral (ну и если нужно полегче hermes-mistral или phi2) самое адекватное, что есть из опенсорса. Код здесь. https://github.com/xai-org/grok-1
نمایش همه...
35👍 5
Photo unavailableShow in Telegram
Все, что вы хотели знать о SORA The Wall Street Journal взяли интервью у Миры Мурати (OpenAI CTO). Ждем SORA в этом году (она надеется, что будет доступно юзерам в течение пары месяцев). Обещают стоимость генераций, соизмеримую с DALL-E (чтобы это не значило) 📼 YouTube: https://www.youtube.com/watch?v=mAUpxN-EIgU
نمایش همه...
👍 23👎 3
Photo unavailableShow in Telegram
Сегодня Международный женский день. Тут не будет поздравлений, состоящих из пошлых клише в стиле "... женщины, которые вдохновляют нас не только своей красотой, но и своими успехами".. аж плохо стало... Я хочу написать о реальной борьбе, которую ведет каждая женщина. Этот день — не о цветах и комплиментах, а о признании тех вызовов, с которыми сталкиваются женщины ежедневно. Сегодня я хочу призвать каждого из нас задуматься. Начнем с того, что будем открыто говорить и признавать проблему, которая существует. Могу добавить, что я очень рад тому, что вижу все больше женщин в сфере AI ресерча, которые делают невероятно крутые вещи. И еще рад тому, что в моем окружении нет места токсичным рабочим паттернам и стереотипам, а есть уважение, равенство и доверие! Всем хорошего дня!
نمایش همه...
161👍 21👎 20😁 4🤝 4💔 3🔥 2🌚 2🗿 2💘 2
Photo unavailableShow in Telegram
Принес вам реальные метрики Claude 3 vs GPT-4 Маркетологи Anthropic решили сравнивать Claude 3 не с последней версией GPT-4-Turbo, а GPT-4 годичной давности, взяв метрики модели GPT-4 марта 2023 года. А по факту, GPT-4- Turbo показывает значительно лучшие результаты, чем Claude 3.
نمایش همه...
😁 70👍 16🤯 13👎 2🗿 2
Собственно. Конец истории: Ресерч-маркетологи из Google закрыли proposal о переименовании модели. В их ответе три поинта. 1) Ну это эмбеддинги. Ну они, это типа, ну не совсем прям считаются... — В смысле не считаются? А почему HaggingFace говорит 8.54B? (см скриншот) 2) Ну это мы их не считаем. Кто мы? Почему остальные считают? А то, что осталось, тоже не считаете? У вас же и без embedding'ов 7.75B! 3) Что касается появляющегося класса открытых моделей 7B, мы нацелены на те же варианты использования, что и другие модели класса 7B, с точки зрения совместимости аппаратного и программного обеспечения. — Ага, вы 7B (то есть 7 миллиардов параметров) не потому что у вас 7B +- 0.4(9)B параметров, а потому что вашу модель будут юзать на том же железе, что и Llama 7B. Ах, вот оно как... Понял, вопросов больше не имею.
نمایش همه...
😁 78👍 7 3👨‍💻 1👾 1
Точность в нейминге размера модели критически важна для LLM, поскольку это влияет на справедливость сравнения, воспроизводимость результатов и понимание компромиссов между размером модели и её производительностью. Решил создать тред на HF. так что поддержать идею о переименовании модели Gemma7B в Gemma-9B можно тут: 👉 https://huggingface.co/google/gemma-7b/discussions/34 А то речерч-маркетологи ведут себя как на рынке, ну и вообще, камон, округление все в начальной школе проходили.
نمایش همه...
google/gemma-7b · Proposal for Renaming of Gemma-7B Model to Gemma-9B

I am reaching out to discuss a proposal regarding the Gemma-7B language model. Upon detailed analysis, it has come to attention that the Gemma-7B model comprises a total of 8.54 billion parameters,...

👍 51👎 2
Google опенсорснул Gemma-3B и Gemma-9B. Или Gemma-2B Gemma7B? А разве не Gemma-2.51B Gemma-8,54B? Размер модели является ключевым показателем, по которому оцениваются её возможности и сравниваются различные модели. Под размером модели подразумевается (всего-навсего) количество обучаемых параметров. Но Гугл решил перевести свои модели в более легкую весовую категорию, дав моделям имена 2B и 7B. Хотя, Gemma-7B, которая, как оказалось, имеет 8,54 миллиарда параметров, что значительно превышает цифру, предполагаемую в её названии. Другие модели, такие как Mistral-7B и Llama-7B, имеют 7,24 и 6,74 миллиарда параметров соответственно и названы более точно. Решения Google использовать объем словаря токенизатора в 256K токенов, в отличие от меньшего размера в 32K токенов (для Llama) привело к огромному количеству embedding параметров: ~20% от общего размера 2.51B модели и ~9% от 8.54B.
نمایش همه...
👍 28😁 11🆒 2
не сдавайтесь 🫶
نمایش همه...
286💔 37🙏 25😢 16👎 11🕊 9💊 6🐳 4👍 3💯 1🤝 1