Data Science | Machinelearning [ru]
Статьи на тему data science, machine learning, big data, python, математика, нейронные сети, искусственный интеллект (artificial intelligence) По сотрудничеству - @g_abashkin
Ko'proq ko'rsatish16 227
Obunachilar
-424 soatlar
-477 kunlar
-16130 kunlar
- Kanalning o'sishi
- Post qamrovi
- ER - jalb qilish nisbati
Ma'lumot yuklanmoqda...
Obunachilar o'sish tezligi
Ma'lumot yuklanmoqda...
🌟Open Interpreter — полное управление компьютером при помощи запросов на естественном языке
Open Interpreter предоставляет интерфейс естественного языка для управления компьютером.
Можно общаться с Open Interpreter через ChatGPT-подобный интерфейс прямо в терминале.
🖥GitHub
🟡Доки
@Devsp — Подписаться
00:37
Video unavailableShow in Telegram
6–9 июля проводим Weekend Offer Analytics
Устроиться в Яндекс за выходные — реально. Ищем крутых аналитиков с опытом работы от 2 лет на Python или C++, готовых работать в офисном или гибридном режиме на территории России или Республики Беларусь.
Подавайте заявку до 3 июля — и всего за 3 дня пройдите все технические собеседования. После сможете пообщаться с девятью нанимающими командами и выбрать ту, которая покажется самой интересной. Если всё сложится хорошо, сразу же пришлём вам офер.
Узнать подробности и зарегистрироваться.
Реклама. ООО "Яндекс". ИНН 7736207543
03_RICH_HORIS_1.mp412.30 MB
🎙️StreamSpeech: Мощная модель синхронного перевода речи.
StreamSpeech - это бесшовная модель “Все в одном” для автономного и синхронного распознавания речи, перевода речи и синтеза речи.
▪page: https://ictnlp.github.io/StreamSpeech-site/
▪paper: https://arxiv.org/abs/2406.03049
▪code: https://github.com/ictnlp/streamspeech
@Devsp — Подписаться
⚡️ DeepSeek-Coder-V2: Первая модель с открытым исходным кодом, превосходящая GPT4-Turbo в кодинге и математике
DeepSeek-Coder-V2, модель языка кода Mixture-of-Experts (MoE) с открытым исходным кодом, которая обеспечивает производительность, сравнимую с GPT4-Turbo, в задачах, специфичных для кода.
В частности, DeepSeek-Coder-V2 дополнительно проходит предварительное обучение на промежуточной контрольной точке DeepSeek-V2 с дополнительными 6 триллионами токенов.
▪HF: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct
▪Github: https://github.com/deepseek-ai/DeepSeek-Coder-V2/blob/main/paper.pdf
▪Попробовать: https://chat.deepseek.com/sign_in?from=coder
@Devsp — Подписаться
🖥 Самые интересные публикации за последние дни:
• NLP, Catboost и тематическое моделирование: создаем модель для прогнозирования цен с использованием новостей
• Погружение в xLSTM – обновленную LSTM, которая может оказаться заменой трансформера
• MusicGPT — приложение для локального запуска моделей, генерирующих музыку
Hammasini ko'rsatish...
Photo unavailableShow in Telegram
Как устроены ChatGPT, Siri, Алиса и Маруся — и какие навыки нужны, чтобы запускать такие продукты?
Узнайте у Владимира Васильева, руководителя направления из Сбера, разрабатывающего русскую версию ChatGPT.
Приходите на бесплатный онлайн-практикум от ТГУ и Skillfactory 27 июня в 19:00 мск.
За 1,5 часа эксперт расскажет:
— что такое обработка естественного языка;
— как использовать ее для анализа текстов, проверки бизнес-идей и научных гипотез;
— какие технологии сейчас востребованы на рынке.
Регистрируйтесь бесплатно по ссылке: https://go.skillfactory.ru/&erid=2VtzqxGqxvb
Получите в подарок курс по математике.
Реклама ООО "Скилфэктори", ИНН 9702009530
Разбор статьи про KAN – принципиально новую архитектуру нейросетей
В основе всех архитектур глубокого обучения лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации. Этой парадигмой ученые пользуются с 1957 года, когда ее предложил Фрэнк Розенблатт.
Сейчас, спустя 67 лет, исследователи из MIT представили альтернативу MLP – новую архитектуру нейронной сети, получившую название Kolmogorov-Arnold Networks (KAN), в которой реализовано перемещение активаций на «ребра» сети.
Читать...
📊 NLP, Catboost и тематическое моделирование: создаем модель для прогнозирования цен с использованием новостей
В этой статье я расскажу, как на одном из проектов мы занимались прогнозированием на месяц вперед с помощью методов NLP, Catboost и тематического моделирования на новостном потоке.
Читать...
Погружение в xLSTM – обновленную LSTM, которая может оказаться заменой трансформера
Архитектура LSTM была предложена в 1997 году немецкими исследователями Зеппом Хохрайтером и Юргеном Шмидхубером. С тех пор она выдержала испытание временем: с ней связано много прорывов в глубоком обучении, в частности именно LSTM стали первыми большими языковыми моделями.
Читать далее
Boshqa reja tanlang
Joriy rejangiz faqat 5 ta kanal uchun analitika imkoniyatini beradi. Ko'proq olish uchun, iltimos, boshqa reja tanlang.