cookie

Utilizamos cookies para mejorar tu experiencia de navegación. Al hacer clic en "Aceptar todo", aceptas el uso de cookies.

avatar

Love. Death. Transformers.

❤️☠️🤗 Персонаж из интернета. @maxalekv по всем вопросам Реклама от 1000usd, в противном случае прошу не беспокоить. [18+] ответственность за прочитанное лежит на читателе

Mostrar más
Advertising posts
12 937Suscriptores
+1324 hours
+1237 days
+68130 days

Carga de datos en curso...

Tasa de crecimiento de suscriptores

Carga de datos en curso...

О будущем Ebany Резерч Держите набор фактов, которые обязательно произойдут в ближайшее время. 1. Как только в опенсорсе появится архитектура H200 (а это произойдет, общество быстро схватывает тренды и за месяцы делает то, что компании делают годами) начнется новая эра в этом вашем AI. Каждый сможет локально собрать быстрый вычислитель и обучать по гптшке и лламе за вечер 2. Zero-bit инференс — сейчас большая гонка ускорения и квантизации моделей. Резерчеры всего мира стремятся ускорить модели и максимально эффективно использовать каждый бит. Еще недавно радовались квантизации в 8 бит, сейчас уже есть решения, которые используют 1 бит. Предел сами возьмете. 3. Internet as a context. Ну тут вообще очевидно, рост контекста и архитектурные изменения моделей (долой квадратичный атеншен) двигают нас к все более эффективному использованию контекста для ICL. Ну а что может быть эффективнее, чем поместить всю имеющуюся информацию? (вопрос риторический) 4. GPT-5, LLaMA-4 и т.п. будут. Для компаний это сильный пиар и новые пользователи, и выбирая между “ставить обучаться новую версию” и “вытягивать до последнего из имеющегося” они, конечно, будут запускать train loop вновь и вновь 5. AGI скоро будет. Начало 2023 года — MMLU даже 40 не набирает, начало 2024 года — больше 80% успешно решается. В 2025 году модели уже будут обгонять людей, а в 2026 MMLU будет решать на 100% и наступит новый виток истории.
Mostrar todo...
😁 18👍 2👏 1🤩 1
#чтивонаночь Как учить модели правильно? сколько эпох ставить на вики? Почему админ дрочит на data quality? Ответы на эти и не только вопросы в обзоре - Physics of Language Models: Knowledge Capacity Scaling Laws teletype arxiv для любознательных
Mostrar todo...
🔥 45 13👍 3 3
Ищу контакты славы КПСС @maxalekv
Mostrar todo...
😁 27 8🤡 6🔥 2🤔 1
Думаю через некоторое время появится Тьюринг полный язык промптинга, когда мы даём модели не просто инструкцию, а инструкцию с условиями вызова инструментов, ответа инструментов и прочее
Mostrar todo...
🤡 1
😁 135👍 19😢 7 2🤮 2🤡 2👎 1
Коля блять!!!
Mostrar todo...
1
Repost from Denis Sexy IT 🤖
Простите, не могу перестать возмущаться
Mostrar todo...
😁 20🤡 5🤔 3👎 2👍 1
Repost from ML-легушька
😁 68 3🔥 2
Привет, вижу ты как и я любишь спешиалти) Хочешь покажу где самый вкусный цикорий заваривают?
Mostrar todo...
😁 48
Тут челы сделали LLM для татарского! https://huggingface.co/Tweeties
Mostrar todo...

63😁 19👍 10🔥 5 5 4🤡 3 3 2