cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Love. Death. Transformers.

❤️☠️🤗 Персонаж из интернета. @maxalekv по всем вопросам Реклама от 1000usd, в противном случае прошу не беспокоить. [18+] ответственность за прочитанное лежит на читателе

Show more
Advertising posts
12 937Subscribers
+1324 hours
+1237 days
+68130 days
Posting time distributions

Data loading in progress...

Find out who reads your channel

This graph will show you who besides your subscribers reads your channel and learn about other sources of traffic.
Views Sources
Publication analysis
PostsViewsSharesViews dynamics
01
О будущем Ebany Резерч Держите набор фактов, которые обязательно произойдут в ближайшее время. 1. Как только в опенсорсе появится архитектура H200 (а это произойдет, общество быстро схватывает тренды и за месяцы делает то, что компании делают годами) начнется новая эра в этом вашем AI. Каждый сможет локально собрать быстрый вычислитель и обучать по гптшке и лламе за вечер 2. Zero-bit инференс — сейчас большая гонка ускорения и квантизации моделей. Резерчеры всего мира стремятся ускорить модели и максимально эффективно использовать каждый бит. Еще недавно радовались квантизации в 8 бит, сейчас уже есть решения, которые используют 1 бит. Предел сами возьмете. 3. Internet as a context. Ну тут вообще очевидно, рост контекста и архитектурные изменения моделей (долой квадратичный атеншен) двигают нас к все более эффективному использованию контекста для ICL. Ну а что может быть эффективнее, чем поместить всю имеющуюся информацию? (вопрос риторический) 4. GPT-5, LLaMA-4 и т.п. будут. Для компаний это сильный пиар и новые пользователи, и выбирая между “ставить обучаться новую версию” и “вытягивать до последнего из имеющегося” они, конечно, будут запускать train loop вновь и вновь 5. AGI скоро будет. Начало 2023 года — MMLU даже 40 не набирает, начало 2024 года — больше 80% успешно решается. В 2025 году модели уже будут обгонять людей, а в 2026 MMLU будет решать на 100% и наступит новый виток истории.
1 59031Loading...
02
#чтивонаночь Как учить модели правильно? сколько эпох ставить на вики? Почему админ дрочит на data quality? Ответы на эти и не только вопросы в обзоре - Physics of Language Models: Knowledge Capacity Scaling Laws teletype arxiv для любознательных
3 390167Loading...
03
Ищу контакты славы КПСС @maxalekv
1 30515Loading...
04
Думаю через некоторое время появится Тьюринг полный язык промптинга, когда мы даём модели не просто инструкцию, а инструкцию с условиями вызова инструментов, ответа инструментов и прочее
10Loading...
05
Media files
5 424107Loading...
06
Коля блять!!!
10Loading...
07
Простите, не могу перестать возмущаться
4 1218Loading...
08
Media files
4 12540Loading...
09
Привет, вижу ты как и я любишь спешиалти) Хочешь покажу где самый вкусный цикорий заваривают?
4 32516Loading...
10
Тут челы сделали LLM для татарского! https://huggingface.co/Tweeties
5 973204Loading...
11
Media files
4 36224Loading...
12
Media files
4 43553Loading...
13
Та есть игрушки. Но лучшие- это мои кроссовки красть и пытаться в диван запихать, иногда берут карту и процесс и ничего не считают, крышечки от пластиковых бутылок и плюшевый манежик, в котором зверь спит и тягает его по комнате и размещает по настроению. А, еще в пакетике шуршать и драть бумагу, например, если газету оставить на клетке. Или если найдут что-то в квартире торчащее из ящика А лучшая игра - замочи студента, они выбирают между собой кто плохой студент, обычно это маленький, и большой его бегает мочит :) Короче, игрушки и игры своеобразные.
4 4059Loading...
14
наконец то
5 400196Loading...
15
Attaque a-la russe: атака с помощью промт-инъекций русскоязычных моделей семейства Saiga2 / Хабр https://habr.com/ru/articles/810459/
4 34371Loading...
16
В это воскресенье Они приедут Новисад Х love death transformers https://t.me/+YkSirBpXEs42NDgy
4 7975Loading...
17
Рудольф Страусов (не) странный Немного раздражает, что когда речь заходит о хоть сколько-нибудь талантливых артистах, то сразу включается риторика «он не такой как все, андердог, делает музыку для изгоев». Я хорошо понял это на примере Масла Чёрного Тмина, который хоть и делает приджазованный абстрактный рэп, но сам по себе довольно популярен среди простых пацанов из глубинки. Чтобы убедиться в этом, можете глянуть сколько просмотров собирают корявые перезаливы его треков в Ютубе — полагаю, не надо объяснять, какая аудитория слушает музыку именно там. Вот с музыкой Рудольфа Страусова происходит что-то подобное, только никакой огромной популярности он так и не сыскал. Это проблема, пожалуй, всей русской альтернативы — самые заметные персонажи либо пилят в меру кринжовый упаднический рокешник (ТДД), либо уходят в грязный-грязный гранж (Кишлак). На их фоне Рудольф выглядит музыкальным гением, но если абстрагироваться от сравнений с отечественной сценой и начать сравнивать с западной, то понимаешь, что уровень продюсерской подкованности Страусова — это необходимый минимум. Минимум, который многие путают с максимумом. Но его новый альбом мне правда понравился — в нём ощущается авторский подход. Музыка Рудольфа всё время находится где-то между гранжем, пост-панком, блюзом, хип-хопом, трип-хопом и так далее по списку. В эти песни интересно вслушиваться: как-никак, не каждый день в России выходят релизы, в которых эхом раздаётся и Том Уэйтс, и разгульный британский нойз-рок, и Massive Attack. В самом конце альбома Рудольф перепел песенку Крокодила Гены, добавив к гармошке грубые блюзовые ударки — и меня как будто унесло в одинокий зассанный бар, где такое и ожидаешь услышать. Подобные саунд-дизайнерские приколы хочется слышать везде, а по итогу за всех отдувается один человек. И так и получается, что самый адекватный альтернативщик оказывается в индустрии самым странным. Мне тяжело представить, сколько ресурсов было вложено в эту музыку при минимальном выхлопе. Послушаете альбом «САША» — сделаете доброе дело.
4 37827Loading...
18
плейлист на поездку в берлин: https://music.youtube.com/watch?v=iVYw_T9Wk0o&si=YbPUpU3UKtpZqWfb
4 44517Loading...
19
Ребята из тинька заебатый ресерч делают, в отличии от большинства русских резерч лаб это действительно мировой уровень и вероятно в топе по Rl. Если вы ищете ресерч работу в России - в целом топ1 место куда стоит идти. Почитайте на досуге, материал неплохой. tinkoff-research.tass.ru
4 762132Loading...
20
Media files
4 73515Loading...
21
Учёные опять думают что занимаются не data science, а model science и начинают придумывать Moe diffusion sparse transformer with speculative attention вместо того чтобы пойти фильтровать данные. 🥱
4 85537Loading...
22
Media files
10Loading...
23
Понабрали блять олимпиадников вместо юристов
5 13920Loading...
24
Л - логика. Взаимный пиар придумали гои, а олимпиадники забанили.
5 08513Loading...
25
You can not repost from other chanels. It violates intellectual rights.
5 24320Loading...
26
Короче, меня надоумили подключить tribute, а по правилам телеги репостить контент нельзя))) Если вы из телеграмм, пожалуйста получите это недоразумение. Треш какой то
5 08023Loading...
27
#чтивонаночь Видео superres модель от Adobe Архитектурно это unet с temporal attention и Flow estimator - определяет в какую сторону будут пиксели двигаться videogigagan.github.io папир
4 99037Loading...
28
Media files
4 7138Loading...
29
Почему то многие dsы думают что занимаются model или algorithm sciencе_сом, а не data science
10Loading...
30
https://teletype.in/@alexwortega/r6zha1uPaAS Если вы по каким то причинам не знаете как делать лучших кошкодевочек на civit, Велком
4 96293Loading...
31
https://civitai.com/models/388913?modelVersionId=463607 Перемержил Лайтнинг версию. Прибрал немного грязь (байтденс натоптал), оверстаурейшен - теперь правда нужно больше шагов (около 9)
1 43912Loading...
32
Media files
4 10327Loading...
33
*флиртуя* ну и хуйня. *Деклайн папиры*
4 62022Loading...
О будущем Ebany Резерч Держите набор фактов, которые обязательно произойдут в ближайшее время. 1. Как только в опенсорсе появится архитектура H200 (а это произойдет, общество быстро схватывает тренды и за месяцы делает то, что компании делают годами) начнется новая эра в этом вашем AI. Каждый сможет локально собрать быстрый вычислитель и обучать по гптшке и лламе за вечер 2. Zero-bit инференс — сейчас большая гонка ускорения и квантизации моделей. Резерчеры всего мира стремятся ускорить модели и максимально эффективно использовать каждый бит. Еще недавно радовались квантизации в 8 бит, сейчас уже есть решения, которые используют 1 бит. Предел сами возьмете. 3. Internet as a context. Ну тут вообще очевидно, рост контекста и архитектурные изменения моделей (долой квадратичный атеншен) двигают нас к все более эффективному использованию контекста для ICL. Ну а что может быть эффективнее, чем поместить всю имеющуюся информацию? (вопрос риторический) 4. GPT-5, LLaMA-4 и т.п. будут. Для компаний это сильный пиар и новые пользователи, и выбирая между “ставить обучаться новую версию” и “вытягивать до последнего из имеющегося” они, конечно, будут запускать train loop вновь и вновь 5. AGI скоро будет. Начало 2023 года — MMLU даже 40 не набирает, начало 2024 года — больше 80% успешно решается. В 2025 году модели уже будут обгонять людей, а в 2026 MMLU будет решать на 100% и наступит новый виток истории.
Show all...
😁 41👍 9👏 3🤩 2
#чтивонаночь Как учить модели правильно? сколько эпох ставить на вики? Почему админ дрочит на data quality? Ответы на эти и не только вопросы в обзоре - Physics of Language Models: Knowledge Capacity Scaling Laws teletype arxiv для любознательных
Show all...
🔥 47 14👍 3 3
Ищу контакты славы КПСС @maxalekv
Show all...
😁 27 8🤡 6🔥 2🤔 1
Думаю через некоторое время появится Тьюринг полный язык промптинга, когда мы даём модели не просто инструкцию, а инструкцию с условиями вызова инструментов, ответа инструментов и прочее
Show all...
🤡 1
😁 135👍 19😢 7 2🤮 2🤡 2👎 1
Коля блять!!!
Show all...
1
Repost from Denis Sexy IT 🤖
Простите, не могу перестать возмущаться
Show all...
😁 20🤡 5🤔 3👎 2👍 1
Repost from ML-легушька
😁 68 3🔥 2
Привет, вижу ты как и я любишь спешиалти) Хочешь покажу где самый вкусный цикорий заваривают?
Show all...
😁 48
Тут челы сделали LLM для татарского! https://huggingface.co/Tweeties
Show all...

63😁 19👍 10🔥 5 5 4🤡 3 3 2