cookie

Мы используем файлы cookie для улучшения сервиса. Нажав кнопку «Принять все», вы соглашаетесь с использованием cookies.

avatar

Соне нравится (или нет)

Меня зовут Соня (прошу не называть Софьей), я ML-инженер и делаю сетки для 2D/3D компьютерного зрения, а ещё иногда работаю с генеративными моделями. Буду писать как про сферу моей работы, так и о жизни.

Больше
Рекламные посты
2 720
Подписчики
-324 часа
-87 дней
-1630 дней

Загрузка данных...

Прирост подписчиков

Загрузка данных...

Фото недоступноПоказать в Telegram
программисты реально расстроились из-за того, что вот эту хуйню запретили?
Показать все...
23 9
А вдруг все эти ламы и газели окажутся потом в мультмодальной скотобойне? 🌟
Показать все...
41 9
Ощущения от этого примерно такие: 🙃 https://t.me/quant_prune_distill/256
Показать все...
КПД

KAN: Kolmogorov-Arnold Networks [Статья][Код] Введение В основе всех (ну почти всех) современных архитектур лежит многослойный перцептрон (MLP) с обучаемыми матрицами, сдвигами и фиксированными активациями и некоторым механизмом агрегации для пространственных входов (свертки, attention, state-spaces, мамба, ⢠⢃⡈⡤⢡⠰). Теория гласит, что при некоторых предположениях на целевую функцию и функции активации в сети достаточно большой сетью можно приблизить эту самую целевую функцию. Возникает вопрос 🤔- оптимален ли такой подход по вычислениям / точности и нельзя ли изобрести нечто лучшее? Метод В данной статье авторы переосмысляют и в некотором смысле обобщают парадигму построения многослойной сети. В основе идеи лежит знаменитая теорема Колмогорова-Арнольда, что непрерывную многомерную функцию на ограниченной области можно всегда представить в виде композиции функций от одной переменной. Однако, при этом теорема не дает явного вида этих функций, которые могут оказаться сколько угодно плохими, потому не реализуема…

12 6
А насколько вы честны в своих пейперах? 😄 https://t.me/girlinds/295
Показать все...
ds girl

31 11
Repost from moi memeуары
ржу это правда
Показать все...
38 18
Repost from AbstractDL
Фото недоступноПоказать в Telegram
Guidance в диффузии нужен только в середине сэмплирования! (by NVIDIA) Всё это время мы генерировали картинки диффузией неправильно — оказывается, classifier-free guidance вредит диффузионному процессу в его начале и конце. А если включать guidance только на середине — то генерация станет не только разнообразнее, но и качественнее: для модели EDM2-XXL это уменьшает FID с 1.81 to 1.40! Самое главное — эта модификация совместима со всеми диффузионными моделями. Статья
Показать все...
20 3
Фото недоступноПоказать в Telegram
28 10
Фото недоступноПоказать в Telegram
Админ этого канала в 2013-2016 годах:
Показать все...
46 30
Repost from Derp Learning
00:09
Видео недоступноПоказать в Telegram
Agi achieved internally
Показать все...
47
Спасибо за удвоенную тревожность на ночь, OpenAI. Работы теперь у рисёрчеров станет в разы больше.
Показать все...
43 14 6