cookie

ما از کوکی‌ها برای بهبود تجربه مرور شما استفاده می‌کنیم. با کلیک کردن بر روی «پذیرش همه»، شما با استفاده از کوکی‌ها موافقت می‌کنید.

avatar

Открытия

Собираю сюда музыкальные, визуальные, книжные и прочие открытия. Делюсь тем, что мне показалось интересным. Мои странички: http://linktr.ee/abesmon Донаты сюда: https://boosty.to/smgbuddies/donate Скидывайте ваши открытия сюда @abesmon

نمایش بیشتر
Advertising posts
522مشترکین
اطلاعاتی وجود ندارد24 ساعت
-17 روز
+930 روز
توزیع زمان ارسال

در حال بارگیری داده...

Find out who reads your channel

This graph will show you who besides your subscribers reads your channel and learn about other sources of traffic.
Views Sources
تجزیه و تحلیل انتشار
پست هابازدید هابه اشتراک گذاشته شدهديناميک بازديد ها
01
Люди: Хаха глупая нейронка, галлюцинирует и придумывает детали 😂 Тоже люди: Смотрите, красная банка!
976Loading...
02
Media files
1410Loading...
03
Я вырос в подмосковье, в небольшом поселке, который стоит рядом с "градообразующим предприятием" - гидроаккумулирующей электростанцией. Я рос в окружении остатков этой СССР цивилизации, и поэтому у меня много теплых чувств ко всем этим "панелькам". Они хоть и страшненькие, холодные, но все равно мне как-то прикольно от взгляда на них. Эта LoRA захватывает "холодный" период Русской глубинки - это или осень или очень ранняя весна, деревья еще без листвы, травы зеленой еще (или уже) нет. Ну и по большей части на изображениях ночь, т.к. это эдакое... мистическое состояние города) Когда никого нет на улицах и ты в и без того холодном городе совсем один скачать / пользоваться тут: https://civitai.com/models/414473 поддержать: https://boosty.to/smgbuddies/donate?forPost=5770267
1025Loading...
04
GGUF для запуска на локальных машинках уже в сети!!!
1971Loading...
05
🔥LLaMa 3 - дождались: Новая SOTA в open-source! Сегодня день больших релизов от Meta, в которых и я и моя команда принимала прямое участие. Зарелизили в опенсорс LLaMa-3 8B и 70B: 🔳LLaMa-3 8B – лучшая в своем классе модель, и сопоставима с LLaMa-2 70B, хоть и в 10 раз меньше. 🔳LLaMa-3 70B – тоже самая мощная в режиме 70 млрд параметров, достигает 82 на MMLU бенчмарке (показывает уровень общих знаний в разных областях). Для сравнения, недавняя Mixtral 8x22B с 141B параметров достигает только MMLU 77.8. Ну, и ждем результатов на арене. C новыми моделями можно початиться на meta.ai Блог Подробности Скачать веса модели @ai_newz
1921Loading...
06
На всякий случай, если вы не знаете что за LLM Arena, рекомендую ознакомиться: https://chat.lmsys.org/?leaderboard это сервис, который постоянно обновляет таблицу лидеров среди LLM моделек - проприетарных, опенсорс (и всяких между). Лидерство выявляется в слепом тестировании обычными людьми. Заходим сюда: https://chat.lmsys.org/ пишем свой запрос и сервис нам подсовывает ответ от 2х случайных сеток. И нам нужно выбрать какой из ответов нам нравится больше. На основе таких "выборов" от множества пользователей и составляется таблица лидерства
2031Loading...
07
QWEN (в моем случае 32B) даже справляется с русским языком, но делает это иногда странно. В каких-то необычных контекстах (видимо, когда не хватает подобных данных в датасете) оно начинает гененрить или чушь или вообще какие-то китайские иероглифы
1500Loading...
08
👨‍💻 Я уже не пишу сюда когда очередная опенсорсная модель бьет все метрики и приближается к GPT4, потому что этот рейтинг меняется буквально каждую неделю (и вы быстро устанете от моих восторгов), но одна новая модель мне сильно понравилась — она подойдет для программистов и тех кто учится: CodeQwen1.5-7B-Chat (gguf) Модель небольшая, всего 7B параметров, но она сейчас находится на втором месте по качеству генерации кода среди всех опенсорсных моделей. CodeQwen1.5-7B все еще хуже GPT4, но она: 1) Классно пишет код для небольших задач, этот код можно с ней же дебажить; 2) Работает на любом тостере; 3) Поддерживает 32K контекстного окна (то есть вы можете как часть промпта скармливать свой код и с ней его анализировать); 4) Очень быстрая из-за того что маленькая; 5) Поддерживает все эти прелести опенсорсных моделей, такие как негативный промпт, Lora и тп. Если вы давно хотели поставить что-то локальное, а ChatGPT вам нельзя использовать из-за корпоративной политики, очень рекомендую рассмотреть. В Видео CodeQwen1.5 сначала пишет код для HTML страницы с эффектом из матрицы (скорость реальная на моем ноуте), а во втором видео — эффект и код, что получился. P.S. Маленькие модели наиболее подвержены правильному промптингу, поэтому делюсь своим промптом агента программиста и негативным промптом который вы можете передать с --cfg-negative-prompt (негативный промпт не обязателен, но помгает улучшить качество — насколько, я не замерял пока что). P.P.S. Запуская я все классически тут — llama.cpp 👩‍💻👩‍💻👩‍💻
1015Loading...
09
Подтверждаю! QWEN реально занятная модель. Она выпускается сразу в нескольких размерах, а это значит что вы можете запустить ее как на своем стареньком M1, так и на своем безумном риге с 3x3090 --- Имеется версия с 14B параметров, которая, вроде бы даже может поместиться в 16ГБ мак. И она по слепым тестам пользователей (а именно об этом LLM Arena) даже обгоняет GPT3.5
1400Loading...
10
Интересное. Люблю всякие штуки на стыке художки, математики, алгоритмики https://ru.wikipedia.org/wiki/Пространство_Калаби_—_Яу
1341Loading...
11
AI открывает портал в другие измерения? Мы изучали тему AI-аватаров и наткнулись на кое-что странное. Лого ИИ-сервиса watsonx от IBM – ну точная копия фигур Калаби-Яу. «Что такое Калаби-Яу?» – спросите вы. Обычно мы видим три направления: вверх и вниз, влево и вправо, вперёд и назад. А теперь представьте себе фантастическое оригами, которое складывается так сложно, что ему тесно в этих трёх направлениях. Ему нужно больше места. И тут оно начинает «выглядывать» в множество других невидимых сторон. Это и есть пространства Калаби-Яу – фигуры, которым нужно гораздо больше места, чем мы можем увидеть. Ученые считают, что они могут быть ключом к разгадке многих тайн Вселенной. Так вот, дизайн watsonx подозрительно напоминает эти фигуры. Совпадение? Или у нас на глазах родилась новая теория заговора? Возможно, AI от IBM – это ключ к пониманию скрытых измерений 🧬
1121Loading...
12
интересно, но платить 30 бачинских за то, что имеется у Luma бесплатно как-то странно
1490Loading...
13
Spline выпустили модель для генерации 3D по тексту или картинке. С одного промта даётся 4 варианта. Можно сгенерить похожие нажав Remix, поменять текстуры промтом, и экспортировать 3D объект. Сайт
1586Loading...
14
окей. давайте попробуем так. буду размещать арт посты в сториз. в случае, если вам не интересно, можете заблочить сториз, т.к. пока там больше ничего не планируется :)
1530Loading...
15
https://www.youtube.com/watch?v=56rHqiJNnYs Andre Antutes делает каверы (если это вообще можно так назвать) на разное восточное и индицское музыкальное творчество. Обычно он берет какую-нибудь "традиционную/народную" вокальную партию и обыгрывает ее в метал/хардкор/альт жанре (барабаны, электрогитары все вот это) Очень интересно смотреть как резко меняется тональность оригинальных композиций. А еще он очень круто регармонизирует. В видео выше ^ прям безумные переходы на 0:40 и на 0:50
1691Loading...
16
Media files
1640Loading...
17
из-за того что я в последнее время много экспериментирую с генерацией арта ИИшкой, я решил завести инсту отдельно под это дело. не уверен, что имеет смысл выкладывать все сюда, но если интересно смотреть на мои картинки, то го сюда: https://www.instagram.com/disc_over_art
1652Loading...
18
https://www.youtube.com/watch?v=JheGL6uSF-4 интересно видео про то, какую информацию можно узнать, если собрать граф из всех статей с англоязычной википедии. На какую статью ссылаются больше всего? Какие кластеры образуют статьи? И что такое "тупик под прикрытием". Рекомендую к просмотру!
2598Loading...
19
в чат с Алисой добавили режим ПРО, который использует ягпт-3. Первые 180 дней бесплатно, далее 100 рублей в месяц. Опробовал, и это прям совсем ерунда. Закинул текст, который описывает каркас крипипасты, попросил расписать как это адаптировать в виде 3 видосов для тик-ток/шортс. Вышла полная ерунда - не соблюдается структура времени событий, не соблюдается логика повествования, сгенерированный текст постоянно сваливается в повторения (каждая 3ья строка - одинаковая). По ощущениям это что-то типа раннего CGPT-3, когда он еще крайне плохо умел в Русский язык. Очень слабо, просить за такое деняк это перебор --- Попробовать лично можно тут: https://a.ya.ru/
2633Loading...
20
Вот такая вот она - современная философия В треде обсуждается идея о том, что возвращение тележки в супермаркете является лакмусовой бумажкой, способной показать, может ли человек управлять самим собой. В тексте утверждается, что вернуть тележку — это простой и признанный всеми правильным поступок, который нужно делать не из-за страха перед законом или какого-то наказания, а из внутренних убеждений. Если человек не может этого сделать, он сравнивается с «абсолютным дикарем» (savage), имея в виду, что такой человек действует цивилизованно только под давлением закона, а не из внутренних моральных принципов. Возвращение тележки является метафорой добросовестности и показателем того, является ли человек хорошим или плохим членом общества --- Как вам такой супермаркератический императив? Я вот тележку пару раз не возвращал, теперь как-то стыдно =/
2443Loading...
21
теперь к важному... Вы только что завершили поход по супермаркету. В начале похода вы взяли тележку. Вы оплатили покупки и готовы возвращаться домой...
2231Loading...
22
Media files
2180Loading...
23
canekzapata делает неконвенциональное AI художество. Изображения не глянцевые, полные глитчей, ядреных цветов и в целом какой-то грязи. Если и делать AI art, то только такой. Для глянцевых pixar-like картинок у нас и кожаные мешки есть :) insta: https://www.instagram.com/canekzapatap civitai: https://civitai.com/user/canekzapata/images
31910Loading...
24
Новая LoRA и она НОРМАЛЬНАЯ... Давно уже лежит у меня подборка изображений, 3д рендеров всяких персонажей, которые выглядят как виниловые фигурки. Я не знал зачем их собираю, мне просто нравились эти картинки. И вот, время пришло! Мое собирательство принесло плоды :)  Ну а еще на этом дотаяете я обкатал технологию разметки изображений с помощью CGPT. Результат мне нравится. Пока, к сожалению, не могу сказать правда ли такое хорошее качество достигается благодаря качественной текстовой разметке или же дело в довольно простом концепте, который и так хорошо представлен в основной SDXL (виниловые игрушки есть) Качаем/пользуемся тут: https://civitai.com/models/389149/gummy-3d-render-vynil-toy Поддержать тут: https://boosty.to/smgbuddies/donate?forPost=5668067
2995Loading...
Repost from Denis Sexy IT 🤖
Люди: Хаха глупая нейронка, галлюцинирует и придумывает детали 😂 Тоже люди: Смотрите, красная банка!
نمایش همه...
8
👍 4😭 3😁 2 1
Я вырос в подмосковье, в небольшом поселке, который стоит рядом с "градообразующим предприятием" - гидроаккумулирующей электростанцией. Я рос в окружении остатков этой СССР цивилизации, и поэтому у меня много теплых чувств ко всем этим "панелькам". Они хоть и страшненькие, холодные, но все равно мне как-то прикольно от взгляда на них. Эта LoRA захватывает "холодный" период Русской глубинки - это или осень или очень ранняя весна, деревья еще без листвы, травы зеленой еще (или уже) нет. Ну и по большей части на изображениях ночь, т.к. это эдакое... мистическое состояние города) Когда никого нет на улицах и ты в и без того холодном городе совсем один скачать / пользоваться тут: https://civitai.com/models/414473 поддержать: https://boosty.to/smgbuddies/donate?forPost=5770267
نمایش همه...
8👍 4🔥 4
GGUF для запуска на локальных машинках уже в сети!!!
نمایش همه...
Repost from эйай ньюз
🔥LLaMa 3 - дождались: Новая SOTA в open-source! Сегодня день больших релизов от Meta, в которых и я и моя команда принимала прямое участие. Зарелизили в опенсорс LLaMa-3 8B и 70B: 🔳LLaMa-3 8B – лучшая в своем классе модель, и сопоставима с LLaMa-2 70B, хоть и в 10 раз меньше. 🔳LLaMa-3 70B – тоже самая мощная в режиме 70 млрд параметров, достигает 82 на MMLU бенчмарке (показывает уровень общих знаний в разных областях). Для сравнения, недавняя Mixtral 8x22B с 141B параметров достигает только MMLU 77.8. Ну, и ждем результатов на арене. C новыми моделями можно початиться на meta.ai Блог Подробности Скачать веса модели @ai_newz
نمایش همه...
На всякий случай, если вы не знаете что за LLM Arena, рекомендую ознакомиться: https://chat.lmsys.org/?leaderboard это сервис, который постоянно обновляет таблицу лидеров среди LLM моделек - проприетарных, опенсорс (и всяких между). Лидерство выявляется в слепом тестировании обычными людьми. Заходим сюда: https://chat.lmsys.org/ пишем свой запрос и сервис нам подсовывает ответ от 2х случайных сеток. И нам нужно выбрать какой из ответов нам нравится больше. На основе таких "выборов" от множества пользователей и составляется таблица лидерства
نمایش همه...
QWEN (в моем случае 32B) даже справляется с русским языком, но делает это иногда странно. В каких-то необычных контекстах (видимо, когда не хватает подобных данных в датасете) оно начинает гененрить или чушь или вообще какие-то китайские иероглифы
نمایش همه...
Repost from Denis Sexy IT 🤖
👨‍💻 Я уже не пишу сюда когда очередная опенсорсная модель бьет все метрики и приближается к GPT4, потому что этот рейтинг меняется буквально каждую неделю (и вы быстро устанете от моих восторгов), но одна новая модель мне сильно понравилась — она подойдет для программистов и тех кто учится: CodeQwen1.5-7B-Chat (gguf) Модель небольшая, всего 7B параметров, но она сейчас находится на втором месте по качеству генерации кода среди всех опенсорсных моделей. CodeQwen1.5-7B все еще хуже GPT4, но она: 1) Классно пишет код для небольших задач, этот код можно с ней же дебажить; 2) Работает на любом тостере; 3) Поддерживает 32K контекстного окна (то есть вы можете как часть промпта скармливать свой код и с ней его анализировать); 4) Очень быстрая из-за того что маленькая; 5) Поддерживает все эти прелести опенсорсных моделей, такие как негативный промпт, Lora и тп. Если вы давно хотели поставить что-то локальное, а ChatGPT вам нельзя использовать из-за корпоративной политики, очень рекомендую рассмотреть. В Видео CodeQwen1.5 сначала пишет код для HTML страницы с эффектом из матрицы (скорость реальная на моем ноуте), а во втором видео — эффект и код, что получился. P.S. Маленькие модели наиболее подвержены правильному промптингу, поэтому делюсь своим промптом агента программиста и негативным промптом который вы можете передать с --cfg-negative-prompt (негативный промпт не обязателен, но помгает улучшить качество — насколько, я не замерял пока что). P.P.S. Запуская я все классически тут — llama.cpp 👩‍💻👩‍💻👩‍💻
نمایش همه...
1
Подтверждаю! QWEN реально занятная модель. Она выпускается сразу в нескольких размерах, а это значит что вы можете запустить ее как на своем стареньком M1, так и на своем безумном риге с 3x3090 --- Имеется версия с 14B параметров, которая, вроде бы даже может поместиться в 16ГБ мак. И она по слепым тестам пользователей (а именно об этом LLM Arena) даже обгоняет GPT3.5
نمایش همه...
Интересное. Люблю всякие штуки на стыке художки, математики, алгоритмики https://ru.wikipedia.org/wiki/Пространство_Калаби_—_Яу
نمایش همه...
Пространство Калаби — Яу

Пространство Кала́би — Яу (многообразие Калаби — Яу) — компактное комплексное многообразие с кэлеровой метрикой, для которой тензор Риччи обращается в ноль. В теории суперструн иногда предполагают, что дополнительные измерения пространства-времени принимают форму 6-мерного многообразия Калаби — Яу, что привело к идее зеркальной симметрии. Название было придумано в 1985 году , в честь Эудженио Калаби, который впервые предположил , что такие размерности могут существовать, и Яу Шинтуна, который в 1978 году доказал гипотезу Калаби.