cookie

نحن نستخدم ملفات تعريف الارتباط لتحسين تجربة التصفح الخاصة بك. بالنقر على "قبول الكل"، أنت توافق على استخدام ملفات تعريف الارتباط.

avatar

Метаверсище и ИИще

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

إظهار المزيد
مشاركات الإعلانات
25 591
المشتركون
+3424 ساعات
+2067 أيام
+1 00330 أيام
توزيع وقت النشر

جاري تحميل البيانات...

Find out who reads your channel

This graph will show you who besides your subscribers reads your channel and learn about other sources of traffic.
Views Sources
تحليل النشر
المشاركاتالمشاهدات
الأسهم
ديناميات المشاهدات
01
Чутье меня не подвело. Помните, что я писал, что вся эта вирусная лабуда про пересаживание голов - фейк? Читаем ниже. Видео, впервые опубликованное в прошлый вторник, набрало миллионы просмотров, более 24 000 комментариев на Facebook и страйки на TikTok за жуткие изображения отрубленных голов. На сайте BrainBridge размещено несколько вакансий, в том числе одна для "руководителя группы нейронаук" и другая для "советника по связям с правительством". И даже New York Post написала, что BrainBridge - это "стартап в области биомедицинской инженерии" и что "компания" планирует провести операцию в течение восьми лет. Так вот, компания BrainBridge - это фейк. Она нигде не зарегистрирована. Видео снял Хашем Аль-Гаили, йеменский научный популяризатор, который в 2022 году сделал вирусное видео под названием "ЭктоЛайф" об искусственных матках, заставившее журналистов ломать голову над тем, реально ли это. Так что расходимся. Пофантазировали в коментах, и хватит. В статье любопытные мысли о том, что это прогрев аудитории и попытка понять, можно ли на эту тему привлечь инвестиции. https://www.technologyreview.com/2024/05/23/1092848/that-viral-video-showing-a-head-transplant-is-a-fake-but-it-might-be-real-someday/
3 73330Loading...
02
Виртуальная примерочная наоборот. Гугл бахнул прототип инверсной примерочной - одна и та же одежда виртуально примеряется на разных людях. Люди, судя по всему, не кожаные, а диффузионные. Всех цветов, а главное - размеров. Выглядит занятно - выбираешь сначала шмот, потом цвет и размер себя родимого, и ну примерять. https://www.wired.com/story/google-ai-shopping-clothes-fit-different-bodies/ Кстати, у Гугла уже есть и "прямая примерочная": https://www.wired.com/story/google-generative-ai-clothes-shopping/ И таких примерочных уже много, недавно обсуждали VTON. Но с инверсией забавно и диверсити на месте.
4 987120Loading...
03
Шутки кончились. Роботы-псы уже на вооружении у Китая 🇨🇳 Это уже не пес с огнеметом просто приколу. Это уже не прототип и не эксперимент. Это видео (вроде как) с учений китайской армии, которые проходят прямо сейчас. Возникает много вопросов: - Что за оружие установлено на пса. - Пес управляется дистанционно, или, наконец, получил автономность и все помнит. - И, самое главное, СКОЛЬКО у них этих псов. Кажется, уже совсем скоро кожаные узнают ответы. И ответы им не понравятся. 🔴 @reptiloidnaya × #киберпанк #роботы
4 320183Loading...
04
Матрица все ближе. Нео и агент Смит пока играют в настольный футбол. Идея хорошая. Прокачивать обратную связь и гонять мячик силой мысли полезно для мозга. Тут вот управление глазами прикручивают к айфону (и уже прикрутили к хуавею). Но прикиньте прокачанный скилл типа "разблокируй телефон, запусти телегу, открой канал Метаверсище". И все это силой мысли. Вынимаешь телефон из кармана, и сразу читаешь этот пост. Без тыкания грязными пальцами в экран. Листаешь также, силой мысли. Одна засада, надо потратить много усилий на тренировку таких навыков У меня был такой приборчик, с манжеткой на ладонь. Довольно сильно приходилось пыхтеть, чтобы сдвинуть мячик с места. Также была примочка к айфону. Покрал видео на компьютере, там довольно интересный научпоп про телекинез и про то, как промты ЛЛМ связаны с телепатией. https://www.computerra.ru/297102/smogut-li-mozgovye-chipy-odarit-lyudej-telekinezom/
5 00542Loading...
05
На HuggingFace появилась фича Use this model для запуска LLM и Text-2-Image моделей у себя локально через желаемый софт. В настройках хаггинг аккаунта заходим в раздел Local Apps and Hardware. Можно здесь задать своё железо, но на фильтрацию AI-приложений похоже это не влияет. Я с ноута, где стоит двухгиговая 1050 запустил ламу 3 в Jan, всё ок. Ставим галочки на софте, который вы используете для того, чтобы гонять модели локально. Для работы с текстом поддерживаются llama.cpp, LM Studio, Jan, Backyard AI. С картинками пока только Draw Things и, скоро, DiffusionBee, но они обе только на мак. Нажимаем Browse Compatible Models —> выбираем приглянувшуюся нейронку —> кликаем Use this model в правом верхнем углу —> выбираем в каком софте запустить, и через диплинк в нём откроется окно для загрузки модели. Можно и просто исследуя хаггинг открыть понравившуюся нейронку нажав Use this model. Доступны, в основном, квантизированные GGUF версии, которые можно скачать либо целиком, либо они состоят из нескольких частей и для работы понадобится скачать их все как архив из множества кусков (они обычно подписаны part_N). Чтобы понять какую модель грузить, можно глянуть страницу с описанием на хаггинге, если там про это есть. В противном случае качайте, то что как вам кажется нормально запуститься в памяти вашей видюхи. Как только модель загружена — можно генерить. Если вы пилите своё приложение для запуска локальных моделей, то нажав Suggest a new local app вы можете предложить добавить его в список.
4 270120Loading...
06
Нехилый конфликт между Krea и AnimateDiff. Похоже я был прав в предыдущем посте, и генерация видео в Krea - это AnimateDiff. Я поресерчил и оказалось, что в сообществе AnimateDiff часть людей убеждены, что Krea сперли (ну как сперли, скачали открытый код и веса) наработки AnimateDiff и юзают их, для ацкого зарабатывания денег. И в твитторах прям пригорает. Ниже, я приведу цитаты и ссылку на хороший пост, освещающий историю создания AnimateDiff - там очень много шикарных работ. Вопрос о воровстве сильно открыт. Как правило, надо смотреть на лицензию всего того добра, которое выкладывается на GitHub. Я не разбирался с кодом AnimateDiff и вопросом легально ли Креа используют код AnimateDiff для меня неясен. Но меня в свое время очень смущал маркетинг Леонардо АИ, являвшегося по сути нашлепкой над Stable Diffusion. Которые запустили в сеть дикий трафик типа "новая модель Леонардо - убийца Midjourney", хотя модель там была Stable Diffusion 1.5. А возможность юзать модели в Цивитай в Леонардо и вовсе ломала такой маркетинг. В общем, это наверно старая история противостояния открытого и закрытого кода. И того, как можно зарабатывать на открытом коде. Ниже цитаты: "Если вы не заметили, Krea — стартап с закрытым исходным кодом, укравший кучу вещей, над которыми люди здесь работали последние 10 месяцев — это было неизбежно, но все равно меня огорчило. В ответ я написал здесь краткий обзор, документирующий некоторые достижения Animatediff https://x.com/pom_I_moq/status/1788675646069277008. Спасибо всем, кто поделился этим! Я думаю, что сделать так, чтобы все знали о природе таких компаний, как Krea, — это самое лучшее, что мы можем сделать — не спорить и бороться с ними, а информировать о том, чем они занимаются. Оттуда они примут собственное решение. Кто-то может сказать, что эти люди, зарабатывающие все деньги на этом, неизбежны и что все, что люди придумывают, в конечном итоге будет аналогичным образом коммерциализировано другими людьми, которые почти ничего не имеют общего с экосистемой. Прежде всего, это было бы ужасно, потому что, как показали такие компании, как Kaliber и Leonardo, конечная цель этих компаний — использовать преимущества открытого исходного кода для обучения более совершенным закрытым моделям. Со временем их цель состоит в том, чтобы сделать открытый исходный код недоступным для своих моделей."
4 38827Loading...
07
Krea.ai таки анонсировали типа-видео-модель. И что самое главное, нормальный UI к нему. Недавно писал, что Креа запустили фишку с забавным видео-эффектом, когда можно делать морфинг картинок (не в пиксельном, а в латентном пространстве), причем с ключевыми кадрами. Вчера они разродились Krea Video Open Beta. Выглядит нарядно. Но если приглядеться, то это, скорее всего, не модель для генерации видео, обученная на видео. Похоже на очень причесанный AnimateDiff, то есть анимацию с помощью Stable Diffusion. Волосы кипят в полный рост. Как и в случае с морфингом - отличная фишка для эффектов, переходов и абстрактного арта. Но прям для видео или анимации с рассказыванием историй - вряд ли. Хотя... поглядите тут Но и самое главное. У них, в отличие от других ацких видеогенераторов, есть таймлайн(!) и кифреймы. То есть они упарываются в UI/UX и управляемость. Я уже много раз писал, что в музыкальные и видео-генераторы прямо просится таймлайн. Это вам не тексты с картинкам, где нет дополнительного измерения - времени. И это время(тайминг) хочется редактировать. Монтаж и эффекты в общем. И Креа тут молодцы. Вот держите твитторный пост с туториалом, как наруливать видео в Креа: https://x.com/krea_ai/status/1793570374036357368
4 60298Loading...
08
Помните, я постил отличный ролик Funky Hands с использование AnimateDiff и After Effects. Так вот вышел Making Of этого ролика. Поглядите, кто в теме. Если интересны детали, то почитайте тут и тут. А теперь интересное: На производство ролика ушло 2.5 дня. И одна 4090. От идеи до рендера. Если поглядеть на ноды из ComfyUI от автора, то вам сюда. Автор ролика - Алексей Лотков. Его инста вот тут: https://www.instagram.com/aleksejlotkov/ Очень крутая работа. Да еще и в такие сроки. Это ж как надо владеть ComfyUI и After Effects!
4 828144Loading...
09
Кожаный дипфейк. Тут интернетик приподвспучивается новостью про пересадку голов. Видосик разлетелся, журналюги взвыли. Там еще самая сладкая фича - пересадка лица! Кожаный дипфейк во плоти. Смотрите здесь полное видео: https://youtu.be/szXbuUlUhQ4 (осторожно, тошнит) А Кожаные дипфейки у них прям на сайте: https://brainbridge.tech/ Но, камон! Клюква жеж. Они там собираются сливать всю кровь из башки и пришивать непришиваемое. Ну и на сайте столько маркеров того, что это булшит, что я даже сначала писать не хотел. Однако меня закидали ссылками, вот отбиваюсь. В общем как хорор-муви - хорошо заходит. Как технология - фейк. Почитайте лучше вот тут, почему это невозможно: https://www.theguardian.com/science/brain-flapping/2017/nov/17/no-there-hasnt-been-a-human-head-transplant-and-may-never-be-sergio-canavero
5 32251Loading...
10
Итак, Microsoft Build. - Team Copilot: офигенная штука, судя по видео, такой типа еще один сотрудник, который может вести заметки на встрече, на вопросы отвечать, задачи сам ставить, генерировать ответы и запрашивать дополнительную информацию. MS прям делает "AI-сотрудников" и я бы даже сказал менеджеров ) - Copilot Studio: Такой Robotic Process Automation на максималках! Платформа для создания кастомных копилотов, которые могут процессы автоматизировать, причем вызывая разные приложения, динамически адаптируясь, обращаясь к человеку, если что-то непонятно или не хватает данных. Ну это прям новый уровень вообще! Настроил авто-обработку документов и сидишь пьешь смузи ) - Phi Silica: Локальная маленькая моделька, заточенная на нейропроцессоры новых ноутов Copilot + PC. И можно по API к ней обращаться. Я думаю, что ноуты эти распространятся лет через 5, но пока просто показываем. - Phi-3-Vision: Новая визуальная хорошая маленькая моделька от MS (4B параметров). Тоже оптимизированная для локального применения. Ну и еще Small и Medium обновили на 7 и 14B. - Real-time Intelligence в Fabric: Будет теперь искать аномалии и нотификации присылать в реальном времени, если что необычного с вашими данными происходит - GitHub Copilot Extensions: Можно интегрировать сторонные тулы и тогда AI сможет данные из них подсасывать - Azure AI Search: Оптимизировали поиск по большим данным, гибридный поиск (и по векторам, и по тексту), так что теперь все быстрее и лучше, и для LLM. - Azure AI Studio: создавай GenAI проекты с кучей моделек, мониторингом, безопасностью, оркестрацией агентов, файн-тюнингом и все в удобном интерфейсе. Звучит прям как сильный конкурент Vertex AI наконец-то - Azure OpenAI Services: добавили GPT-4o (обычно с задержкой в пару месяцев появлялось все), файнтюнинг простой, Assistants API - Cognition + Microsoft: воу-воу, Devin (тот самый AI-разработчик) будет совместно с MS разрабатываться и доступен в Azure. Ну это прям дофига всего, И для разработчиков, и для бизнес-пользователей действительно полезно. Видосы: https://youtu.be/4k2T5sfGIP4 https://youtu.be/5H6_pCUt-mk https://youtu.be/JI6IQvSLP9M
4 717104Loading...
11
Бесплатный аналог Wonder Dynamics? Часть 2 Описание. iVFX это AI-инструмент для автоматизации композинга и автоматической генерации анимации 3D персонажей в видеороликах, для создания которой он использует алгоритмы компьютерного зрения. Задача инструмента — упростить процесс интеграции 3D моделей в реальные видеозаписи, и облегчить жизнь аниматорам предоставляя свою мокап-систему. Основной функционал 1. Автоматический композинг 3D персонажей: • Интеграция 3D моделей в предзагруженные видеоролики (пока только по запросу от креаторов). 2. Генерация альфа-масок и масок и карт глубины, сегментации: • Создание альфа-масок для точного выделения объектов. • Генерация масок глубины для реалистичного совмещения с фоном. • Получение сегментационных масок 3. Создание cleanplates: • Автоматическая генерация чистых кадров без 3D персонажей для улучшенного композинга. 4. Автоматическая анимация персонажей: • Захват движений актеров и генерация анимаций, которые готовы к использованию в таких редакторах, как Maya, Blender, Unreal Engine и Unity. • Передача движений и мимики на персонажей. 5. Стилизация персонажей (СКОРО): • Возможность изменения внешнего вида персонажей для создания уникальных образов благодаря диффузионным моделям. • Использование нейросетевых технологий для трансформации персонажей и слоев видеороликов. Работает прямо в телеграмме.
5 360105Loading...
12
Бесплатный аналог Wonder Dynamics? С утра постил про то, что Автодеск пожрал Wonder Dynamics с потрохами (и не уготована ли ему судьба Softimage). Как тут подписчики мне подкинули вот такое чудо как iVFX! С похожим функционалом, причем работает сервис прямо в телеге - кидаешь видос и скачиваешь готовый результат с плейтами, масками, освещением, экспортом в любые 3Д-пакеты и тд. Ограничение - 30 секунд. Причем там еще нейромокап, который из видео достает скелет и вроде как нейро стайл трансфер. Я почитал телегу и увидел в ранних постах знакомые видосы. Тут же написал Максу Козлову из AR/VR Lab и угадал, это его рук дело. Оказалось, что они с командой переобулись в Центр Технологий Метаверса Сбера и пилят там целый выводок продуктов, один из которых iVFX. Макс меня снабдил видео-тутором и описаловом, которое я пощу ниже, а сам я пойду потестирую разработку. С Вандер Динамикс теперь непонятно что будет...
5 641118Loading...
13
Media files
10Loading...
14
Почему нет десктопной версии chatGPT для Windows? Есть версия, что выход версии для Виндовс отложен из-за вчерашнего анонса Copilot Plus AI от Микрософта и что интеграция gpt4-o будет встроена в новую Windows 11 на этих новых машинках, о которых я писал вчера. И там она будет юзать тот самый нейрочип NPU. А что будет для Windows 10 и "обычных" PC - пока непонятно.
16 14132Loading...
15
​Люди: SORA иногда генерирует какой-то неправдоподобный бред Реальный мир:
4 445107Loading...
16
А ведь это все пойдет/пошло в датасеты для обучения Соры и других: ⬇️⬇️⬇️⬇️
5 2441Loading...
17
Автодеск купил Wonder Dynamics. У меня один вопрос: почему только сейчас? Wonder Dynamics - довольно старый проект, по сравнению с другими ИИ стартапами. Ну и конечно второй вопрос: что теперь будет с WD? https://techcrunch.com/2024/05/21/autodesk-acquires-ai-powered-vfx-startup-wonder-dynamics/
5 61016Loading...
18
AnimateDiff плюс Инпайнтинг. И ротоскопинг. Вот такие эффекты делают взрослые ребята. И пока чуда нет. Для руки пришлось делать полный ротоскоп в After Effect. Segment Anything и прочие демки из интернетика не справились. Только хардкор, только маски ручками. Потом маска для руки кормилась в "latent noise mask" node в comfyUI для инпайнтинга в vid 2 vid animatediff + IPAdapter workflow. Транзишены по руке - с помощью depth maps в After Effects. Результат впечатляет, но есть плохая новость - надо знать After Effects. P.S. Прикидываем, сколько бы такое делалось без ИИ.
5 723164Loading...
19
Снап Камера вернулась! У Снапчата была очень прикольная программка для Винды - Snap Camera. Она ставится как виртуальная камера между вашей вебкой и выводом изображения на экран(или в софт). И позволяет накладывать разные забавные маски(линзы) на ваше лицо прямо в реальном времени. Я часто баловался тем, что на стримах или интервью вдруг менял (хоткеем) свою внешность. Особенно вещая про дипфейки. К сожалению Snap Camera как приложение умерло, его больше нет на сайте Снапа (но у меня старая версия еще работает). Но недавно они обновили эту камеру и выпустили расширение для Хрома. Теперь, если у вас созвоны через браузерного клиента (например, Google Meet), то можете в списке доступных камеры выбирать Snap Camera и ну натягивать маски(линзы) себе на лицо прямо во время созвона. Подробнее тут: https://help.snapchat.com/hc/en-us/articles/7012304217876-Snap-Camera А еще у Снапа есть Hosted Web AR Lenses, который тоже работает в браузере, об этом почитайте тут: https://t.me/reptiloidnaya/864
5 519111Loading...
20
Блокчейн TON ищет талантливых разработчиков! Стартует масштабный хакатон “The Open League Hackathon” с призовым пулом $2,000,000 от команды блокчейна TON. В поддержку хакатона все Web3-энтузиасты приглашаются на трёхдневные оффлайн встречи для нетворкинга в 13 городах мира: 📍Прага, Берлин, Киев, Варшава, Тбилиси, Белград, Сеул, Тайбэй (Тайвань), Гуруграм (Индия), Гонг-Конг, Минск, Москва и Санкт-Петербург. Первые встречи начнутся уже 24 мая. Ищи свой город и регистрируйся здесь 👈 тык Что вас ждет: — 3 дня нетворка, лекций, конкурсов и работы над собственными проектами с поддержкой представителей TON Foundation и команд экосистемы TON — Призовые $5.000 для трех лучших проектов на каждом оффлайн ивенте + много мерча и других бонусов Не упусти возможность представить свое приложение 900 миллионам активных пользователей Telegram вместе с TON. Регистрируйся — https://tgtelespace.link/qntzco
5 56945Loading...
21
Нейровьюпорт. Был на Silicon Graphics такой софт TDI Explore, его ядро в основном вошло в Maya. И там был IPR - Interactive Photorealistic Renderer (IPR). Когда выделяешь часть картинки, а он тебе подрендеривает её сразу. Это щас есть везде, но в 1993 году это была нереальная уникальная фишка. 30 лет назад. Я вот сейчас гляжу на то, что творит Мартин, Krea и Substance3D и думаю, что интерактивный нейрорендер - это просто снос башки. Ключевая фишка - интерактивность. Когда не надо нажимать кнопку рендер. Тут в конце апскейл с помощью Магнифика и псевдовидео в Леонардо.
5 07074Loading...
22
Помните, я писал, что после LLM-Arena, где разные ллм-хлещутся друг с другом руками кожаных за звание лучшей, появилась Image Arena. Где хлещутся генераторы картинок. Кожаные генерят две картинки по промпту, тыкают в понравившуюся больше, и только потом видят, чем сгенерили, а моделька поднимается в рейтинге. Теперь кто-то сварганил такое же для 3Д-генераторов. Но к сожалению всерьез это воспринимать нельзя. Там есть очень устаревшие модели, нет самых жирных и популярных генераторов, даже опен-сорсных, но можно оценивать модели по разным параметрам. https://huggingface.co/spaces/ZhangYuhan/3DGen-Arena
4 97125Loading...
23
Zero GPU для всех. Если у вас нет конской видеокарты(и вы не умеете разворачивать репозитарии с гитхаба), то есть хорошая новость. ХаггингФейс вонзает 10 миллионов в программу Zero GPU. Если грубо, то они теперь дают поюзать их GPU в гораздо большем объеме, чем раньше. Для старых нормальных: они собрали почти 300 всех этих безумных опен-сорсных (и не очень) проектов и сделали каталог, где можно погонять эти проекты в качестве демо на их GPU. Про многие из них я уже писал (Хуньянь, InstanMesh, StoryDiffusion и др), про остальные можно почитать у Неронавтика, который делает гигантскую работу. Теперь можете сами погонять весь этот ИИ на сколько хватит квоты. Для новых нормальных: Если вы пилите что-то свое, то можете разместить свои модели демо на HuggingFace. Держите весь каталок тут: https://huggingface.co/spaces/enzostvs/zero-gpu-spaces И ну тестировать весь этот ад! Подробнее тут: https://www.theverge.com/2024/5/16/24156755/hugging-face-celement-delangue-free-shared-gpus-ai
5 077178Loading...
24
Недавно давал карту ИИ-стартапов по миру - где и как инвестируют в ИИ. Сегодня такая же карта по городам. Там скоринг немного более сложный, описан прямо на картинке. После Сан-Франциско и Нью-Йорка сразу идут Пекин и Шанхай. Ну и если сложить США и Китай, то остальным станам останется пять мест. Из Европы только Берлин, который занимает последнее место в рейтинге.
5 12748Loading...
25
Вчера писал про моделинг на кончиках пальцев. Сегодня лайтинг на ладони. С пульта. В удивительное время живем. Можно светить фонариком в плоскую картинку на экране, и получать трехмерное освещение этой картики так, как будто у нас есть ее трехмерная модель. Ну или как будто это не картинка, а реальность. Подробности тут.
5 75490Loading...
26
И, похоже, идея брать демо-видео от OpenAI и делать на них свой маркетинг пошла в массы. Теперь китайцы из DeemosTech, за которыми я внимательно слежу, тоже взяли и скормили голос из демо в свой движок Media2Face. Я опять не уверен, что это реалтайм. Но сам движок выглядит очень занятно. Он генерит не финальное видео, как у Синтезия или D-ID, а полигональную модель головы. Точнее, он генерит анимацию заранее существующей сетки. Почитайте про него тут, посмотрите видео внутри, очень занятно. https://sites.google.com/view/media2face
4 99831Loading...
27
Тут по интернетику прокатилась демка от Синтезия. Очень хороший маркетинг - они взяли запись демо gtp-4o и присунули голосовые ответы модели(звук) в свой генератор мимики для аватров. Выглядит просто убойно. Синтезия действительно проапгредила свой движок и их аватары теперь артикулируют и шевелят лизом очень хорошо. Но, коллеги, кто вам сказал, что это реалтайм? Нейролипсинк - вещь тяжелая, неприятная...
5 08068Loading...
28
Поглядеть на внешний вид новых ИИ-писюков от Микрософт и на то как работает рисовалка Co-Creator можно тут
5 11064Loading...
29
Теперь про ИИ на новой Винде с ARM-процессором. 1. Меня больше всего триггернула функция Total Recall (Вспомнить всё one love). Поглядите тут: https://youtu.be/5JmkWJNng2I?t=26 ИИ запоминает ВСЕ ВАШИ ДЕЙСТВИЯ. С привязкой по времени. Это, конечно, потрясающе для обучения и дообучения. Через некоторое время вы только поглядите на экран, а ИИ поймет, что вы собираетесь сделать и сделает (правда в игры будет играть неинтересно). Но подумайте, а вы хотите, чтобы все ваши глупые действия протоколировались? 2. Live Captions также позволяет делать переводы на основе AI любого видео в реальном времени. Забавно, что в демо ролике светится перевод с русского на английский. 3. Microsoft также добавляет Auto Super Resolution, которая автоматически масштабирует игры для улучшения частоты кадров и графического разрешения. Тут боян, конечно. 4. Co-Creator. Там, конечно, весь этот жир для генерации контента. Судя по демо, аналог Креа. Надо будет смотреть (в след посте). Вот тут подробно про софт и железо: https://www.youtube.com/watch?v=iHQgf3DNAr8&t=419s
5 88973Loading...
30
M3 от Microsoft. Лучше поздно, но с ИИ и ARM. Микрософтик забабахал презентацию концепции ИИ-ноутов под названием Copilot+PC. И нет, это не ноуты от самого микрософта, как пишут в телеге. Это концепция + ПЛЮС СОБСТВЕННЫЙ ПРОЦЕССОР(это главная новость). Это ноуты, имеющие ARM-процессор, где есть "чип для ИИ", типа NPU (neural processor unit), который достигает 45 TOPS вычислений для ИИ-задач. Это, как пишет микрософт, приводит к большему количеству ИИ-операций НА ВАТТ, чем MacBook Air M3 и Nvidia RTX 4060. Внимание, "на ватт". Микрософт также интегрирует более 40 моделей AI непосредственно в Windows on Arm, чтобы обеспечить новые возможности в Windows и для разработчиков приложений. Около 10 из них - небольшие языковые модели, которые будут работать в фоновом режиме. Эти модели позволят разработчикам привнести опыт ИИ непосредственно в свои приложения, а измерения времени автономной работы Microsoft включают их непрерывную работу в NPU. Выпускать такие ARM-машинки Asus, Dell, HP, Lenovo, Samsung и сам Microsoft. Там вроде поначалу будет стоять процессор Qualcomm Snapdragon X Elite. Два вопроса: 1. Совместимость с приложениями для "обычной интеловой" Винды? Ответ: "будет эмулировать приложения в два раза быстрее, чем Windows предыдущего поколения на устройствах Arm.". Ни о чем не говорит, время покажет. 2. Разработчики, конечно, охренеют. И пусть Адобченко уже анонсировал поддержку ARM. Но приложений для Винды в разы больше, чем для Мака. Вспомним, как разрабы переползали на Apple Silicon и умножим на N. В общем выглядит как запоздалый ответ на Эппле Силикон с четырех-летней задержкой. Но с ИИ наперевес. Причем первая попытка с Windows на ARM-архитектуре у Микрософта явно провалилась. Но может щас ИИ поможет. По ИИ-Windows - следующий пост. P.S. В 2018 году Nvidia представила, скажем так, концепцию STUDIO - линейка ноутбуков заточенных под пост-продакшен на базе RTX. Чтобы делать взрослую компьютерную графику: 3Д, композ, монтаж. Они отстроились от игровых ноутов через, во-первых, легкий вес и средние габариты, а, во-вторых, через Studio Driver. Стоили ноуты в полтора раза дороже обычных и выпускали их только определенные "взрослые" вендоры (HP, DELL, ASUS). Было много вопросов и к драйверу и к самой концепции. Китайцы наладили выпуск сравнимых по мощности и габаритам ноутов довольно скоро. У меня пыхтит леново с неурезанной 2080, уделывая многие студио-ноуты. Так что ждем и китайские версии ИИ-Windows. Подробнее тут: https://blogs.microsoft.com/blog/2024/05/20/introducing-copilot-pcs/
5 13179Loading...
31
Новый процессор т Микрософт. Читаем ниже.
5 49034Loading...
32
Так, достаньте меня из твиттора, хуже ютюба, ей богу. Я не уверен, такая штука прям зайдет в народ, особенно за 60 евро, но выглядит очень прикольно. Именно в плане интерфейсных решений. Моделирование на кончиках пальцев. https://apps.apple.com/es/app/uniform-3d-editor/id6472727759 https://x.com/sparseal/status/1790773028130791835
8 162101Loading...
33
Я даже не знаю за кого накатить, не чокаясь. За фантазии? Моделлеры пока тут ручками работают в Substance3D, а потом подкючается Krea.ai И ну выпивать за эфыксеров, лайтинг- и щейдер-артистов, текстурщиков и рендерманщиков. Выглядит совсем уж нарядно. А то меня уже порядком достали танцующие тяночки из AnimDiff - 95 процентов Stable Diffusion анимаций - это тикток стайл. А тут реальная красота. Ну и подумайте, сколько фантазий и новых коцептов в секунду выдает ИИ? Пока вы смотрите на эту волну, пуская слюни, он успевает разбрызгать столько идей, что вам и не снилось. Подключайте его к своим фантазиями, он вас научит воображать невоображаемое.
6 087169Loading...
34
Вголосину. Тут вот пишут, что этот волшебный голос с презентации gpt-4o удалят из списка голосов. Слишком сексуальный. Посмотрите это видео, до конца, это дико смешно. https://x.com/jam3scampbell/status/1791338109709287511
6 817223Loading...
35
Плагины для chatGPT всё. Помните, какого шума наделали плагины для chatGPT? Красивые презентации, демо, удивительные графики и диаграммы от Вольфрама. А потом пришли плечистые ceo-оптимизаторы и засрали поляну тысячей плагинов, уводящих трафик к себе на сайты с помощью бесполезных поделок. М-Модерация? Нет, не слышали (в OpenAI по крайней мере). Сейчас все это безобразие тихой сапой исчезло из интерфейса chatGPT. Смышленые ребята скажут, что теперь у нас есть Джипитишки и будут правы. Там можно реализовать тот же функционал. Но помните, нам в ноябре обещали GPT Store, каталоги, магазин и вот это вот всё? Вместо этого у нас миллионы созданных Джипитишек (среди которых, подобно плагинам, большинство - ацкий треш и снова нагон трафика), странный каталог с ограниченной навигацией. И похоже отсутствием внятной модерации. История с плагинами повторяется? Похоже, что в продукты у OpenAI не очень получается. Продуктовое мышление сильно отличается от разработки. В этом смысле у Гугла огромная фора и тысячелетний опыт. Интерфейс Гемини сильно лучше, чем у chatGPT. Плюс выводок продуктов с миллионными аудиториями. Тем интереснее будет конкуренция.
5 90735Loading...
36
Утечки про SD3. Похоже веса Stable Diffusion 3 все-таки появятся. Разработчики, которые пилят DissusionKit - адаптацию и инференс моделей на мобильных устройствах, твитторнули, что уже допиливают локальную Stable Diffusion 3 причем для Мака! Our first step was to bring Stable Diffusion 3 to Mac. We have optimized the memory consumption and latency for both MLX and Core ML. "Мы откроем исходный код этого проекта вместе с предстоящим выпуском весов Stability AI." Причем обещают опубликовать тесты и время просчета уже в ближайшие дни. https://x.com/argmaxinc/status/1790785157840125957 Также неутомимый Лыкон, который постоянно постит картинки из SD3 в твитторе, написал: Также, насколько я знаю, мы все еще планируем выпустить #SD3. Надеюсь, ожидание почти закончилось. Поскольку моя команда работает над open release, будет странно, если мы откажемся от этого. https://x.com/lykon4072/status/1791839648987156525 Штош, надежда не потеряна...
5 64831Loading...
37
Немного навеяло предыдущим постом. Я помню, как в начале нулевых народ упарывался по Роботам и Мехам. На концепт-арт площадках были целые битвы Мехов, а тогда еще форумы и первые сайты пестрели предтечами трансформеров. На глаза попалась вот такая такая Лора для SDXL. https://huggingface.co/Fiacre/robodiffusion-xl-v1 (внимание ее надо юзать с коэффициентом около 0.7 - < lora:robodiffusionxl:0.7 >). Читаем RoboDiffusionXL был обучен на высококачественном синтетическом наборе данных, составленном таким образом, чтобы включить в себя широкий спектр форм и стилей роботов. Изображения включают исторические, культурные и футуристические темы, что обеспечивает разнообразие генерируемых результатов. Роботы и Мехи пошли на корм ИИ. И сейчас можно кинуть на Civitai в поиск "mech" и получить 56 моделей и лор: https://civitai.com/tag/mech Это я к чему: если что-то популярно и не дай бог продается, то ИИ растиражирует это в лучшем виде. А что с этим делать - решать (пока) кожаным.
5 40321Loading...
38
ИИ-новый NFT? Вот держите огненную историю о том, деньги на итоге решают. А ИИ просто смотрит на то, как кожаные с помощью него зарабатывают - ибо наши любимые метрика - это трафик. Я стал замечать, что даже Гугл в поиске мне стал часто подсовывать картинки сгенеренные ИИ. Особенно, когда речь идет о нетривиальных запросах. И тут бомбануло на сайте Devian Art. Обнаружилось, что сайт активно продвигает "лучших продавцов" контента "Isaris-AI" и "Mikonotai", которые, как сообщалось, заработали десятки тысяч долларов на массовых продажах. Обнаружилось кто-то (вероятно админы) создал сеть ботов, реализующую хорошо известную в NFT схему зарабатывания: создать тысячи ИИ-изображений и аккаунтов, заставить их покупать и шиллить друг друга, раздуть метрики, чтобы "искусство" бустилось на DeviantArt и поднималось в рейтингах выше кожаных. А там и продажи. Напомню, что в отличие от остальных стоков, DevianArt ласково принял ИИ в 2022 году - вместе со StabilityAI они запустили внутренний инструмент генерации изображений под названием DreamUp. В Девиане полыхает. Юзеры удаляют свои акки, пишут проклятия, админы удаляют эти проклятия, в общем все как у людей. Но это я к чему. Пока метриками являются трафик, переходы и объемы контента, ИИ будет хохотать над этим смешными протестами и попытками регуляции. Ибо получается лицемерие: а давайте сохраним существующие метрики, но не разрешим кожаным зарабатывать на ИИ. OpenAI скупает данные по всему интернетику, Адобченко и Getty тоже. Скоро даже серая зона в виде "вы тренировались на наших данных, мы на такое не подписывались" станет белой. И смышленые ребята будут лить контент и трафик, пока интернетик не лопнет. Или кожаные, наконец, поймут, что с их метриками что-то не так. https://twitter.com/romainrevert/status/1772921780933448139 https://www.theverge.com/2024/5/19/24160240/ai-art-is-gobbling-up-deviantarts-creator-revenue-sharing https://slate.com/technology/2024/05/deviantart-what-happened-ai-decline-lawsuit-stability.html
5 68855Loading...
39
Небольшой трик, который вы можете использовать, чтобы повысить удобство использования генераций во время рисования: Скачиваете Windows on Top, накладываете окно Photoshop поверх Krea.ai, включаете стриминг окна Photoshop и рисуете поверх генерации.
5 341256Loading...
Чутье меня не подвело. Помните, что я писал, что вся эта вирусная лабуда про пересаживание голов - фейк? Читаем ниже. Видео, впервые опубликованное в прошлый вторник, набрало миллионы просмотров, более 24 000 комментариев на Facebook и страйки на TikTok за жуткие изображения отрубленных голов. На сайте BrainBridge размещено несколько вакансий, в том числе одна для "руководителя группы нейронаук" и другая для "советника по связям с правительством". И даже New York Post написала, что BrainBridge - это "стартап в области биомедицинской инженерии" и что "компания" планирует провести операцию в течение восьми лет. Так вот, компания BrainBridge - это фейк. Она нигде не зарегистрирована. Видео снял Хашем Аль-Гаили, йеменский научный популяризатор, который в 2022 году сделал вирусное видео под названием "ЭктоЛайф" об искусственных матках, заставившее журналистов ломать голову над тем, реально ли это. Так что расходимся. Пофантазировали в коментах, и хватит. В статье любопытные мысли о том, что это прогрев аудитории и попытка понять, можно ли на эту тему привлечь инвестиции. https://www.technologyreview.com/2024/05/23/1092848/that-viral-video-showing-a-head-transplant-is-a-fake-but-it-might-be-real-someday/
إظهار الكل...
That viral video showing a head transplant is a fake. But it might be real someday. 

BrainBridge is best understood as the first public billboard for a hugely controversial scheme to defeat death.

👍 18🔥 6👎 4
Photo unavailableShow in Telegram
Виртуальная примерочная наоборот. Гугл бахнул прототип инверсной примерочной - одна и та же одежда виртуально примеряется на разных людях. Люди, судя по всему, не кожаные, а диффузионные. Всех цветов, а главное - размеров. Выглядит занятно - выбираешь сначала шмот, потом цвет и размер себя родимого, и ну примерять. https://www.wired.com/story/google-ai-shopping-clothes-fit-different-bodies/ Кстати, у Гугла уже есть и "прямая примерочная": https://www.wired.com/story/google-generative-ai-clothes-shopping/ И таких примерочных уже много, недавно обсуждали VTON. Но с инверсией забавно и диверсити на месте.
إظهار الكل...
👍 29👎 2🔥 2
00:29
Video unavailableShow in Telegram
Шутки кончились. Роботы-псы уже на вооружении у Китая 🇨🇳 Это уже не пес с огнеметом просто приколу. Это уже не прототип и не эксперимент. Это видео (вроде как) с учений китайской армии, которые проходят прямо сейчас. Возникает много вопросов: - Что за оружие установлено на пса. - Пес управляется дистанционно, или, наконец, получил автономность и все помнит. - И, самое главное, СКОЛЬКО у них этих псов. Кажется, уже совсем скоро кожаные узнают ответы. И ответы им не понравятся. 🔴 @reptiloidnaya × #киберпанк #роботы
إظهار الكل...
🔥 37👎 8👍 5
00:15
Video unavailableShow in Telegram
Матрица все ближе. Нео и агент Смит пока играют в настольный футбол. Идея хорошая. Прокачивать обратную связь и гонять мячик силой мысли полезно для мозга. Тут вот управление глазами прикручивают к айфону (и уже прикрутили к хуавею). Но прикиньте прокачанный скилл типа "разблокируй телефон, запусти телегу, открой канал Метаверсище". И все это силой мысли. Вынимаешь телефон из кармана, и сразу читаешь этот пост. Без тыкания грязными пальцами в экран. Листаешь также, силой мысли. Одна засада, надо потратить много усилий на тренировку таких навыков У меня был такой приборчик, с манжеткой на ладонь. Довольно сильно приходилось пыхтеть, чтобы сдвинуть мячик с места. Также была примочка к айфону. Покрал видео на компьютере, там довольно интересный научпоп про телекинез и про то, как промты ЛЛМ связаны с телепатией. https://www.computerra.ru/297102/smogut-li-mozgovye-chipy-odarit-lyudej-telekinezom/
إظهار الكل...
🔥 30👍 8
Repost from Psy Eyes
01:11
Video unavailableShow in Telegram
На HuggingFace появилась фича Use this model для запуска LLM и Text-2-Image моделей у себя локально через желаемый софт. В настройках хаггинг аккаунта заходим в раздел Local Apps and Hardware. Можно здесь задать своё железо, но на фильтрацию AI-приложений похоже это не влияет. Я с ноута, где стоит двухгиговая 1050 запустил ламу 3 в Jan, всё ок. Ставим галочки на софте, который вы используете для того, чтобы гонять модели локально. Для работы с текстом поддерживаются llama.cpp, LM Studio, Jan, Backyard AI. С картинками пока только Draw Things и, скоро, DiffusionBee, но они обе только на мак. Нажимаем Browse Compatible Models —> выбираем приглянувшуюся нейронку —> кликаем Use this model в правом верхнем углу —> выбираем в каком софте запустить, и через диплинк в нём откроется окно для загрузки модели. Можно и просто исследуя хаггинг открыть понравившуюся нейронку нажав Use this model. Доступны, в основном, квантизированные GGUF версии, которые можно скачать либо целиком, либо они состоят из нескольких частей и для работы понадобится скачать их все как архив из множества кусков (они обычно подписаны part_N). Чтобы понять какую модель грузить, можно глянуть страницу с описанием на хаггинге, если там про это есть. В противном случае качайте, то что как вам кажется нормально запуститься в памяти вашей видюхи. Как только модель загружена — можно генерить. Если вы пилите своё приложение для запуска локальных моделей, то нажав Suggest a new local app вы можете предложить добавить его в список.
إظهار الكل...
🔥 18👍 5
Нехилый конфликт между Krea и AnimateDiff. Похоже я был прав в предыдущем посте, и генерация видео в Krea - это AnimateDiff. Я поресерчил и оказалось, что в сообществе AnimateDiff часть людей убеждены, что Krea сперли (ну как сперли, скачали открытый код и веса) наработки AnimateDiff и юзают их, для ацкого зарабатывания денег. И в твитторах прям пригорает. Ниже, я приведу цитаты и ссылку на хороший пост, освещающий историю создания AnimateDiff - там очень много шикарных работ. Вопрос о воровстве сильно открыт. Как правило, надо смотреть на лицензию всего того добра, которое выкладывается на GitHub. Я не разбирался с кодом AnimateDiff и вопросом легально ли Креа используют код AnimateDiff для меня неясен. Но меня в свое время очень смущал маркетинг Леонардо АИ, являвшегося по сути нашлепкой над Stable Diffusion. Которые запустили в сеть дикий трафик типа "новая модель Леонардо - убийца Midjourney", хотя модель там была Stable Diffusion 1.5. А возможность юзать модели в Цивитай в Леонардо и вовсе ломала такой маркетинг. В общем, это наверно старая история противостояния открытого и закрытого кода. И того, как можно зарабатывать на открытом коде. Ниже цитаты: "Если вы не заметили, Krea — стартап с закрытым исходным кодом, укравший кучу вещей, над которыми люди здесь работали последние 10 месяцев — это было неизбежно, но все равно меня огорчило. В ответ я написал здесь краткий обзор, документирующий некоторые достижения Animatediff https://x.com/pom_I_moq/status/1788675646069277008. Спасибо всем, кто поделился этим! Я думаю, что сделать так, чтобы все знали о природе таких компаний, как Krea, — это самое лучшее, что мы можем сделать — не спорить и бороться с ними, а информировать о том, чем они занимаются. Оттуда они примут собственное решение. Кто-то может сказать, что эти люди, зарабатывающие все деньги на этом, неизбежны и что все, что люди придумывают, в конечном итоге будет аналогичным образом коммерциализировано другими людьми, которые почти ничего не имеют общего с экосистемой. Прежде всего, это было бы ужасно, потому что, как показали такие компании, как Kaliber и Leonardo, конечная цель этих компаний — использовать преимущества открытого исходного кода для обучения более совершенным закрытым моделям. Со временем их цель состоит в том, чтобы сделать открытый исходный код недоступным для своих моделей."
إظهار الكل...
POM (@pom_I_moq) on X

The progress of the Animatediff community over the past 10 months has been miraculous - see attached! Now, closed startups like Krea are taking the fruits of all this effort - so I'd like to tell the story of how we got here & what people who believe in open source can do.

👍 14🔥 10
00:22
Video unavailableShow in Telegram
Krea.ai таки анонсировали типа-видео-модель. И что самое главное, нормальный UI к нему. Недавно писал, что Креа запустили фишку с забавным видео-эффектом, когда можно делать морфинг картинок (не в пиксельном, а в латентном пространстве), причем с ключевыми кадрами. Вчера они разродились Krea Video Open Beta. Выглядит нарядно. Но если приглядеться, то это, скорее всего, не модель для генерации видео, обученная на видео. Похоже на очень причесанный AnimateDiff, то есть анимацию с помощью Stable Diffusion. Волосы кипят в полный рост. Как и в случае с морфингом - отличная фишка для эффектов, переходов и абстрактного арта. Но прям для видео или анимации с рассказыванием историй - вряд ли. Хотя... поглядите тут Но и самое главное. У них, в отличие от других ацких видеогенераторов, есть таймлайн(!) и кифреймы. То есть они упарываются в UI/UX и управляемость. Я уже много раз писал, что в музыкальные и видео-генераторы прямо просится таймлайн. Это вам не тексты с картинкам, где нет дополнительного измерения - времени. И это время(тайминг) хочется редактировать. Монтаж и эффекты в общем. И Креа тут молодцы. Вот держите твитторный пост с туториалом, как наруливать видео в Креа: https://x.com/krea_ai/status/1793570374036357368
إظهار الكل...
👍 25🔥 6
00:26
Video unavailableShow in Telegram
Помните, я постил отличный ролик Funky Hands с использование AnimateDiff и After Effects. Так вот вышел Making Of этого ролика. Поглядите, кто в теме. Если интересны детали, то почитайте тут и тут. А теперь интересное: На производство ролика ушло 2.5 дня. И одна 4090. От идеи до рендера. Если поглядеть на ноды из ComfyUI от автора, то вам сюда. Автор ролика - Алексей Лотков. Его инста вот тут: https://www.instagram.com/aleksejlotkov/ Очень крутая работа. Да еще и в такие сроки. Это ж как надо владеть ComfyUI и After Effects!
إظهار الكل...
🔥 59👍 13
01:26
Video unavailableShow in Telegram
Кожаный дипфейк. Тут интернетик приподвспучивается новостью про пересадку голов. Видосик разлетелся, журналюги взвыли. Там еще самая сладкая фича - пересадка лица! Кожаный дипфейк во плоти. Смотрите здесь полное видео: https://youtu.be/szXbuUlUhQ4 (осторожно, тошнит) А Кожаные дипфейки у них прям на сайте: https://brainbridge.tech/ Но, камон! Клюква жеж. Они там собираются сливать всю кровь из башки и пришивать непришиваемое. Ну и на сайте столько маркеров того, что это булшит, что я даже сначала писать не хотел. Однако меня закидали ссылками, вот отбиваюсь. В общем как хорор-муви - хорошо заходит. Как технология - фейк. Почитайте лучше вот тут, почему это невозможно: https://www.theguardian.com/science/brain-flapping/2017/nov/17/no-there-hasnt-been-a-human-head-transplant-and-may-never-be-sergio-canavero
إظهار الكل...
🔥 38👎 13👍 3
Итак, Microsoft Build. - Team Copilot: офигенная штука, судя по видео, такой типа еще один сотрудник, который может вести заметки на встрече, на вопросы отвечать, задачи сам ставить, генерировать ответы и запрашивать дополнительную информацию. MS прям делает "AI-сотрудников" и я бы даже сказал менеджеров ) - Copilot Studio: Такой Robotic Process Automation на максималках! Платформа для создания кастомных копилотов, которые могут процессы автоматизировать, причем вызывая разные приложения, динамически адаптируясь, обращаясь к человеку, если что-то непонятно или не хватает данных. Ну это прям новый уровень вообще! Настроил авто-обработку документов и сидишь пьешь смузи ) - Phi Silica: Локальная маленькая моделька, заточенная на нейропроцессоры новых ноутов Copilot + PC. И можно по API к ней обращаться. Я думаю, что ноуты эти распространятся лет через 5, но пока просто показываем. - Phi-3-Vision: Новая визуальная хорошая маленькая моделька от MS (4B параметров). Тоже оптимизированная для локального применения. Ну и еще Small и Medium обновили на 7 и 14B. - Real-time Intelligence в Fabric: Будет теперь искать аномалии и нотификации присылать в реальном времени, если что необычного с вашими данными происходит - GitHub Copilot Extensions: Можно интегрировать сторонные тулы и тогда AI сможет данные из них подсасывать - Azure AI Search: Оптимизировали поиск по большим данным, гибридный поиск (и по векторам, и по тексту), так что теперь все быстрее и лучше, и для LLM. - Azure AI Studio: создавай GenAI проекты с кучей моделек, мониторингом, безопасностью, оркестрацией агентов, файн-тюнингом и все в удобном интерфейсе. Звучит прям как сильный конкурент Vertex AI наконец-то - Azure OpenAI Services: добавили GPT-4o (обычно с задержкой в пару месяцев появлялось все), файнтюнинг простой, Assistants API - Cognition + Microsoft: воу-воу, Devin (тот самый AI-разработчик) будет совместно с MS разрабатываться и доступен в Azure. Ну это прям дофига всего, И для разработчиков, и для бизнес-пользователей действительно полезно. Видосы: https://youtu.be/4k2T5sfGIP4 https://youtu.be/5H6_pCUt-mk https://youtu.be/JI6IQvSLP9M
إظهار الكل...
Introducing Team Copilot | Microsoft 365

Team Copilot expands Copilot for Microsoft 365 from a behind-the-scenes personal AI assistant to a valuable new team member, improving collaboration and project management. Team Copilot will act on behalf of a team, a department, or an entire company and you’re always in control – assigning tasks or responsibilities to Copilot so the whole team can be more productive, collaborative, and creative, together. Team Copilot will be available where you collaborate - in Teams, Loop, Planner, and more. Read the Microsoft Build 2024 blog to learn more:

https://aka.ms/Build2024-M365Blog.

#microsoft #microsoft365 #copilot

👍 33👎 4🔥 2