cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Метаверсище и ИИще

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Show more
Advertising posts
25 431
Subscribers
+2424 hours
+4707 days
+97430 days
Posting time distributions

Data loading in progress...

Find out who reads your channel

This graph will show you who besides your subscribers reads your channel and learn about other sources of traffic.
Views Sources
Publication analysis
PostsViews
Shares
Views dynamics
01
Блокчейн TON ищет талантливых разработчиков! Стартует масштабный хакатон “The Open League Hackathon” с призовым пулом $2,000,000 от команды блокчейна TON. В поддержку хакатона все Web3-энтузиасты приглашаются на трёхдневные оффлайн встречи для нетворкинга в 13 городах мира: 📍Прага, Берлин, Киев, Варшава, Тбилиси, Белград, Сеул, Тайбэй (Тайвань), Гуруграм (Индия), Гонг-Конг, Минск, Москва и Санкт-Петербург. Первые встречи начнутся уже 24 мая. Ищи свой город и регистрируйся здесь 👈 тык Что вас ждет: — 3 дня нетворка, лекций, конкурсов и работы над собственными проектами с поддержкой представителей TON Foundation и команд экосистемы TON — Призовые $5.000 для трех лучших проектов на каждом оффлайн ивенте + много мерча и других бонусов Не упусти возможность представить свое приложение 900 миллионам активных пользователей Telegram вместе с TON. Регистрируйся — https://tgtelespace.link/qntzco
2 65831Loading...
02
Нейровьюпорт. Был на Silicon Graphics такой софт TDI Explore, его ядро в основном вошло в Maya. И там был IPR - Interactive Photorealistic Renderer (IPR). Когда выделяешь часть картинки, а он тебе подрендеривает её сразу. Это щас есть везде, но в 1993 году это была нереальная уникальная фишка. 30 лет назад. Я вот сейчас гляжу на то, что творит Мартин, Krea и Substance3D и думаю, что интерактивный нейрорендер - это просто снос башки. Ключевая фишка - интерактивность. Когда не надо нажимать кнопку рендер. Тут в конце апскейл с помощью Магнифика и псевдовидео в Леонардо.
2 56438Loading...
03
Помните, я писал, что после LLM-Arena, где разные ллм-хлещутся друг с другом руками кожаных за звание лучшей, появилась Image Arena. Где хлещутся генераторы картинок. Кожаные генерят две картинки по промпту, тыкают в понравившуюся больше, и только потом видят, чем сгенерили, а моделька поднимается в рейтинге. Теперь кто-то сварганил такое же для 3Д-генераторов. Но к сожалению всерьез это воспринимать нельзя. Там есть очень устаревшие модели, нет самых жирных и популярных генераторов, даже опен-сорсных, но можно оценивать модели по разным параметрам. https://huggingface.co/spaces/ZhangYuhan/3DGen-Arena
2 68616Loading...
04
Zero GPU для всех. Если у вас нет конской видеокарты(и вы не умеете разворачивать репозитарии с гитхаба), то есть хорошая новость. ХаггингФейс вонзает 10 миллионов в программу Zero GPU. Если грубо, то они теперь дают поюзать их GPU в гораздо большем объеме, чем раньше. Для старых нормальных: они собрали почти 300 всех этих безумных опен-сорсных (и не очень) проектов и сделали каталог, где можно погонять эти проекты в качестве демо на их GPU. Про многие из них я уже писал (Хуньянь, InstanMesh, StoryDiffusion и др), про остальные можно почитать у Неронавтика, который делает гигантскую работу. Теперь можете сами погонять весь этот ИИ на сколько хватит квоты. Для новых нормальных: Если вы пилите что-то свое, то можете разместить свои модели демо на HuggingFace. Держите весь каталок тут: https://huggingface.co/spaces/enzostvs/zero-gpu-spaces И ну тестировать весь этот ад! Подробнее тут: https://www.theverge.com/2024/5/16/24156755/hugging-face-celement-delangue-free-shared-gpus-ai
2 882113Loading...
05
Недавно давал карту ИИ-стартапов по миру - где и как инвестируют в ИИ. Сегодня такая же карта по городам. Там скоринг немного более сложный, описан прямо на картинке. После Сан-Франциско и Нью-Йорка сразу идут Пекин и Шанхай. Ну и если сложить США и Китай, то остальным станам останется пять мест. Из Европы только Берлин, который занимает последнее место в рейтинге.
2 98235Loading...
06
Вчера писал про моделинг на кончиках пальцев. Сегодня лайтинг на ладони. С пульта. В удивительное время живем. Можно светить фонариком в плоскую картинку на экране, и получать трехмерное освещение этой картики так, как будто у нас есть ее трехмерная модель. Ну или как будто это не картинка, а реальность. Подробности тут.
3 41851Loading...
07
И, похоже, идея брать демо-видео от OpenAI и делать на них свой маркетинг пошла в массы. Теперь китайцы из DeemosTech, за которыми я внимательно слежу, тоже взяли и скормили голос из демо в свой движок Media2Face. Я опять не уверен, что это реалтайм. Но сам движок выглядит очень занятно. Он генерит не финальное видео, как у Синтезия или D-ID, а полигональную модель головы. Точнее, он генерит анимацию заранее существующей сетки. Почитайте про него тут, посмотрите видео внутри, очень занятно. https://sites.google.com/view/media2face
3 22121Loading...
08
Тут по интернетику прокатилась демка от Синтезия. Очень хороший маркетинг - они взяли запись демо gtp-4o и присунули голосовые ответы модели(звук) в свой генератор мимики для аватров. Выглядит просто убойно. Синтезия действительно проапгредила свой движок и их аватары теперь артикулируют и шевелят лизом очень хорошо. Но, коллеги, кто вам сказал, что это реалтайм? Нейролипсинк - вещь тяжелая, неприятная...
3 34440Loading...
09
Поглядеть на внешний вид новых ИИ-писюков от Микрософт и на то как работает рисовалка Co-Creator можно тут
3 57450Loading...
10
Теперь про ИИ на новой Винде с ARM-процессором. 1. Меня больше всего триггернула функция Total Recall (Вспомнить всё one love). Поглядите тут: https://youtu.be/5JmkWJNng2I?t=26 ИИ запоминает ВСЕ ВАШИ ДЕЙСТВИЯ. С привязкой по времени. Это, конечно, потрясающе для обучения и дообучения. Через некоторое время вы только поглядите на экран, а ИИ поймет, что вы собираетесь сделать и сделает (правда в игры будет играть неинтересно). Но подумайте, а вы хотите, чтобы все ваши глупые действия протоколировались? 2. Live Captions также позволяет делать переводы на основе AI любого видео в реальном времени. Забавно, что в демо ролике светится перевод с русского на английский. 3. Microsoft также добавляет Auto Super Resolution, которая автоматически масштабирует игры для улучшения частоты кадров и графического разрешения. Тут боян, конечно. 4. Co-Creator. Там, конечно, весь этот жир для генерации контента. Судя по демо, аналог Креа. Надо будет смотреть (в след посте). Вот тут подробно про софт и железо: https://www.youtube.com/watch?v=iHQgf3DNAr8&t=419s
3 83456Loading...
11
M3 от Microsoft. Лучше поздно, но с ИИ и ARM. Микрософтик забабахал презентацию концепции ИИ-ноутов под названием Copilot+PC. И нет, это не ноуты от самого микрософта, как пишут в телеге. Это концепция + ПЛЮС СОБСТВЕННЫЙ ПРОЦЕССОР(это главная новость). Это ноуты, имеющие ARM-процессор, где есть "чип для ИИ", типа NPU (neural processor unit), который достигает 45 TOPS вычислений для ИИ-задач. Это, как пишет микрософт, приводит к большему количеству ИИ-операций НА ВАТТ, чем MacBook Air M3 и Nvidia RTX 4060. Внимание, "на ватт". Микрософт также интегрирует более 40 моделей AI непосредственно в Windows on Arm, чтобы обеспечить новые возможности в Windows и для разработчиков приложений. Около 10 из них - небольшие языковые модели, которые будут работать в фоновом режиме. Эти модели позволят разработчикам привнести опыт ИИ непосредственно в свои приложения, а измерения времени автономной работы Microsoft включают их непрерывную работу в NPU. Выпускать такие ARM-машинки Asus, Dell, HP, Lenovo, Samsung и сам Microsoft. Там вроде поначалу будет стоять процессор Qualcomm Snapdragon X Elite. Два вопроса: 1. Совместимость с приложениями для "обычной интеловой" Винды? Ответ: "будет эмулировать приложения в два раза быстрее, чем Windows предыдущего поколения на устройствах Arm.". Ни о чем не говорит, время покажет. 2. Разработчики, конечно, охренеют. И пусть Адобченко уже анонсировал поддержку ARM. Но приложений для Винды в разы больше, чем для Мака. Вспомним, как разрабы переползали на Apple Silicon и умножим на N. В общем выглядит как запоздалый ответ на Эппле Силикон с четырех-летней задержкой. Но с ИИ наперевес. Причем первая попытка с Windows на ARM-архитектуре у Микрософта явно провалилась. Но может щас ИИ поможет. По ИИ-Windows - следующий пост. P.S. В 2018 году Nvidia представила, скажем так, концепцию STUDIO - линейка ноутбуков заточенных под пост-продакшен на базе RTX. Чтобы делать взрослую компьютерную графику: 3Д, композ, монтаж. Они отстроились от игровых ноутов через, во-первых, легкий вес и средние габариты, а, во-вторых, через Studio Driver. Стоили ноуты в полтора раза дороже обычных и выпускали их только определенные "взрослые" вендоры (HP, DELL, ASUS). Было много вопросов и к драйверу и к самой концепции. Китайцы наладили выпуск сравнимых по мощности и габаритам ноутов довольно скоро. У меня пыхтит леново с неурезанной 2080, уделывая многие студио-ноуты. Так что ждем и китайские версии ИИ-Windows. Подробнее тут: https://blogs.microsoft.com/blog/2024/05/20/introducing-copilot-pcs/
3 33748Loading...
12
Новый процессор т Микрософт. Читаем ниже.
3 70629Loading...
13
Так, достаньте меня из твиттора, хуже ютюба, ей богу. Я не уверен, такая штука прям зайдет в народ, особенно за 60 евро, но выглядит очень прикольно. Именно в плане интерфейсных решений. Моделирование на кончиках пальцев. https://apps.apple.com/es/app/uniform-3d-editor/id6472727759 https://x.com/sparseal/status/1790773028130791835
6 15687Loading...
14
Я даже не знаю за кого накатить, не чокаясь. За фантазии? Моделлеры пока тут ручками работают в Substance3D, а потом подкючается Krea.ai И ну выпивать за эфыксеров, лайтинг- и щейдер-артистов, текстурщиков и рендерманщиков. Выглядит совсем уж нарядно. А то меня уже порядком достали танцующие тяночки из AnimDiff - 95 процентов Stable Diffusion анимаций - это тикток стайл. А тут реальная красота. Ну и подумайте, сколько фантазий и новых коцептов в секунду выдает ИИ? Пока вы смотрите на эту волну, пуская слюни, он успевает разбрызгать столько идей, что вам и не снилось. Подключайте его к своим фантазиями, он вас научит воображать невоображаемое.
4 702137Loading...
15
Вголосину. Тут вот пишут, что этот волшебный голос с презентации gpt-4o удалят из списка голосов. Слишком сексуальный. Посмотрите это видео, до конца, это дико смешно. https://x.com/jam3scampbell/status/1791338109709287511
5 300188Loading...
16
Плагины для chatGPT всё. Помните, какого шума наделали плагины для chatGPT? Красивые презентации, демо, удивительные графики и диаграммы от Вольфрама. А потом пришли плечистые ceo-оптимизаторы и засрали поляну тысячей плагинов, уводящих трафик к себе на сайты с помощью бесполезных поделок. М-Модерация? Нет, не слышали (в OpenAI по крайней мере). Сейчас все это безобразие тихой сапой исчезло из интерфейса chatGPT. Смышленые ребята скажут, что теперь у нас есть Джипитишки и будут правы. Там можно реализовать тот же функционал. Но помните, нам в ноябре обещали GPT Store, каталоги, магазин и вот это вот всё? Вместо этого у нас миллионы созданных Джипитишек (среди которых, подобно плагинам, большинство - ацкий треш и снова нагон трафика), странный каталог с ограниченной навигацией. И похоже отсутствием внятной модерации. История с плагинами повторяется? Похоже, что в продукты у OpenAI не очень получается. Продуктовое мышление сильно отличается от разработки. В этом смысле у Гугла огромная фора и тысячелетний опыт. Интерфейс Гемини сильно лучше, чем у chatGPT. Плюс выводок продуктов с миллионными аудиториями. Тем интереснее будет конкуренция.
4 81631Loading...
17
Утечки про SD3. Похоже веса Stable Diffusion 3 все-таки появятся. Разработчики, которые пилят DissusionKit - адаптацию и инференс моделей на мобильных устройствах, твитторнули, что уже допиливают локальную Stable Diffusion 3 причем для Мака! Our first step was to bring Stable Diffusion 3 to Mac. We have optimized the memory consumption and latency for both MLX and Core ML. "Мы откроем исходный код этого проекта вместе с предстоящим выпуском весов Stability AI." Причем обещают опубликовать тесты и время просчета уже в ближайшие дни. https://x.com/argmaxinc/status/1790785157840125957 Также неутомимый Лыкон, который постоянно постит картинки из SD3 в твитторе, написал: Также, насколько я знаю, мы все еще планируем выпустить #SD3. Надеюсь, ожидание почти закончилось. Поскольку моя команда работает над open release, будет странно, если мы откажемся от этого. https://x.com/lykon4072/status/1791839648987156525 Штош, надежда не потеряна...
4 59828Loading...
18
Немного навеяло предыдущим постом. Я помню, как в начале нулевых народ упарывался по Роботам и Мехам. На концепт-арт площадках были целые битвы Мехов, а тогда еще форумы и первые сайты пестрели предтечами трансформеров. На глаза попалась вот такая такая Лора для SDXL. https://huggingface.co/Fiacre/robodiffusion-xl-v1 (внимание ее надо юзать с коэффициентом около 0.7 - < lora:robodiffusionxl:0.7 >). Читаем RoboDiffusionXL был обучен на высококачественном синтетическом наборе данных, составленном таким образом, чтобы включить в себя широкий спектр форм и стилей роботов. Изображения включают исторические, культурные и футуристические темы, что обеспечивает разнообразие генерируемых результатов. Роботы и Мехи пошли на корм ИИ. И сейчас можно кинуть на Civitai в поиск "mech" и получить 56 моделей и лор: https://civitai.com/tag/mech Это я к чему: если что-то популярно и не дай бог продается, то ИИ растиражирует это в лучшем виде. А что с этим делать - решать (пока) кожаным.
4 55419Loading...
19
ИИ-новый NFT? Вот держите огненную историю о том, деньги на итоге решают. А ИИ просто смотрит на то, как кожаные с помощью него зарабатывают - ибо наши любимые метрика - это трафик. Я стал замечать, что даже Гугл в поиске мне стал часто подсовывать картинки сгенеренные ИИ. Особенно, когда речь идет о нетривиальных запросах. И тут бомбануло на сайте Devian Art. Обнаружилось, что сайт активно продвигает "лучших продавцов" контента "Isaris-AI" и "Mikonotai", которые, как сообщалось, заработали десятки тысяч долларов на массовых продажах. Обнаружилось кто-то (вероятно админы) создал сеть ботов, реализующую хорошо известную в NFT схему зарабатывания: создать тысячи ИИ-изображений и аккаунтов, заставить их покупать и шиллить друг друга, раздуть метрики, чтобы "искусство" бустилось на DeviantArt и поднималось в рейтингах выше кожаных. А там и продажи. Напомню, что в отличие от остальных стоков, DevianArt ласково принял ИИ в 2022 году - вместе со StabilityAI они запустили внутренний инструмент генерации изображений под названием DreamUp. В Девиане полыхает. Юзеры удаляют свои акки, пишут проклятия, админы удаляют эти проклятия, в общем все как у людей. Но это я к чему. Пока метриками являются трафик, переходы и объемы контента, ИИ будет хохотать над этим смешными протестами и попытками регуляции. Ибо получается лицемерие: а давайте сохраним существующие метрики, но не разрешим кожаным зарабатывать на ИИ. OpenAI скупает данные по всему интернетику, Адобченко и Getty тоже. Скоро даже серая зона в виде "вы тренировались на наших данных, мы на такое не подписывались" станет белой. И смышленые ребята будут лить контент и трафик, пока интернетик не лопнет. Или кожаные, наконец, поймут, что с их метриками что-то не так. https://twitter.com/romainrevert/status/1772921780933448139 https://www.theverge.com/2024/5/19/24160240/ai-art-is-gobbling-up-deviantarts-creator-revenue-sharing https://slate.com/technology/2024/05/deviantart-what-happened-ai-decline-lawsuit-stability.html
4 77847Loading...
20
Небольшой трик, который вы можете использовать, чтобы повысить удобство использования генераций во время рисования: Скачиваете Windows on Top, накладываете окно Photoshop поверх Krea.ai, включаете стриминг окна Photoshop и рисуете поверх генерации.
4 617236Loading...
21
ИИ-поздравлялки. Вчера был какой-то угарный день, в канал влетело 300 человек - в основном из-за репостов истории про то, как Gemini матерится на OpenAI. Хороший контент рулит. И я совершенно пропустил момент, когда мы пробили 25 000! Глянул вечером, оппаньки! Раздулся от гордости и ну продолжать писать глупости. В общем, напишите мне в коментах что-то приятное, а я буду дальше раздуваться и писать. Если вы совсем дерзкие, можете жбакнуть по кнопке "Поддержать" в закрепе и метнуть TON в мою сторону, но это совершенно не обязательно. Чтобы пост был не совсем бесполезным для вас, вот вам промп для gpt-4o, который позволяет сделать картинку в точности по тексту, без раскучерявливания. make picture with exact prompt "25k subscribers" with no prompt enhancement and show me this prompt in json-format after Он выдаст вам вот так, чтобы вы могли его контролировать: { "prompt": "25k subscribers", "size": "1024x1024" } Есть еще параметр n:1, но он не работает. А когда-то был даже seed но его убрали. Про разрешения спросите его, он расскажет. Мне вот такая картинка без стереотипов и приукрашиваний вполне себе нравится. С приукрашиваниями получаются банальные логосы с кривым текстом. Это я к чему. Покидайте в него промпты типа "." или " " или "`" или ":)" или куски кода. Обнаружилось, что его ломает "{" или "}" в любых включениях и он не может в пустой промпт "". В отличие от Stable Diffusion. Системный промпт ломается очевидно. Получите странные картинки. Меня сразило, когда он на чистый пробел " " выдал мне Будду. Совпадение? И не увлекайтесь, сначала поздравлялки, потом картинки. Ваш ИИ-дедован.
5 70329Loading...
22
OpenAI анонсировали улучшение в анализе данных. 1. Загрузка файлов напрямую из Google Drive и Microsoft OneDrive: - Больше не нужно загружать файлы на рабочий стол и затем загружать их в ChatGPT. Теперь можно добавлять файлы напрямую из облачных хранилищ, что ускоряет процесс анализа данных. 2. Работа с таблицами в реальном времени: - ChatGPT создаст интерактивную таблицу, которую можно развернуть на весь экран. Вы сможете следить за обновлениями таблицы в процессе анализа, задавать уточняющие вопросы или выбирать подсказки для более глубокого анализа. 3. Настройка и скачивание диаграмм для презентаций и документов: - Вы можете настраивать и взаимодействовать с различными типами диаграмм (столбчатые, линейные, круговые и точечные диаграммы) прямо в разговоре. Когда диаграмма будет готова, её можно скачать для использования в презентациях или документах. Выглядит интересно. И снова подкосит сотню стартапов :) https://openai.com/index/improvements-to-data-analysis-in-chatgpt/
5 79168Loading...
23
😐 Корпорация Sony Music напряглась от такого количества генераторов музыки и приступила к запугиванию: они написали письма ~700 стартапам, с просьбой рассказать, как музыка лицензируемая Sony используется в тренировках Это чистая атака на музыкальные GenAI стартапы, потому что закона обвязывающего показывать, что в датасете – нет Потом будут использовать эти ответы в суде и может быть как-то прессовать тех, кто не ответят Но я не удивлен если честно, музыкальные модели только в опенсорсе мне кажется будут развиваться, аналогично Stable Diffusion – чтобы выстоять перед давлением Sony Music нужно иметь серьезных юристов за плечами Ссылка на новость
4 28937Loading...
24
Если вернуться к аналогиям с рассерженными художниками и программерами, то я все ждал, когда начнется волна гонений на Suno и Udio. Это ж какая угроза музыкальной индустрии и повод выпить за музыкантов. Музыка пришла на полянку GenAI последней (по масс адопшену, скажем так), и пришла сразу не с пустыми руками, а в виде охренительных генераторов. Музыканты уже подвзвыли, Там Билли Айлиш с пацанами уже протестуют в интернетике. Но с горы уже спускаются очень взрослые мальчики с юристами наперевес. Кто будет следующим Stable Music Diffusion? Чтобы можно было тренировать, тюнить, выпускать свои модели в опенсорс: Читаем ниже:
5 46210Loading...
25
Ну и вишенка на китайском торте. Если включаешь Prompt Enhancement(с одним и тем же сидом), то она из стройной девушки на лугу, делает вот такой вариант. Типа добавляет новой нормальной красоты. С одним и тем же сидом. Диверсити, блин. И до Китая добралось. Подробнее в предыдущем посте.
5 42926Loading...
26
Хуньянь: Китайский генератор картинок от ТикТока. С весами и пирогами. Коль скоро SD3 мы увидим примерно никто не знает когда, то смотрим, вокруг. ТикТок выкатил свою модель. С кодом и весами. Ну и конечно по их китайским тестам она бьет весь опенсорс (включая SD3), скромно уступая Midjourney и DALL·E 3. Но мы ж не просто перепащиваем новости и визжим от черрипикнутых картинок с их сайта. Лезем в демо и тестируем. Расчехляем промпт с принцессой. Они делают акцент на улучшенной понимание китайского языка. Тут мне похвастаться нечем, я погонял на английском. И да, там есть Prompt Enhancement, как в фооокусе, добавление текстовой красоты в промпт. Работает забавно. Но мыло не убирает. Три сэмплера, третий не работает. На итоге: уровень SD2 или SD1.5. Сильное мыло, беда с руками, постоянно сваливается в аниме. Возможно если бы были крутилки, можно что-то докрутить, но в демо нет никаких крутилок. Можно поставить локально, может быть там будет больше параметров. Для тех, кто в NSFW - очень забавная цензура. Промпт не отвергает, но пытается укутать картинку хотя бы в белье. Постоянно сваливается в аниме, от греха подальше. Когда добиваешь негативным промтом, изорачиваетя. Мылит соски, прячет детали. Похоже на поведение SDXL. Все явки и пароли тут: https://github.com/Tencent/HunyuanDiT Потестируйте, может у вас китайский хороший...
5 88427Loading...
27
Media files
4 6724Loading...
28
А тем временем битва за данные продолжается. Я уже писал, что открытие gpt-4o для всех, это, прежде всего, охота за новыми данными, данными для обучения. Которые юзеры будут вливать в жерло ИИ своими неистовыми промптами, картинками, видосами и диалогами. Тут уже прошла новость о том, что OpenAI запартнерился с со StackOverflow, для которых это прям хорошая сделка, ибо с появлением ИИ, пишущего код, трафик на их сайте просел на 47%. Правда, подобно художниками, некоторые кожаные программеры взорали: "а чо это этот тупой ИИ учится на нашем коде, мы на такое не подписывались". И ну портить код в своих аккаунтах. В общем, все как у людей. А сейчас вот OpenAI удачно подписали соглашение в Реддитом. Ведь с реддита все и начиналось, их ранние модели GPT-x обучались на данных с Реддита (неофициально как бы). И Реддит - это прям Клондайк для данных - отборное кожаное общение без прикрас и цензуры. Данные новая нефть, банально, но факт. И источник хороших доходов. Кто бы мог подумать, что все эти глупости, которые мы изрыгаем в сеть, все эти нарциссические картинки и неумные комментарии будут так цениться на рынке в 2024 году. https://openai.com/index/openai-and-reddit-partnership/
5 29631Loading...
29
Я постил новость о том, что Илья Суцкевер ушел из OpenAI. Весь интернет, конечно, гадает куда. Сегодня увидел вот такую версию. "Амбициозный проект", "крупный банк". Не иначе как Сбер?? https://t.me/ai_ins/3299
6 349106Loading...
30
Грег Брокманс президент OpenAI, дразнить всех в твиттере вот такой картинкой. Это генерация в GPT-4o, только не в нынешней, которая умеет только в текст, а в будущей, которая мульти модальная и пока недоступная (как и голосовая с презентации). То, что это генерация, можно понять сильно зазумившись на шею и правую руку. Но если не зумиться, то можно слегка охренеть. И поскольку Стабилити явно тонет, то я, наверное, вычеркну SD3 из списка ожидания(пока их никто не пожрал). И буду алкать DALLE-4o. Но цензурищща там будет, конечно... https://x.com/gdb/status/1790869434174746805
6 19034Loading...
Photo unavailableShow in Telegram
Блокчейн TON ищет талантливых разработчиков! Стартует масштабный хакатон “The Open League Hackathon” с призовым пулом $2,000,000 от команды блокчейна TON. В поддержку хакатона все Web3-энтузиасты приглашаются на трёхдневные оффлайн встречи для нетворкинга в 13 городах мира: 📍Прага, Берлин, Киев, Варшава, Тбилиси, Белград, Сеул, Тайбэй (Тайвань), Гуруграм (Индия), Гонг-Конг, Минск, Москва и Санкт-Петербург. Первые встречи начнутся уже 24 мая. Ищи свой город и регистрируйся здесь 👈 тык Что вас ждет: — 3 дня нетворка, лекций, конкурсов и работы над собственными проектами с поддержкой представителей TON Foundation и команд экосистемы TON — Призовые $5.000 для трех лучших проектов на каждом оффлайн ивенте + много мерча и других бонусов Не упусти возможность представить свое приложение 900 миллионам активных пользователей Telegram вместе с TON. Регистрируйся — https://tgtelespace.link/qntzco
Show all...
🔥 6👍 4👎 3
00:33
Video unavailableShow in Telegram
Нейровьюпорт. Был на Silicon Graphics такой софт TDI Explore, его ядро в основном вошло в Maya. И там был IPR - Interactive Photorealistic Renderer (IPR). Когда выделяешь часть картинки, а он тебе подрендеривает её сразу. Это щас есть везде, но в 1993 году это была нереальная уникальная фишка. 30 лет назад. Я вот сейчас гляжу на то, что творит Мартин, Krea и Substance3D и думаю, что интерактивный нейрорендер - это просто снос башки. Ключевая фишка - интерактивность. Когда не надо нажимать кнопку рендер. Тут в конце апскейл с помощью Магнифика и псевдовидео в Леонардо.
Show all...
👍 14🔥 2
Photo unavailableShow in Telegram
Помните, я писал, что после LLM-Arena, где разные ллм-хлещутся друг с другом руками кожаных за звание лучшей, появилась Image Arena. Где хлещутся генераторы картинок. Кожаные генерят две картинки по промпту, тыкают в понравившуюся больше, и только потом видят, чем сгенерили, а моделька поднимается в рейтинге. Теперь кто-то сварганил такое же для 3Д-генераторов. Но к сожалению всерьез это воспринимать нельзя. Там есть очень устаревшие модели, нет самых жирных и популярных генераторов, даже опен-сорсных, но можно оценивать модели по разным параметрам. https://huggingface.co/spaces/ZhangYuhan/3DGen-Arena
Show all...
🔥 4👍 2
Photo unavailableShow in Telegram
Zero GPU для всех. Если у вас нет конской видеокарты(и вы не умеете разворачивать репозитарии с гитхаба), то есть хорошая новость. ХаггингФейс вонзает 10 миллионов в программу Zero GPU. Если грубо, то они теперь дают поюзать их GPU в гораздо большем объеме, чем раньше. Для старых нормальных: они собрали почти 300 всех этих безумных опен-сорсных (и не очень) проектов и сделали каталог, где можно погонять эти проекты в качестве демо на их GPU. Про многие из них я уже писал (Хуньянь, InstanMesh, StoryDiffusion и др), про остальные можно почитать у Неронавтика, который делает гигантскую работу. Теперь можете сами погонять весь этот ИИ на сколько хватит квоты. Для новых нормальных: Если вы пилите что-то свое, то можете разместить свои модели демо на HuggingFace. Держите весь каталок тут: https://huggingface.co/spaces/enzostvs/zero-gpu-spaces И ну тестировать весь этот ад! Подробнее тут: https://www.theverge.com/2024/5/16/24156755/hugging-face-celement-delangue-free-shared-gpus-ai
Show all...
🔥 14👍 11
Photo unavailableShow in Telegram
Недавно давал карту ИИ-стартапов по миру - где и как инвестируют в ИИ. Сегодня такая же карта по городам. Там скоринг немного более сложный, описан прямо на картинке. После Сан-Франциско и Нью-Йорка сразу идут Пекин и Шанхай. Ну и если сложить США и Китай, то остальным станам останется пять мест. Из Европы только Берлин, который занимает последнее место в рейтинге.
Show all...
👍 8🔥 6
01:01
Video unavailableShow in Telegram
Вчера писал про моделинг на кончиках пальцев. Сегодня лайтинг на ладони. С пульта. В удивительное время живем. Можно светить фонариком в плоскую картинку на экране, и получать трехмерное освещение этой картики так, как будто у нас есть ее трехмерная модель. Ну или как будто это не картинка, а реальность. Подробности тут.
Show all...
🔥 26👎 4
01:18
Video unavailableShow in Telegram
И, похоже, идея брать демо-видео от OpenAI и делать на них свой маркетинг пошла в массы. Теперь китайцы из DeemosTech, за которыми я внимательно слежу, тоже взяли и скормили голос из демо в свой движок Media2Face. Я опять не уверен, что это реалтайм. Но сам движок выглядит очень занятно. Он генерит не финальное видео, как у Синтезия или D-ID, а полигональную модель головы. Точнее, он генерит анимацию заранее существующей сетки. Почитайте про него тут, посмотрите видео внутри, очень занятно. https://sites.google.com/view/media2face
Show all...
👎 11🔥 4👍 3
01:22
Video unavailableShow in Telegram
Тут по интернетику прокатилась демка от Синтезия. Очень хороший маркетинг - они взяли запись демо gtp-4o и присунули голосовые ответы модели(звук) в свой генератор мимики для аватров. Выглядит просто убойно. Синтезия действительно проапгредила свой движок и их аватары теперь артикулируют и шевелят лизом очень хорошо. Но, коллеги, кто вам сказал, что это реалтайм? Нейролипсинк - вещь тяжелая, неприятная...
Show all...
👍 20👎 6
01:30
Video unavailableShow in Telegram
Поглядеть на внешний вид новых ИИ-писюков от Микрософт и на то как работает рисовалка Co-Creator можно тут
Show all...
👍 38👎 12
Теперь про ИИ на новой Винде с ARM-процессором. 1. Меня больше всего триггернула функция Total Recall (Вспомнить всё one love). Поглядите тут: https://youtu.be/5JmkWJNng2I?t=26 ИИ запоминает ВСЕ ВАШИ ДЕЙСТВИЯ. С привязкой по времени. Это, конечно, потрясающе для обучения и дообучения. Через некоторое время вы только поглядите на экран, а ИИ поймет, что вы собираетесь сделать и сделает (правда в игры будет играть неинтересно). Но подумайте, а вы хотите, чтобы все ваши глупые действия протоколировались? 2. Live Captions также позволяет делать переводы на основе AI любого видео в реальном времени. Забавно, что в демо ролике светится перевод с русского на английский. 3. Microsoft также добавляет Auto Super Resolution, которая автоматически масштабирует игры для улучшения частоты кадров и графического разрешения. Тут боян, конечно. 4. Co-Creator. Там, конечно, весь этот жир для генерации контента. Судя по демо, аналог Креа. Надо будет смотреть (в след посте). Вот тут подробно про софт и железо: https://www.youtube.com/watch?v=iHQgf3DNAr8&t=419s
Show all...
Introducing Copilot+ PCs

Copilot+ PCs are the fastest, most intelligent, and longest lasting Windows PCs ever built.

https://youtu.be/jCVuNJQMAiU

👍 15👎 6