cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Метаверсище и ИИще

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие. Для связи: @SergeyTsyptsyn

Show more
Advertising posts
24 682
Subscribers
+1124 hours
+1387 days
+67230 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Repost from Denis Sexy IT 🤖
Новое обновление про полезные локальные модели: Вчера вышла версия llama-3-8b с контекстным окном в 1 миллион токенов (!). Это значит, что задачи анализа большого количества текста можно теперь делать локально (точно на английском, с другими языками я это не тестил), до этого я ходил в Claude 3 Opus 200k. Зачем это нужно? Расскажу на живом примере: мы готовим новый продукт к анонсу, это что-то вроде AI фото студии но на вход мы берем всего одно фото пользователя, не 10-20; что сильно дешевле чем файнтюн модели дримбудкой, а значит, мы можем снизить цену на продукт для юзеров. У продукта уже есть конкуренты — это классно, потому что это значит, что в нише есть выручка. Конкуренты уже успели обрасти органическим трафиком – это мы и учитываем при запуске нового продукта: Я выгрузил из SEO анализатора органический трафик по которому находят наших конкурентов в гугле, скормил все это в контекстное окно как часть промпта и запросил у LLM популярные стили генераций, по которым пользователи ищут наших конкурентов. В итоге, на запуске, мы получили топ-10 стилей которые точно востребованы в интернете. Ради теста я сравнил результаты своего анализа между Claude 3 Opus 200k и Llama-3-8B-Instruct-Gradient-1048k, и могу сказать что локальная модель отлично справилась для своего размера и действительно смогла написать важные стили, похожие на то что выдал Opus. Так что теперь вы можете делать анализ больших корпусов текста дома. Сама модель тут (gguf версия для адептов llama.cpp) P.S. Для этой задачи важно ставить температуру 0, а то напридумывает деталей моделька. Указывая контекстное окно в 100k+ будьте готовы что памяти компа вам не хватит. P.P.S. Как водится, делюсь промптом который специально собрал для llama3 формат под эту задачу, там видно куда нужно поместить большой объем текста. #пропродукт
Show all...
👍 28🔥 11
Вышла llama-3-8b с контекстным окном в 1 миллион токенов. И это можно запускать локально у себя на компе. Клод с своими 200К нервно закуривает в облаке. Куда катится мир! Посмотрите, пожалуйста, в следующем посте, что теперь можно вытворять с таким контекстом. https://www.reddit.com/r/singularity/comments/1cgsmqt/you_can_use_llama3_8b_with_1_million_tokens/
Show all...
From the singularity community on Reddit: You can use Llama-3 8B with 1 million tokens.

Posted by Kanute3333 - 29 votes and 7 comments

🔥 9👍 3
ИИ для харкорных композеров. Как обработать группу снимков одним щелчком мыши, как автоматически маскировать, отслеживать объекты, автоматически нажимать клавишу, автоматически применять удаление. Как применять различные модели машинного обучения и как создавать новые модели, адаптированные к вашему материалу. Все это на русском с подробными объяснениями от Влада Ахтырского. В начале хороший ностальгический проброс в Ванкувер 2018, где мы с Владом отжигали на Сигграфе. До ковида, войны и вот этого вот всего. Для тех, кто шарить за взрослый композ и знает, что такое деспил. И да, это та сама кнопка "Сделать Всё" в виде системы Junior. https://www.youtube.com/watch?v=YRktwxF6CPU Ну, за джунов.
Show all...
Auto Pipeline to Iterate Idea in Nuke 12-15

В этом видео я представляю подробное объяснение «Junior» — нашего автоматизированного конвейера, управляемого искусственным интеллектом. Как обработать группу снимков одним щелчком мыши, как автоматически маскировать, отслеживать объекты, автоматически нажимать клавишу, автоматически применять удаление. Как применять различные модели машинного обучения и как создавать новые, адаптированные к вашему материалу. Спасибо. In this video I am presenting a detailed explanation about 'Junior' - our automated AI driven pipeline. How to process group of shots in once click, how to auto mask, track objects, auto pull key, auto apply despill. How to apply various ML models and how to make new ones to adopt to your material. Russian version. Register your interest at tech-va.com Thank you.

🔥 21👍 2
Repost from Сиолошная
Вчера на LMSYS Arena (место, где живые люди вслепую сравнивают генерации разных LLM и выбирают лучшую) появилась странная модель: gpt2-chatbot. И несмотря на то, что по названию можно подумать о слабости модели, она, внезапно, очень хороша. Настолько, что люди гадают, кто же её сделал, является ли это GPT-4.5 / 5, или может это свежий релиз Gemini Ultra 2.0. Предлагаю вам самим поиграться тут: https://chat.lmsys.org/ (вкладка Direct Chat, там выбрать модель в выпадающем списке). Ограничение всего 8 сообщений в сутки, пользуйтесь с умом (или используйте VPN и режим инкогнито, кек). На реддите люди тестируют свои задачки, которые якобы не решаются моделями предыдущих поколений, а эта либо щелкает, либо куда ближе к ответу, чем остальные. Треды почитать: 1, 2, 3. Мой опыт: — я дал ей простую задачку Show me an example of 3d ray tracing (with python). Set a simple scene, different light sources, etc. и получил полностью работающий код (в 2 или 3 ответа) с первого раза. Он учитывал материал объектов, включая цвет и уровень отражения. У меня получилось отрисовать сферу, на которой было два блика от двух источников света. После я попросил добавить поддержку не только сферы, но любой произвольной 3D-модели. Это заработало со второго раза — новонаписанный код был правильным, но оказалось, что нужно слегка изменить предыдущий. Скормив ошибку, получил работающее решение — и немного покрутив камеру увидел, что движок даже отражения от поверхностей учитывает! — с таким же промптом (и даже с уточнениями) GPT-4-Turbo выдала лишь чб-рендер одного объекта, в куда менее удобном стиле написания кода. Тут не получилось быстро добавить на сцену объектов, в то время как у обсуждаемой модели всё было очень круто организовано. — ещё по паре вопросов я заметил, что модель то ли делает паузы (особенно в начале), то ли просто зависает интернет-соединение. Возможно, под капотом есть Retrieval по интернету — и модель опирается на что-то со страниц из поисковика. Пока на Арене всего одна модель ходит в интернет (гугловский Бард), может, аугментировали GPT-4 🤷‍♂️ Что можно сказать про модель: — Вот тут ребята сделали быстрое тестирование. Модель утверждает, что её сделали OpenAI, она ведётся на те же ловушки странных-редких токенов, на которые ведутся их модели (а другие модели — нет, потому что у них другой набор токенов). Скорее всего, это не просто дообученная LLAMA-3 или какая-то другая модель. — На Arena для неё используют тот же системный промпт, что и для последней GPT-4-Turbo — пользователи сравнивали ASCII-арт, просили нарисовать единорога, и модель давала такой же ответ, как и ChatGPT. Причём именно такой же единорог есть в интернете — либо модель его нашла и срисовала, либо выучила наизусть во время тренировки, и теперь воспроизводит. А какие-то рисует лучше 🤷‍♂️ — формат ответа очень напоминает формат ответа Gemini, расписывает всё по пунктам и подпунктам. Мне код, например, писала в 5 или 6 этапов. — некоторые пользователи говорят, что им ответы модели нравятся теперь меньше( 🔫 Короче, очень интересно, чем окажется модель, и когда это вскроется. И тем более какое у неё будет место на лидерборде. Поживём — увидим! Но просто напомню, что GPT-4 была запущена как часть Bing Chat за 5 недель до официального анонса 🤡 а потом все такие «вау!» Пишите в комменты про ваш опыт использования 👇 только не выбирайте слишком сложные задачи, модель прям не настолько лучше, чтобы претендовать на звание AGI.
Show all...
👍 16🔥 4
Repost from эйай ньюз
Умельцы из твиттера сделали инфографику о том, как топ ChatBot Arena менялся за последний год. Чат-гпт все ещё держится, но ей дышать в затылок. Конкуренция идёт серьезная. Посмотрим, есть ли у ClosedAI ещё козыри в рукаве. Что такое ChatBot Arena – тут. @ai_newz
Show all...
👍 29🔥 8
Помните как год назад Уиилл Смиит ел спагетти? Была также версия с пиццей, год назад. А теперь оцените прогресс за год в ИИ-поедании пиццы. Свежая версия подъехала на реддит: https://www.reddit.com/r/aivideo/s/ACvEQqafVz Где это сделано ищите по логотипу вверху справа. Смотреть со звуком. ИИмоции у него на лице - огонь, конечно.
Show all...
👎 14👍 2
Учите программирование в любом возрасте. Я тут порылся в сохраненном и неопубликованном и нашел ответ на вопрос из поста выше. Похоже, что для того, чтобы было меньше таких заголовков из последнего поста, надо учить кожаных программированию (в любом возрасте). Есть вот такая работа: Если LLM - волшебник, то код - волшебная палочка: Обзор того, как код позволяет большим языковым моделям служить в качестве интеллектуальных агентов Вывод такой: если замешивать в обучение не только "обычные" тексты, но и большое количество кода, то модель точно становится умнее и приобретает навыки критического мышления и декомпозиции задач. Последнее очень важно для медленного "размышления" в отличие от быстрых принятия решений. Если подробнее, то: Включение кода в датасеты повышает навыки программирования у моделей, позволяя им писать код на нескольких(!) языках. Тут вроде банально, но с разными языками очень круто. Структурные ответы: генерировация контента с помощью жестко-структурированных данных, таких как HTML или таблицы. Тут тоже предсказуемо. Но глядя на то как некоторые кожаные мычат, пытаясь сформулировать простые мысли, хочется послать их на курсы бейсика. Дальше интереснее, обученные на добавленном коде LLM демонстрируют навыки сложного рассуждения и тех самых chain of thoughts. Декомпозиция и размышление. Авторы предполагают, что такие LLM легче превращаются в продвинутых интеллектуальных агентов, способных принимать решения и самостоятельно решать задачи. Я понял, что написал какой-то рекламный проеспект курсов по программированию: Учите программирование (сами и с детьми) и вы: будете умнее получите скилл критического мышления и сопоставления фактов научитесь не мычать, а внятно излагать свои мысли приобретете способность делать речерч в своей кожаной голове, а не только реагировать на тиктоки И все это просто подмешав немного кода в вашу кожаную голову. Маркетологи забирайте, дорого! Сама работат вот тут: https://openreview.net/pdf?id=8dmNOD9hbq
Show all...
👍 60🔥 4👎 2
Repost from Labrats
🔥 64👍 10
Почему такие заголовки работают для одних доменов населения и не работают для других? Я давно так не смеялся, это очень смешно:
Show all...
Это скорее новость для каналов-аггрегаторов ИТ-новостей: Эппле выбирает, чей ИИ вонзить в свои телефоны: решения OpenAI или Google Gemini... https://www.businessinsider.com/apple-negotiating-openai-google-gemini-ai-to-next-iphone-2024-4
Show all...
Apple is weighing a big decision impacting the next iPhone release: OpenAI or Google's Gemini

Apple is negotiating with both OpenAI and Google to implement AI technology in its next generation of iPhone, Bloomberg reported.

🔥 13👍 5👎 1