cookie

Мы используем файлы cookie для улучшения сервиса. Нажав кнопку «Принять все», вы соглашаетесь с использованием cookies.

avatar

AI & Coffee

AIRSE Channel 89600301070 - Call center for any questions.

Больше
Рекламные посты
393
Подписчики
Нет данных24 часа
+177 дней
+3630 дней

Загрузка данных...

Прирост подписчиков

Загрузка данных...

Фото недоступноПоказать в Telegram
Пополнение в библиотеку, принесу в августе)
Показать все...
🔥 3👍 2🥰 1👏 1💯 1
Показать все...
Студенческий телеканал UNIVER TV. Запись со стены.

Студенческие стартапы сейчас поддерживаются на самом высоком уровне, но готовы ли молодые люди стать... Смотрите полностью ВКонтакте.

🔥 2👏 2 1
Фото недоступноПоказать в Telegram
Если нет возможности/желания читать на английском, открываем в Яндекс.Браузере и просим его перевести страницу!)
Показать все...
Показать все...
AI is showing ‘very positive’ signs of eventually boosting GDP and productivity

ИИРСИ - это не только про ИИ и робототехнику. В нашем большом Университете мы отвечаем за стартапы и технологическое предпринимательство. А что может быть лучше, чем ИИ*техпред?) Читаем свежие отчеты - рекомендации Goldman Sachs и JP Morgan!
Показать все...
👍 4
Фото недоступноПоказать в Telegram
Немного крипово, но смешно) Холодильник - отсылка к посту выше, читаем!
Показать все...
👍 2
Коллаборативные роботы - прекрасная тема; их мы учим проектировать на наших направлениях робототехники)
Показать все...
DeepMind подготовил эволюционный скачок в миропонимании роботов. Найден простой и эффективный способ обучения роботов, как людей. Представьте, что к вам впервые пришел сотрудник сервиса по генеральной уборке офисов. Вы водите его по всем помещениям, показываете, что и где нужно сделать и чего делать нельзя: тут вымыть, там пропылесосить, шторы в конференц зале постирать, санузлы дезинфицировать, весь мусор собрать, но на столах ничего не трогать, прочистить бытовую технику от кофемашин до кондиционеров и т.д. и т.п. Т.е. вы просто все показываете и рассказываете. А работник, если что-то не понятно, переспрашивает и уточняет. Причем, работник толковый. И если ему, например, специально не показывали на флипчарты в переговорных, а просто в конце тура по офису добавили – оторви все исписанные листы на флипчартах и, не путая их порядок, сложи на стол перед дверью в архив, - сотрудник сам найдет все флипчарты и сделает ровно так, как ему сказано. Примерно так же, но даже без реального тура по офису, а просто засняв его на смартфон со своими комментариями, мы очень скоро будем учить роботов. Информация к размышлению. Эволюционное развитие у млекопитающих способностей осмысления окружающей среды и целенаправленной навигации передвижений заняло более 200 млн лет. На много порядков меньшее время (всего какие-то несколько сотен тысяч лет) потребовалось для следующего «эволюционного скачка» в развитии самого когнитивно одаренного млекопитающего – людей. На освоение ими языков абстрактных понятий эволюции (уже не генной, а генно-культурной) потребовалось всего лишь несколько сотен тысяч лет. У формирующегося на Земле нового небиологического (цифрового) вида эти процессы: 1. во-первых, идут с несопоставимо огромной скоростью; 2. а во-вторых, имеют обратную последовательность. Последнее оказалось возможным из-за нематериальности и бестелесности «цифровых сущностей» генеративного ИИ на основе больших языковых моделей. Сначала, они всего за пару лет эволюционировали до уровня людей в оперировании языками абстрактных понятий. А теперь, вселясь в тела роботов, они, скорее всего, за какие-то месяцы сделают второй «эволюционный скачок» – став «материализованными цифровыми сущностями». Вместе с обретением тел они обретут способности осмысления окружающей среды и навигации своих передвижений в соответствии с намерениями и целями. Представленная Google DeepMind система обучения роботов объединяет подсистему «мультимодальной навигации по инструкциям с демонстрационными турами (MINT)» и подсистему «интеграции зрения, языка и действий» Vision-Language-Action (VLA). Это объединение позволило интегрировать понимание окружающей среды и силу рассуждений на основе здравого смысла больших языковых моделей с огромным контекстным окном в 1.5 млн токенов. Проще говоря, гении из DeepMind разработали способ, с помощью которого роботы понимают и ориентируются в сложных средах, используя комбинацию слов, изображений и видеотуров. При этом роботы могут получать от людей команды на выполнение действий в сложных средах мультимодально: устно, письменно, в виде картинок (карты, планы, схемы, идеограммы и т.д.), а также на основе жестов людей (типа объяснений на пальцах) и (в следующей версии) их мимики. На представленных Google демо их система Mobility VLA на основе Gemini 1.5 Pro интеллектуально обходит GPT-4o и GPT-4V. Напр. на обращение к роботу «Хочу еще вот этого» с показом пальцем на пустую банку колы, робот с Mobility VLA сам нашел холодильник, где этого добра было много. С чем прочие модели справились плохо (одни не поняли, что надо, другие – где это взять). Картинка: архитектура Mobility VLA и сравнение с другими моделями https://telegra.ph/file/cc78760f7102b6b803bf2.jpg Статья https://arxiv.org/abs/2407.07775 Видео демо https://x.com/GoogleDeepMind/status/1811401347477991932 #роботы
Показать все...

Выберите другой тариф

Ваш текущий тарифный план позволяет посмотреть аналитику только 5 каналов. Чтобы получить больше, выберите другой план.