cookie

Мы используем файлы cookie для улучшения сервиса. Нажав кнопку «Принять все», вы соглашаетесь с использованием cookies.

avatar

Futurecollector.com | Коллекционер будущего

Новости мира высоких технологий медицины, биоинженерии, виртуальной реальности и много другого

Больше
Рекламные посты
1 530
Подписчики
Нет данных24 часа
-67 дней
-3230 дней

Загрузка данных...

Прирост подписчиков

Загрузка данных...

Великобритания разрешит использование автопилота с 2026 года После долгого периода согласований, начавшегося в 2022 году, «Закон об автоматизированных транспортных средствах» (Automated Vehicle Act) наконец получил королевское одобрение от Карла III, что означает его официальное утверждение. Министр транспорта Марк Харпер отметил, что новый закон не отменяет возможность самостоятельного вождения, но его принятие позволяет самоуправляемым автомобилям появиться на дорогах Великобритании уже в 2026 году. Это станет значительным стимулом для повышения безопасности и укрепления экономики страны. Правительство Великобритании ожидает, что внедрение автопилота позволит значительно снизить количество аварий, так как в 88% случаев ДТП происходит из-за человеческой ошибки. Закон также четко определяет, кто будет нести ответственность в случае аварии с участием самоуправляемого автомобиля. В зависимости от ситуации, это может быть страховая компания, разработчик программного обеспечения или автопроизводитель. В официальном пресс-релизе подчеркивается, что за последние пять лет в разработку технологий автопилота было инвестировано 475 млн фунтов. К 2035 году эта отрасль может принести экономике Великобритании 42 млрд фунтов годового оборота и создать 38 тысяч новых рабочих мест. Новый закон также решает важный вопрос ответственности при авариях с участием самоуправляемых автомобилей. Согласно новым правилам, ответственность за инциденты будет нести «уполномоченное лицо» — производитель, разработчик ПО или страховая компания, в зависимости от обстоятельств. Это позволит освободить водителей от ответственности за аварии, произошедшие во время работы автопилота. Система одобрения транспортных средств будет включать независимое расследование инцидентов и обязательства компаний по поддержанию безопасности своих автомобилей.
Показать все...
👍 1
Repost from Бэкдор
Возможности GPT-4o поражают — ИИ-помощник уже сегодня лишает смысла кучу профессий и упрощает нашу жизнь в десятки раз. Вот лишь часть способностей GPT-4o: • Она умеет создавать картинки с запоминанием персонажа. Теперь нагенерить качественный комикс вообще не составит труда • Поможет в подготовке к собеседованию для устройства на работу — ИИ оценит ваш внешний вид и подтянет по вопросам • Сгенерит колыбельную под вашего ребенка • Станет вашим репетитором по математике. GPT-4o не решает все за школьника, а именно обучает его • Проведёт рабочие созвоны в Zoom • Поможет с изучением других языков с помощью описания предметов • Переведет речь с двух языков в реальном времени • Сумеет в живой и острый сарказм. Скучно с нейронкой явно не будет • Помощник способен быть полноценным поводырём для незрячих и подробно описывать окружающий их мир • Две GPT-4o способны общаться друг с другом — в видосе два помощника подружились и даже спели вместе дуэтом. Перевернуть свою жизнь и прыгнуть сразу в 2077 год уже можно на сайте ChatGPT. 👍 Бэкдор
Показать все...
Repost from эйай ньюз
00:50
Видео недоступноПоказать в Telegram
Завтра Google I/O и они тизерят апдейты Gemini Так же как и в GPT-4o есть поддержка видео, но задержка звука после презентации OpenAI ощущается ужасно - больше 3 секунд против 300 миллисекунд у GPT-4o. @ai_newz
Показать все...
🔥 1
Repost from Denis Sexy IT 🤖
– Показали GPT4-4o, самую мощную новую модель: она будет доступна для платных и ДЛЯ БЕСПЛАТНЫХ пользователей ChatGPT (даже без регистрации). Модель сейчас на первом месте по тестам сравнивая с другими лучшими моделями — и в коде и в других задачах. – GPT4-4o это «Омнимодель» натренированная сразу на тексте, фото и видео — то есть та самая мультимодальность которую мы ждали. – GPT4-4o уже доступна через API и стоит в два раза дешевле, и работает в 2 раза быстрее. – Показали улучшенную версию аудио-чата через ассистента — она теперь шутит, понимает ваши эмоции; теперь ассистента можно перебивать своим голосом и сам ассистент говорит с эмоциями, и вы можете просить ее менять эти эмоции (даже петь). Переводчик с помощью GPT4-4o просто работает как в Sci-Fi кино (не путаясь и не требуя дополнительных нажатий кнопок). – Запустят десктопные приложение наконец-то, чтобы не в вебе сидеть; в десктопном приложении ей можно показывать экран целиком и просить ее подправить код, что-то рассказать и тп. То есть это ассистент, который всегда видит ваш экран. Дополнительные мелочи: — Заявленные фичи выкатят через пару недель. — Теперь через приложение можно просто ей показывать видео фид и она будет давать советы как решить какую-то задачу (не нужно фоткать ничего, работает как стрим); — Во время демки ассистент тормозил хехе. А вот что я предсказывал в посте выше и что сбылось или не сбылось: ✅ Демку ассистента как из фильма Her ✅ Полную мультимодальность: модель будет обучена сразу на видео, аудио, картинках и тексте ❓ Размер контекстного окна в 1М (мы не знаем пока) ✅ Новую архитектуру к новой модели, у которой сразу будут все фишки выше ✅ GPT4 обновление с лучшим написанием кода, или 4.5 или 4.1 (с названиями, они, конечно, не консистентны) ❌ Новую версию Dalle 3, с улучшенным фотореализмом
Показать все...
2🔥 2
Показать все...
Sam Altman (@sama) on X

not gpt-5, not a search engine, but we’ve been hard at work on some new stuff we think people will love! feels like magic to me. monday 10am PT.

🤩 1
Google DeepMind недавно представила свою новейшую разработку – модель AlphaFold 3. Она обещает существенно продвинуть научные исследования понимания заболеваний и разработку лекарств. AlphaFold 3 способна с атомной точностью предсказывать взаимодействия между малыми молекулами (лигандами), и белками, что является ключевым в этом вопросе. Некоторые компании уже используют AlphaFold 3 для решения сложных задач в области терапии. Теперь ученые могут быстро и точно предсказывать структуру сложных белковых комплексов, что ранее было возможно лишь после месяцев, а то и лет экспериментов. Это открывает новые возможности для дизайна лекарств, особенно в отношении целей, которые ранее считались недостижимыми или "немедикаментозными" (или требовалась только хирургия/лучевая терапия и др). Прорывная технология также позволяет нейронной сети генерировать ДНК и РНК с атомной точностью, выстраивая белковые цепочки, что может кардинально изменить подходы к лечению таких серьезных заболеваний, как рак. Бенчмарки показали, что эффективность AlphaFold 3 на 50% выше, чем у ее конкурентов. Интересно, что модель предоставляется ученым бесплатно, давая возможность проверить гипотезы с невероятной скоростью и точностью, что, вероятно, способствует революционным открытиям в ближайшем будущем.
Показать все...
👍 4🔥 2 1
Repost from Сиолошная
Neuralink поделились обновлением касательно их первого пациента. С момента вживления чипа почти полностью парализованному человеку прошло 100 дней, и с ним всё в порядке. Через пару недель после операции видел разные обсуждения в ТГ и на реддите, мол, на самом деле там уже ничего не работает, электроды отклеились, и даже что вместо считывания сигнала мозга на самом деле там происходит считывание движений глаз. Однако если верить посту — то всё в порядке. Noland продолжает играть в видеоигры и даже начал выигрывать своих друзей — причём не только на PC, но даже на портативной приставке Nintendo Switch. Управление можно осуществлять в любом положении — лежа, сидя, на боку и так далее — и это важно, так как метод, с которым он жил несколько лет (специальный стик во рту) сильно ограничивал свободу, но зато увеличивал требование к близким людям вокруг. «Это дало мне возможность снова делать что-то самостоятельно, не нуждаясь в семье в любое время дня и ночи» — говорит Noland. У пациента регулярно (почти каждый рабочий день) проходят сессии работы с инженерами Neuralink, а в выходные он занимается своими делами — суммарно даже больше, чем в будни! Бывают дни, когда Noland пользуется нейроинтерфейсом по 12 часов в день, а за неделю вообще натекло 69 часов (в среднем по 10 в день). Однако на графике активности действительно видно спад в первой половине марта. Действительно, компания признаёт, что через некоторое время после операции несколько «нитей» (всего их 64, суммарно хранят 1024 электрода) потеряли контакт и перестали считывать сигналы. Но и инженеры ведь не спят — и в ответ на это они пошаманили с алгоритмами, допилили механизм преобразования сигнала в движения мыши, и теперь всё на уровне даже выше прежнего. Чтобы это оценивать, пациент играет в игру — на огромной сетке то и дело загораются маленькие квадратики, и нужно привести к ним мышку и нажать. Уже во время первой сессии почти сразу после операции у Noland'а был показатель 4.6 BPS (bits-per-second, не знаю, почему bits) — и это был мировой рекорд для нейроинтерфейсов! ...а сейчас этот показатель достигает уже 8, а Noland задаётся целью догнать людей, полноценно оперирующих мышкой (у них этот показатель равен 10). Но в целом можно сказать, что управление мышкой очень точное и быстрое. А в будущем кроме этого способа ввода добавятся и другие — инженеры планируют распространить функциональность Link на управление роборуками, инвалидными колясками и другими технологиями, которые могут помочь повысить независимость людей, живущих с параличом нижних конечностей.
Показать все...
👍 4 2
возможности «связывания» сценариев сновидений разных людей. В основе лежат активные контактные линзы могут выводить изображения даже при закрытых глазах, усиливая и направляя сновидения в соответствии с выбранными сценариями. Распишу эту часть более подробно: Инновационные линзы с дополненной реальностью будут способны воспринимать сигналы мозга и на основе этих данных создавать визуальные образы, даже когда глаза закрыты. Как, когда во время сна вы слышите какие-либо звуки в реальном мире и они подстраиваются под сюжет сна, так и тщательно отрегулированные (чтобы не разбудить) изображения на контактных линзах будут позволять задавать визуал сноведений. Технология выбора содержания снов будет реализована через систему, которая позволит людям перед сном выбирать сценарии из "меню" сновидений. Это даст возможность контролировать и направлять содержание сновидений, делая их более предсказуемыми и ориентированными на желания сновидца. С помощью активных контактных линз и возможностей дополненной реальности, образы и сценарии сновидений могут быть напрямую проецированы на сетчатку глаза, усиливая и направляя визуальные аспекты сна. Связывание сновидений разных людей предполагает обмен сигналами мозга между участниками, которые одновременно находятся в состоянии сна. То есть будут связанные беспроводным путем нейрокомпьютерные интерфейсы, способные собирать и анализировать сигналы мозга каждого участника и на основе полученной информации подстраивать визуальное и сенсорное содержание сновидения таким образом, чтобы их сновидения пересекались и взаимодействовали. Это позволит участникам не только видеть схожие сны, но и взаимодействовать друг с другом в рамках «общего» сновидения. Такая технология может открыть новые возможности для глубокого психологического и эмоционального взаимодействия между людьми, позволяя им делиться исключительно личными и интимными переживаниями на более глубоком уровне. Однако это также поднимает вопросы о конфиденциальности и этике таких взаимодействий, которые будут нуждаться в тщательном регулировании и контроле. #IanPearson
Показать все...
👍 3