cookie

نحن نستخدم ملفات تعريف الارتباط لتحسين تجربة التصفح الخاصة بك. بالنقر على "قبول الكل"، أنت توافق على استخدام ملفات تعريف الارتباط.

avatar

AGIRussia.news

Новости русскоязычного сообщества разработчиков AGI

إظهار المزيد
مشاركات الإعلانات
636
المشتركون
+224 ساعات
+77 أيام
+1330 أيام

جاري تحميل البيانات...

معدل نمو المشترك

جاري تحميل البيانات...

Между проблесками AGI и стохастическими попугаями Известный журналист MIT Technology Review Уилл Дуглас Хивен написал довольно длинный и очень серьезный текст о важнейшем вопросе современности - что же такое в конце концов AI. По его мнению, вопрос не праздный, а очень серьезный и имеет значение для всех нас. В ходе своего расследования, которое судя по проведенным интервью, шло с 2020 года, он побеседовал почти со всеми. Среди персонажей этого длинного текста Джеффри Хинтон, Илья Суцкевер, Тимнит Гебру, Гэри Маркус, Эмили Бендер, Себастьян Бубек и многие другие известные и не очень люди. Надо сказать, что Уилл пошел копать не только в ширь, но и в глубь. Его расследование дошло даже до Дартмутского семинара 1956 года, на котором все, что мы сейчас делаем с перемножением матрицы на вектор получило свое название Artificial Intelligence. Этот журналист имеет хорошие связи и ряд людей, непосредственно связанных с этим семинаром, дали ему много ценной информации. AI значит много вещей. Технология, которая почти не отделима от магии, может нести серьезные риски для общества и человека. Чем AI не является - уже понятно: это не решение всех проблем человечества. Но это идея, видение и исполнение желаний. Будьте осторожнее со своими желаниями - они могут исполниться. Вникайте в точки зрения других исследователей. Русский перевод вскоре.
إظهار الكل...
Без названия 89.pdf25.01 MB
Русский перевод
إظهار الكل...
MIT_Technology_Review_What_is_AI_финальная_версия_1.pdf3.35 MB
OpenAI представила шкалу оценки развития AI Она состоит из пяти уровней и предназначена для отслеживания прогресса в создании AGI —искусственного интеллекта, способного превзойти естественный. Уровни развития AI по версии OpenAI: 1. Чат-боты. AI способен общаться на естественном языке; 2. Рассуждающие. Решение задач на уровне образованного человека; 3. Агенты. Система, способная совершать действия; 4. Инноваторы. AI может помогать изобретать; 5. Организации. AI может выполнить работу целой организации. OpenAI полагает, что её технология уверенно прошла первый уровень и приближается ко второму. Компания ранее определяла AGI как «высокоавтономную систему, превосходящую людей в большинстве экономически значимых задач». По оценкам главы OpenAI Сэма Альтмана, такой уровень развития AI будет достигнут в ближайшие 10 лет. #AI #OpenAI #AGI https://www.bloomberg.com/news/articles/2024-07-11/openai-sets-levels-to-track-progress-toward-superintelligent-ai?srnd=technology-vp
إظهار الكل...
OpenAI Develops System to Track Progress Toward Human-Level AI

The company believes its technology is approaching the second level of five on the path to artificial general intelligence.

На материале огромного корпуса научных статей по 72-м областям создан "MMSci" – мультимодальный мультидисциплинарный датасет для оценки соответствия PhD-уровню уровня понимания большой языковой моделью исследовательских статей. Даже самые лучшие современные модели класса GPT-4V/o испытывают большие трудности при работе с этим датасетом, впрочем, можно вспомнить, что недавно технический директор OpenAI Мира Мурати сказала, что тренируемая сейчас GPT-5 (стоимостью, вероятно, более миллиарда $) как раз будет соответствовать уже PhD-уровню. Весь этот сюжет принципиально, критически важен, т.к. рано или поздно самым передовым моделям (вероятно, "стомиллиардным" по стоимости) будут "скормлены" все данные всего мира во всех модальностях, они достигнут около-AGI- уровня и станут в один ряд с самыми выдающимися умами человечества во всех областях. А вот чтобы двинуться ещё дальше – уже к ASI-уровню – понадобятся уже многие триллионы долларов, электроэнергия специально созданных для этого ядерных реакторов и "искусственный ученый" – т.е. ИИ, который, подобно человеку-ученому, проводит теоретические и экспериментальные исследования в разных научных областях. Другого пути дальнейшего прироста научного знания нет – только стандартный научный путь теоретической работы и эксперимента, просто теперь это всё будет автоматизировано и будет осуществляться множеством искусственных агентов около-AGI-уровня. Будем надеяться, что к этому моменту – а до него осталось около 10-15-20 лет (консервативная оценка сверху – 2045 год) – стараниями групп Ильи Суцкевера, Яна Лейке и др. "супералаймент" будет разработан и грядущий процесс передачи интеллектуальной эстафеты от людей к созданному исследованиями сообщества "искусственных AGI-учёных" ASI пройдёт не по худшему сценарию. https://arxiv.org/abs/2407.04903
إظهار الكل...
MMSci: A Multimodal Multi-Discipline Dataset for PhD-Level...

The rapid advancement of Large Language Models (LLMs) and Large Multimodal Models (LMMs) has heightened the demand for AI-based scientific assistants capable of understanding scientific articles...

Repost from эйай ньюз
Апдейт по SB 1047 - Калифорнийскому законопроекту для регуляции ИИ TLDR: прямую угрозу маленьким разработчикам пока убрали, но большой опенсорс это не спасёт. И всё ещё законопроект возлагает ответственность на автора модели, а не на пользователя. Авторы SB-1047, о котором я писал в мае внесли ряд правок. Тогда законопроект был настолько плохо написан, что против него протестовали даже Anthropic. Я прочитал поправки, вот суть: ➖ Убрали пункт где под ограничения подпадали модели "схожие по возможностям к моделям подпадающим под закон". Это был самый адовый пункт, который в лучшем случае заморозил бы опенсорс на уровне 2024 года, а в худшем мог бы запретить практически любую тренировку. ➖ Регулировать собираются модели которые тренировались на 1e26 flops и более чем ста миллионах долларов компьюта. То есть сейчас, когда 1e26 стоит $150-300m, под ограничение подпадают модели с 1e26 flops. Через год-два, когда компьют подешевеет, будут подпадать только модели которые стоят дороже ста миллионов долларов. ➖ Улучшили ситуацию с ответственностью разрабов моделей за файнтюны - теперь модели, которые тюнили на более чем 3e25 flops считаются новыми моделями, создатели оригинала не ответственны за их действия. ➖ Все суммы в законопроекте теперь указаны в долларах 2025 года и будут поправляться на инфляцию. ➖ Добавили кучу возможных штрафных санкций, например штраф на сумму до 10% стоимости компьюта использованного для тренировки модели. ➖ Созданный орган контроля сможет менять определения моделей подпадающих под контроль каждый год без необходимости проводить новый закон. То есть, теоретически, 1 января 2027 года регулятор имеет право запретить всё что ему вздумается. Ни разу не пространство для regulatory capture, да-да. ➖ Разработчики моделей теперь будут должны каждый год, начиная с 2028 проходить независимый аудит на соответствие регуляциям. Стало местами лучше, но законопроект всё ещё лажа: 🟥 Идея ответственности разработчиков моделей за использование моделей крайне плохая и опасная. По такой логике можно заявить что Боинг ответственен за события 11 сентября 2001 года. 🟥 Определение "Critical harm", которое в законе даёт право регулятору накладывать штрафные санкции, вплоть до удаления модели, очень жёсткое: хакерская атака на 500 миллионов долларов это не такой редкий случай, а в законе не указано насколько сильно модель должна ей поспособствовать. 🟥 Давать регулятору право решать что всё таки является его зоной контроля это очень плохая идея. Самое смешное тут то, что авторы законопроекта проводили ряд публичных встреч, где говорили что хотят сделать менее драконовский закон чем European AI Act. Такое ощущение что даже не пытались. @ai_newz
إظهار الكل...
Repost from N/a
إظهار الكل...
Гендиректор Google DeepMind: уровень IQ нынешних ИИ-моделей ниже, чем у домашнего кота

Многие компании в сфере ИИ заявляют о достижениях в разработке больших языковых моделей, однако по мнению гендиректора Google DeepMind Демиса Хассабиса (Demis Hassabis), их уровень IQ оставляет желать лучшего.

OpenAI назвала 5 уровней достижения общего ИИ: от чат-ботов до ИИ-изобретателей https://m.hightech.plus/2024/07/12/openai-nazvala-5-urovnei-dostizheniya-obshego-ii-ot-chat-botov-do-ii-izobretatelei
إظهار الكل...
OpenAI назвала 5 уровней достижения общего ИИ: от чат-ботов до ИИ-изобретателей

OpenAI <a href="

https://qz.com/openai-five-level-system-human-intelligence-ai-1851588122"

target="_blank">представила</a> пятиуровневую систему оценки прогресса в области общего искусственного интеллекта (AGI). Эта система ранжирует искусственный интеллект от нынешних чат-ботов до ИИ, способного выполнять объем работы целой организации и помогать в разработке новых технологий. Сама компания считает, что находится на первой ступени, но близка ко второй, где ИИ способны к базовому решению задач на уровне человека с докторской степенью.

Photo unavailableShow in Telegram
Палантир - на переднем фронте борьбы лечения галлюцинаций LLM онтологиями https://blog.palantir.com/reducing-hallucinations-with-the-ontology-in-palantir-aip-288552477383
إظهار الكل...
Доклад Е.Е.Витяева об информационной теории сознания https://aij.ru/archive?albumId=2&videoId=307
إظهار الكل...
Архив записей AI Journey

Список альбомов и видео AI Journey за прошедшие года

اختر خطة مختلفة

تسمح خطتك الحالية بتحليلات لما لا يزيد عن 5 قنوات. للحصول على المزيد، يُرجى اختيار خطة مختلفة.