cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Малоизвестное интересное

Авторский канал Сергея Карелова (о чём и зачем - см. здесь https://theoryandpractice.ru/posts/18365-zachem-sozdavat-telegram-kanal-o-redkikh-issledovaniyakh) Пишите на [email protected] и @karelovs

Show more
Advertising posts
62 675Subscribers
+924 hours
+247 days
+25830 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Кто там? Сверхразум. Для обучения ИИ теперь можно обойтись без людей. Трудно переоценить прорыв, достигнутый китайцами в Tencent AI Lab. Без преувеличения можно сказать, что настал «момент AlphaGo Zero» для LLM. И это значит, что AGI уже совсем близко - практически за дверью. Первый настоящий сверхразум был создан в 2017 компанией DeepMind. Это ИИ-система AlphaGo Zero, достигшая сверхчеловеческого (недостижимого для людей) класса игры в шахматы, играя сама с собой. Ключевым фактором успеха было то, что при обучении AlphaGo Zero не использовались наборы данных, полученные от экспертов-людей. Именно игра сама с собой без какого-либо участия людей и позволила ИИ-системе больше не быть ограниченной пределами человеческих знаний. И она вышла за эти пределы, оставив человечество далеко позади. Если это произошло еще в 2017, почему же мы не говорим, что сверхразум уже достигнут? Да потому, что AlphaGo Zero – это специализированный разум, достигший сверхчеловеческого уровня лишь играя в шахматы (а потом в Го и еще кое в чем). А настоящий сверхразум (в современном понимании) должен уметь если не все, то очень многое. Появившиеся 2 года назад большие языковые модели (LLM), в этом смысле, куда ближе к сверхразуму. Они могут очень-очень много: писать романы и картины, сдавать экзамены и анализировать научные гипотезы, общаться с людьми практически на равных … НО! Превосходить людей в чем либо, кроме бесконечного (по нашим меркам) объема знаний, LLM пока не могут. И потому они пока далеко не сверхразум (ведь не считает же мы сверхразумом Библиотеку Ленина, даже если к ней приделан автоматизированный поиск в ее фондах). Причина, мешающая LLM стать сверхразумом, в том, что, обучаясь на человеческих данных, они ограничены пределами человеческих знаний. И вот прорыв – исследователи Tencent AI Lab предложили и опробовали новый способ обучения LLM. Он называется «Самостоятельная состязательная языковая игра» [1]. Его суть в том, что обучение модели идет без полученных от людей данных. Вместо этого, две копии LLM соревнуются между собой, играя в языковую игру под названием «Состязательное табу», придуманную китайцами для обучения ИИ еще в 2019 [2]. Первые экспериментальные результаты впечатляют (см. график). • Копии LLM, играя между собой, с каждой новой серией игр, выходят на все более высокий уровень игры в «Состязательное табу». • На графике показаны результаты игр против GPT-4 двух не самых сильных и существенно меньших моделей после 1й, 2й и 3й серии их обучения на играх самих с собой. Как видите, класс существенно растет. И кто знает, что будет, когда число самообучающих серий станет не 3, а 3 тысячи? График: https://telegra.ph/file/9adb0d03a3a0d78e6d4f8.jpg 1 https://arxiv.org/abs/2404.10642 2 https://arxiv.org/abs/1911.01622 #LLM
Show all...

👍 76🤯 42🤔 23😱 1
Низкофоновый контент через год будет дороже антиквариата. Дегенеративное заражение ноофосферы идет быстрее закона Мура. Низкофоновая сталь (также известная как довоенная или доатомная сталь) — это любая сталь, произведенная до взрыва первых ядерных бомб в 1940 — 50-х годах. До первых ядерных испытаний никто и не предполагал, что в результате порождаемого ими относительно невысокого радиоактивного заражения, на Земле возникнет дефицит низкофоновой стали (нужной для изготовления детекторов ионизирующих частиц — счётчик Гейгера, приборы для космоса и т.д.). Но оказалось, что уже после первых ядерных взрывов, чуть ли не единственным источником низкофоновой стали оказался подъем затонувших за последние полвека кораблей. И ничего не оставалось, как начать подъем с морского дна одиночных кораблей и целых эскадр (типа Имперского флота Германии, затопленные в Скапа-Флоу в 1919). Но и этого способа добычи низкофоновой стали особенно на долго не хватило бы. И ситуацию спасло лишь запрещение атмосферных ядерных испытаний, после чего радиационный фон со временем снизился до уровня, близкого к естественному. С началом испытаний генеративного ИИ в 2022 г также никто не заморачивался в плане рисков «дегенеративного заражения» продуктами этих испытаний. • Речь здесь идет о заражении не атмосферы, а ноосферы (что не легче). • Перспектива загрязнения последней продуктами творчества генеративного ИИ может иметь весьма пагубные и далеко идущие последствия. Первые результаты заражения спустя 1.5 года после начала испытаний генеративного ИИ поражают свои масштабом. Похоже, что заражено уже все. И никто не предполагал столь высокой степени заражения. Ибо не принималось в расчет наличие мультипликатора — заражения от уже зараженного контента (о чем вчера поведал миру Ник Сен-Пьер (креативный директор и неофициальный представитель Midjourney). Продолжить чтение и узнать детали можно здесь (кстати, будет повод подписаться, ибо основной контент моего канала начинает плавную миграцию на Patreon и Boosty):https://boosty.to/theworldisnoteasy/posts/6a352243-b697-4519-badd-d367a0b91998https://www.patreon.com/posts/nizkofonovyi-god-102639674 #LLM
Show all...
Низкофоновый контент через год будет дороже антиквариата - Малоизвестное интересное

Дегенеративное заражение ноофосферы идет быстрее закона Мура

👍 126😱 51🤔 33🤯 12
Без $100 ярдов в ИИ теперь делать нечего. В гонке ИИ-лидеров могут выиграть лишь большие батальоны. Только за последние недели было объявлено, что по $100 ярдов инвестируют в железо для ИИ Microsoft, Intel, SoftBank и MGX (новый инвестфонд в Абу-Даби). А на этой неделе, наконец, сказал свое слово и Google. Причем было сказано не просто о вступлении в ИИ-гонку ценой в $100 ярдов, а о намерении ее выиграть, собрав еще бОльшие батальоны - инвестировав больше $100 ярдов. Гендир Google DeepMind Демис Хассабис сказал [1]: • «… я думаю, что со временем мы инвестируем больше» • «Alphabet Inc. обладает превосходной вычислительной мощностью по сравнению с конкурентами, включая Microsoft» • «… у Google было и остается больше всего компьютеров» Так что в «железе» Google не собирается уступать никому, а в алгоритмах, - тем более. Что тут же получило подтверждение в опубликованном Google алгоритме «Бесконечного внимания», позволяющего трансформерным LLM на «железе» c ограниченной производительностью и размером памяти эффективно обрабатывать контекст бесконечного размера. Такое масштабирование может в ближней перспективе дать ИИ возможность стать воистину всезнающим. Т.е. способным анализировать и обобщать контекст просто немеряного размера. Так и видится кейс, когда на вход модели подадут все накопленные человечеством знания, например, по физике и попросят ее сказать, чего в этих знаниях не хватает. 1 https://finance.yahoo.com/news/deepmind-ceo-says-google-spend-023548598.html 2 https://arxiv.org/abs/2404.07143 #LLM
Show all...
DeepMind CEO Says Google Will Spend More Than $100 Billion on AI

(Bloomberg) -- The chief of Google’s AI business said that over time the company will spend more than $100 billion developing artificial intelligence technology — another sign of the investing arms race that has gripped Silicon Valley. Most Read from BloombergBeyond the Ivies: Surprise Winners in the List of Colleges With the Highest ROIChina Tells Iran Cooperation Will Last After Attack on IsraelS&P 500 Futures Steady After Selloff Rattles Globe: Markets WrapIran’s Attack on Israel Sparks Race

👍 112🤔 44😱 11🤯 6
Эффект Большого Языкового Менталиста. ChatGPT работает, как суперумелый экстрасенс, гадалка и медиум. Коллеги и читатели шлют мне все новые примеры сногсшибательных диалогов с GPT, Cloude и Gemini. После их прочтения трудно не уверовать в наличие у последних версий ИИ-чатботов человекоподобного разума и даже какой-то нечеловеческой формы сознания. Так ли это или всего лишь следствие нового типа наших собственных когнитивных искажений, порождаемых в нашем разуме ИИ-чатботами на основе LLM, - точно пока никто сказать не может. Более того. Полагаю, что оба варианта могут оказаться верными. Но, как говорится, поживем увидим. А пока весьма рекомендую моим читателям новую книгу Балдура Бьярнасона (независимого исландского исследователя и консультанта) «Иллюзия интеллекта», в которой автор детально препарирует и обосновывает вторую из вышеназванных версий: иллюзия интеллекта – это результат нового типа наших собственных когнитивных искажений. Что особенно важно в обосновании этой версии, - автор демонстрирует механизм рождения в нашем разуме этого нового типа когнитивных искажений. В основе этого механизма: • Старый как мир психологический прием – т.н. «холодное чтение». Он уже не первую тысячу лет используется всевозможными менталистами, экстрасенсами, гадалками, медиумами и иллюзионистами, чтобы создавать видимость будто они знают о человеке гораздо больше, чем есть на самом деле (погуглите сами и вам понравится)). • Так же прошедший проверку временем манипуляционный «Эффект Барнума-Форера» (эффект субъективного подтверждения), объясняющий неистребимую популярность гороскопов, хиромантии, карт Таро и т.д. Это когнитивное искажение заставляет нас верить - в умно звучащие и допускающие многозначную трактовку расплывчатые формулировки, - когда они будто бы специально сформулированы и нюансированы именно под нас, - и мы слышим их от, якобы, авторитетных специалистов (также рекомендую погуглить, ибо весьма интересно и малоизвестно)). Получив доступ ко всем знаниям человечества, большие языковые модели (LLM) запросто освоили и «холодное чтение», и «Эффект Барнума-Форера». Желая угодить нам в ходе диалога, ИИ-чатбот использует ту же технику, что и экстрасенсы с менталистами - они максимизируют наше впечатление (!), будто дают чрезвычайно конкретные ответы. А на самом деле, эти ответы – не что иное, как: • статистические общения гигантского корпуса текстов, • структурированные моделью по одной лишь ей известным характеристикам, • сформулированные так, чтобы максимизировать действие «холодного чтения» и «эффекта Барнума-Форера», • и, наконец, филигранно подстроенные под конкретного индивида, с которым модель говорит. В результате, чем длиннее и содержательней наш диалог с моделью, тем сильнее наше впечатление достоверности и убедительности того, что мы слышим от «умного, проницательного, много знающего о нас и тонко нас понимающего» собеседника. Все это детально расписано в книге «Иллюзия интеллекта» [1]. Авторское резюме основной идеи книги можно (и нужно)) прочесть здесь [2]. 0 картинка поста https://telegra.ph/file/bcec38d2d22ca82b30f65.jpg 1 https://www.amazon.com/Intelligence-Illusion-practical-business-Generative-ebook/dp/B0CSKHSPWW 2 https://www.baldurbjarnason.com/2023/links-july-4/ #LLM #ИллюзияИнтеллекта
Show all...

👍 179🤔 43😱 3🤯 2
Пора покупать кепку с тремя козырьками: впереди – чтоб солнце не слепило, и по бокам – чтобы лапшу на уши не вешали. ИИ-агент притворился человеком, самостоятельно решив подзаработать. Эксперимент профессора Итана Моллика показывает, насколько мы близки к гибридному социуму из двух принципиально разных типов высокоинтеллектуальных агентов: люди и ИИ-агенты (ИИ-системы, наделенные способностями планировать и использовать инструменты, что позволяет им действовать автономно). Всего год назад мир содрогнулся, узнав, что GPT-4 по своей «воле» мошеннически обходит установленные людьми запреты, обманом подряжая для этого людей [1]. • Для многих, даже продвинутых в области ИИ спецов, было откровением, как сногсшибательно быстро ИИ-чатботы совершенствуются в вопросах агентности. Поражала именно эта скорость. Ибо сам факт, что ИИ-системы потихоньку (без особой шумихи в медиа) переключают на себя все больше и больше областей проявления агентности людей, не признавать уже как-то совсем странно [2, 3]. • Отличительное свойство агентности людей – частое использование лжи, как инструмента достижения целей агента. Так и поступил год назад GPT-4, навешав лапши на уши людям, притворяясь инвалидом по зрению, чтоб они за него решали CAPTCHA. Год спустя, эксперимент профессора Моллика продемонстрировал новое откровение для человечества. Теперь нематериальный ИИ-агент, казалось бы, не обладающий личностью со всеми вытекающими (потребности, мотивация, воля …): • стал навешивать лапшу на уши людям не для достижения поставленной людьми перед ним цели, а самостийно – типа, почему бы не подхалтурить, если есть возможность; • при этом ИИ-агента не смущало, что он не может выполнить всего, что обещает (просто их-а ограничений своей текущей версии); видимо, научившись у людей, ИИ-агент знал, что срубить денег можно и за частично выполненную работу, и тут главное –количество навешиваемой клиенту на уши лапши. Эксперимент был прост [4]. Проф. Моллик попросил агента Devin AI зайти на Reddit и предложить создавать сайты для людей. В течение следующих нескольких часов он сделал это, решив множество проблем по пути, в том числе навигацию по сложным социальным правилам, связанным с публикациями на форуме Reddit (см. верхнюю часть приложенного рис., где Devin составляет план и задает профессору вопросы, спокойно выполняя работу). В нижней части рис. показано объявление, что опубликовал ИИ-агент. Как видите, он притворился человеком и по собственной инициативе решил взимать плату за свою работу. Агент уже начал отвечать на некоторые заявки на работу и придумывать, как их выполнить, когда проф. Моллик удалил публикацию, убоявшись, что ИИ-агент на самом деле начнет выставлять счета людям (что выглядело весьма вероятным). Мораль этого моего поста двояка. 1. Проф. Моллик несомненно прав: лавинообразно нарастающая агентность, в дополнение ко все новым сверхчеловеческим способностям – это 2 ключевых тренда, определяющих развитие ИИ на ближайшую пару лет. 2. Как мне это видится: проведенный эксперимент ставит под сомнение утверждение, будто нематериальный ИИ-агент без личности – всего лишь инструмент в руках людей, не способный следовать собственной мотивации и, в частности, перенятой ИИ-агентом от людей (а она у людей сильно разная: от «не убий» до «бей своих, чужие бояться будут»). #ИИ-агенты 0 картинка поста https://telegra.ph/file/d1b537ca02b5639855cf4.jpg 1 https://t.me/theworldisnoteasy/1684 2 https://www.youtube.com/watch?v=WCrELN_QrBU 3 https://www.youtube.com/watch?v=0sRiU5mRiuY 4 https://www.oneusefulthing.org/p/what-just-happened-what-is-happening
Show all...

👍 143🤯 56🤔 40😱 15
Когнитивная эволюция Homo sapiens шла не по Дарвину, а по Каплану: кардинальное переосмыслению того, что делает интеллект Homo sapiens уникальным. Наш интеллект зависит лишь от масштаба информационных способностей, а не от одного или нескольких специальных адаптивных «когнитивных гаджетов» (символическое мышление, использование инструментов, решение проблем, понимание социальных ситуаций ...), сформировавшихся в результате эволюции. Все эти «когнитивные гаджеты» очень важны для развития интеллекта. Но все они работают на общей базе – масштабируемые информационные способности людей (внимание, память, обучение). Новая работа проф. психологии и неврологии Калифорнийского университета в Беркли Стива Пиантадоси и проф. психологии Университета Карнеги-Меллона Джессики Кантлон потенциально революционизирует наше понимание когнитивной эволюции и природы человеческого интеллекта, оказывая влияние на широкий спектр областей - от образования до ИИ [1]. Трансформация понимания факторов когнитивной эволюции человека пока что осуществлена авторами на теоретической основе, используя сочетание сравнительных, эволюционных и вычислительных данных, а не прямых экспериментальных доказательств. Но когда (и если) экспериментальные доказательства этой новой революционной теории будут получены, изменится научное понимание когнитивной эволюции как таковой (людей, машин, инопланетян …) Поскольку это будет означать, что единственным универсальным движком когнитивной эволюции могут быть законы масштабирования (как это было в 2020 доказано для нейронных языковых моделей Джаредом Капланом и Со в работе «Scaling Laws for Neural Language Models» [2]). А если так, то и Сэм Альтман может оказаться прав в том, что за $100 млрд ИИ можно масштабировать до человеческого уровня и сверх того. 1 https://www.nature.com/articles/s44159-024-00283-3 2 https://arxiv.org/abs/2001.08361 #Разум #ЭволюцияЧеловека #БудущееHomo #LLM
Show all...
Uniquely human intelligence arose from expanded information capacity

Nature Reviews Psychology - Theories of how human cognition differs from that of non-human animals often posit domain-specific advantages. In this Perspective, Cantlon and Piantadosi posit that...

🤔 99👍 75😱 10🤯 2
Высыпайтесь! Ибо потери от недосыпа не восполнить. Новые исследования раскрыли тайну, чем же конкретно мы платим за недосып. Все знают избитую истину – недосып вреден. Но чем конкретно он вреден, - до недавнего времени точно не знал никто. Два новых исследования установили, что же конкретно мы теряем от недосыпа, и почему просто отоспаться потом не поможет. Если совсем коротко – мы платим за недосып бардаком в собственной памяти – её замусориванием и примитивизацией новых воспоминаний. В статьях по приводимым ниже ссылкам вы найдете и популярное и сложно-научное описание с объяснением обоих эффектов. Я же просто приведу простую метафору, примерно описывающую, что и как происходит в мозге. Представьте, что все ваши приобретения (покупки, подарки, находки), до того, как стать вам доступны для пользования, помещаются в ваш личный огромный спецхран. Пока вы спите, хранитель спецхрана должен сделать 2 вещи: 1) выкинуть из спецхрана всякий ненужный хлам (от коробок и упаковки до мусора) 2) описать новые поступления (что это, зачем, с чем связано …) и разместить их среди великого множества шкафов и полок в соответствии с этим описанием. В случае недосыпа хранитель просто не успевает ни с 1м, ни со 2м, и получается следующее: 1) Хранилище заполняется не выброшенным вовремя хламом. 2) Наиболее сложные и дорогие из ваших приобретений (новый айфон и ноутбук, ключи от нового авто и огромная коробка нового домашнего кинотеатра) описываются плохо – не полно, примитивно, с неверными связями. В следствие этого, все сложное из приобретенного помещается совсем не туда, куда нужно (а из-за описанного в п.1, еще и заваливается сверху хламом). В итоге, привет вашим новым самым сложным и дорогим приобретениям. Ибо многими из них вам так и не будет суждено воспользоваться. Причина бардака в памяти от недосыпа похожа на эту метафору. Процесс загрузки в память информации об окружающем мире и нас самих не прекращается ни на секунду, пока вы в сознании и не спите. Всю информацию, поступающую от органов чувств, мозг “сваливает на склад” эпизодической памяти, чтобы потом заняться ее тщательной разборкой и структуризацией связей. В ходе такой разборки решаются 2 важнейших задачи: 1) Из мозга вымываются отходы, такие как метаболические отходы и ненужные белки, накапливание которых в мозге приводит к нейродегенерации. 2) Всю сохраняемую информацию нужно структурировать, выстраивая ассоциативную структуру событий реальной жизни, обычно состоящей из великого множества элементов с различными ассоциациями. Так рождается сплетение ткани сложных многоэлементных событий и их ассоциаций, составляющих наш повседневный опыт. Все элементы взаимосвязываются в нашем мозгу, образуя сеть ассоциаций, которая позволяет нам вспомнить все событие по одному сигналу. Ну а если недосып, - обе задачи недовыполняются. Итог же плачевен и невосполним. Ибо если из-за недосыпа этой ночью «новый смартфон уже складировали в ящик со старой обувью и сверху набросали упаковок от макарон», разборка в следующую ночь (когда вы, наконец, выспитесь) уже вряд ли поможет. Так что, призову вас снова – высыпайтесь! Два исследования: 1) Популярно https://medicine.wustl.edu/news/neurons-help-flush-waste-out-of-brain-during-sleep/?utm_placement=newsletter Подробно https://www.nature.com/articles/s41586-024-07108-6 2) Популярно https://www.psypost.org/psychology-sleep-the-unsung-hero-of-complex-memory-consolidation/ Подробно https://www.pnas.org/doi/10.1073/pnas.2314423121 #память #сон
Show all...
Neurons help flush waste out of brain during sleep | Washington University School of Medicine in St. Louis

Findings could lead to new approaches for Alzheimer’s, other neurological conditions

👍 424😱 54🤔 20🤯 11
Началось обрушение фронта обороны от социохагинга. Рушится уже 3я линия обороны, а 4ю еще не построили. Защититься от алгоритмического социохакинга, опираясь на имеющиеся у нас знания, люди не могут уже не первый год (алгоритмы знают куда больше с момента появления поисковиков). В 2023 (когда началось массовое использование ИИ-чатботов больших языковых моделей) треснула и 2я линия обороны – наши языковые и логико-аналитические способности (алгоритмы и здесь все чаще оказываются сильнее). 3я линия обороны – наши эмоции, считалась непреодолимой для социохакинга алгоритмов из-за ее чисто человеческой природы. Но и она продержалась не долго. В апреле 2024, с прорыва 3й линии, по сути, начинается обрушение фронта обороны людей от социохагинга. Последствия чего будут весьма прискорбны. Пять лет назад, в большом интервью Татьяне Гуровой я подробно рассказал, как алгоритмы ИИ могут (и довольно скоро) «хакнуть человечество» [1]. За 5 прошедших после этого интервью лет социохакинг сильно продвинулся (насколько, - легко понять, прочтя в конце этого поста хотя бы заголовки некоторых из моих публикации с тэгом #социохакинг). Сегодня в задаче убедить собеседника в чем-либо алгоритмы ИИ абсолютно превосходят людей [2]. • Даже ничего не зная о собеседнике, GPT-4 на 20%+ успешней в переубеждении людей • Когда же GPT-4 располагает хотя бы минимальной информацией о людях (пол, возраст и т.д.) он способен переубеждать собеседников на 80%+ эффективней, чем люди. Однако, проигрывая в объеме знаний и логике, люди могли положиться на последнюю свою линию обороны от социохакинга алгоритмов – свои эмоции. Как я говорил в интервью 5 лет назад, - ИИ-система «раскладывает аргументы человека на составляющие и для каждой составляющей строит схему антиубеждения, подкладывая под нее колоссальный корпус документальных и экспериментальных данных. Но, не обладая эмоциями, она не в состоянии убедить». Увы, с выходом новой ИИ-системы, обладающей разговорным эмоциональным интеллектом Empathic Voice Interface (EVI) [3], линия эмоциональной обороны от социохакинга рушится. Эмпатический голосовой интерфейс EVI (в основе которого эмпатическая модель eLLM) понимает человеческие эмоции и реагирует на них. eLLM объединяет генерацию языка с анализом эмоциональных выражений, что позволяет EVI создавать ответы, учитывающие чувства пользователей и создавать ответы, оптимизированные под эти чувства. EVI выходит за рамки чисто языковых разговорных ботов, анализируя голосовые модуляции, такие как тон, ритм и тембр, чтобы интерпретировать эмоциональное выражение голоса [4] Это позволяет EVI: • при анализе речи людей, обращаться к их самой глубинной эмоциональной сигнальной системе, лежащей под интеллектом, разумом и даже под подсознанием • генерировать ответы, которые не только разумны, но и эмоционально окрашены • контролировать ход беседы путем прерываний и своих ответных реакций, определяя, когда человек хотел бы вмешаться или когда он заканчивает свою мысль Попробуйте сами [5] Я залип на неделю. Насколько точно EVI узнает эмоции, сказать не берусь. Но точно узнает и умеет этим пользоваться. картинка https://bit.ly/4akhWxl 1 https://bit.ly/3VNyCsC 2 https://arxiv.org/abs/2403.14380 3 https://bit.ly/443cFrP 4 https://bit.ly/3xmYPEn 5 https://demo.hume.ai/ Интересные посты про #социохакинг • Супероткрытие: научились создавать алгоритмические копии любых социальных групп https://t.me/theworldisnoteasy/1585 • Создается технология суперобмана. Это 2й глобальный ИИ риск человечества, вдобавок к технологии суперубийства https://t.me/theworldisnoteasy/1640 • Социохакинг скоро превратит избирателей в кентаврических ботов https://t.me/theworldisnoteasy/1708 • Получено уже 3е подтверждение сверхчеловеческого превосходства ИИ в убеждении людей https://t.me/theworldisnoteasy/1754 • Новое супероткрытие: научились создавать алгоритмические копии граждан любой страны https://t.me/theworldisnoteasy/1761 • В Твиттере уже воюют целые «ЧВК социохакинга» https://t.me/theworldisnoteasy/1783
Show all...

👍 110😱 44🤔 27🤯 19
Как спустить в унитаз $100 млрд денег конкурентов, выпустив ИИ из-под контроля. Ассиметричный ответ Google DeepMind амбициозному плану тандема Microsoft - OpenAI. • Мировые СМИ бурлят обсуждениями мощнейшего PR-хода, предпринятого Microsoft и OpenAI, об их совместном намерении за $100 млрд построить сверхбольшой ЦОД и сверхмощный ИИ-суперкомпьютер для обучения сверхумных моделей ИИ. • Ответ на это со стороны Google DeepMind абсолютно ассиметричен: обесценить $100 млрд инвестиции конкурентов, создав распределенную по всему миру систему обучения сверхумных моделей ИИ (типа “торрента” для обучения моделей). Сделать это Google DeepMind собирается на основе DIstributed PAth COmposition (DiPaCo) - это метод масштабирования размера нейронных сетей в географически распределенных вычислительных объектах. Долгосрочная цель проекта DiPaCo — обучать нейросети по всему миру, используя все доступные вычислительные ресурсы. Для этого необходимо пересмотреть существующие архитектуры, чтобы ограничить накладные расходы на связь, ограничение памяти и скорость вывода. Для распараллеливания процессов распределённой обработки данных по всему миру алгоритм уже разработан – это DiLoCo, Но этого мало, ибо еще нужен алгоритм распараллеливания процессов обучения моделей. Им и стал DiPaCo. Детали того, как это работает, можно прочесть в этой работе Google DeepMind [1]. А на пальцах в 6ти картинках это объясняет ведущий автор проекта Артур Дуйяр [2]. Складывается интереснейшая ситуация. ✔️ Конкуренция между Google DeepMind и тандемом Microsoft – OpenAI заставляет первых разрушить монополию «ИИ гигантов» на создание сверхумных моделей. ✔️ Но параллельно с этим произойдет обрушение всех планов правительств (США, ЕС, Китая) контролировать развитие ИИ путем контроля за крупнейшими центрами обучения моделей (с вычислительной мощностью 10^25 - 10^26 FLOPs) Картинка https://telegra.ph/file/e26dea7978ecfbebe2241.jpg 1 https://arxiv.org/abs/2403.10616 2 https://twitter.com/Ar_Douillard/status/1770085357482078713 #LLM #Вызовы21века #РискиИИ
Show all...

👍 166🤔 43🤯 25😱 6
Инфорги, киборги, роботы, AGI и когнитивная эволюция Подкаст «Ноосфера» #070 Когнитивная эволюция, приведшая человечество в 21 веке к превращающей людей в инфоргов кардинальной трансформации многотысячелетней культуры Homo sapiens, - это тема, о которой мною уже написано и наговорено немало. Однако глубокое и детальное погружение в эту тему в форме полуторачасового диалога у меня случилось лишь теперь – в беседе с Сергеем Суховым, автором самого крупного TG-канала о прикладной философии @stoicstrategy и личного журнала @sukhovjournal. https://www.youtube.com/watch?v=PzTH1KY6nSY Тем моим читателям, кто захочет погрузиться в эту тему еще подробней, доступны лежащих в открытом доступе посты моего канала «Малоизвестное интересное» с тэгами: #АлгокогнитивнаяКультура #Инфорги #Разум #БудущееHomo #ЭволюцияЧеловека #УскорениеЭволюции Но поскольку этих постов несколько сотен (чего хватило бы на несколько книг 😊), здесь моя рекомендация по подборке ключевых постов, достаточной для более полного погружения в тему. https://telegra.ph/Inforgi-kiborgi-roboty-AGI-i-kognitivnaya-ehvolyuciya-04-02 Ну а тем, кто хотел бы и дальше читать мои лонгриды на эту тему, имеет смысл подписаться на «Малоизвестное интересное» на платформах Patreon и Boosty (где по этой теме скоро будут опубликованы новые интереснейшие лонгриды: про связь больших языковых моделей и инопланетных цивилизаций, про 1-ю мировую технорелигиозную войну пяти новых технорелигий и т.д.) https://www.patreon.com/theworldisnoteasy https://boosty.to/theworldisnoteasy
Show all...
Сергей Карелов: Инфорги, киборги, роботы, AGI и когнитивная эволюция | Подкаст «Ноосфера» #070

#ИИ #Инфорги #эволюция Гость подкаста: Сергей Карелов - независимый исследователь и консультант, кандидат наук, экс топ-менеджер IBM, Silicon Graphics (SGI), Cray Research, сооснователь Witology, ведущий авторского канала «Малоизвестное интересное» (Theworldisnoteasy) на Telegram, Boosty, Patreon, Medium и Дзен. Ресурсы Сергея:

https://t.me/theworldisnoteasy

https://boosty.to/theworldisnoteasy

https://www.patreon.com/theworldisnoteasy

https://sergey-57776.medium.com

https://dzen.ru/the_world_is_not_easy

👍 133🤯 6