cookie

نحن نستخدم ملفات تعريف الارتباط لتحسين تجربة التصفح الخاصة بك. بالنقر على "قبول الكل"، أنت توافق على استخدام ملفات تعريف الارتباط.

avatar

Малоизвестное интересное

Авторский канал Сергея Карелова о самом важном на фронтирах науки и технологий, что кардинально изменит людей и общество в ближайшие 10 лет. Рекламы, ВП и т.п. в канале нет. Пишите на @karelovs

إظهار المزيد
مشاركات الإعلانات
62 674
المشتركون
-924 ساعات
-17 أيام
+5530 أيام
توزيع وقت النشر

جاري تحميل البيانات...

Find out who reads your channel

This graph will show you who besides your subscribers reads your channel and learn about other sources of traffic.
Views Sources
تحليل النشر
المشاركاتالمشاهدات
الأسهم
ديناميات المشاهدات
01
ГБ и ИИ, как основы управления страной и миром. Правда и реальность с китайской спецификой. Так озаглавлен опубликованный позавчера супер-полезный отчет International Cyber Policy Centre ASPI с подзаголовком «строительные блоки системы пропаганды, обеспечивающей информационные кампании КПК» [1]. Знания подавляющего большинства внешних наблюдателей за Китаем (вкл. всевозможных отраслевых экспертов и китаистов) об устройстве, долгосрочной стратегии и текущем статусе национальных информационных кампаний Китая, в большинстве случаев отстают от реальности на десятилетие. Два ярких примера, занимающие в западных медиа 80+% внимания - Великий китайский файервол и Система социального рейтинга, - это китайские проекты даже не вчерашнего, а позавчерашнего дня. И серьезно обсуждать их сегодня в контексте китайской специфики управления властями Китая (КПК) внутренней и внешней политикой, просто неуместно и даже смешно. О том, какова сегодняшняя правда и реальность в этих двух главнейших для властей любой страны областях управления, рассказывает новый отчет. Назову лишь три ключевых момента, Первый – главенствующая роль ГБ (см. на рисунке вверху) 1. Важнейшим системным фактором для сохранения власти КПК является (согласно Закону от 2015) обеспечение государственной безопасности. ГБ с китайской спецификой – это комплексный подход, рассматривающий - безопасность народа как цель, - политическую безопасность как основу, - экономическую безопасность как фундамент, - военную, культурную и социальную безопасность как гарантии ГБ. 2. Согласно ГБ с китайской спецификой, содействие международной безопасности - это всего лишь зависимый фактор для поддержания внутренней госбезопасности Китая во всех сферах. 3. Обеспечение ГБ является обязанностью не только государственных институтов и военных, но и всех граждан, предприятий, общественных организаций и других структур китайского общества. Таким образом, поддержание государственной безопасности представлено как всеобщая ответственность в Китае. Второй: стратегическая задача (как говорил Чапаев «в мировом масштабе») такова: Сохранять полный контроль КПК над информационной средой внутри Китая, одновременно работая над расширением своего влияния за рубежом, чтобы изменить глобальную информационную экосистему. Это включает в себя не только контроль над медиа и коммуникационными платформами за пределами Китая (!), но и обеспечение того, чтобы китайские технологии и компании стали основополагающими для будущего обмена информацией и данными во всем мире. Третий ключевой момент – важнейшая роль в реализации стратегической задачи отводится алгоритмам. - Алгоритмам анализа Больших данных, получаемых из всех онлайн источников, вкл. игровые платформы, иммерсивные технологии и Метавселенную - Алгоритмам, определяющим взаимодействие Генеративного ИИ с реальностью. Как это работает на примерах конкретных компаний, платформ, алгоритмов и т.д. можно увидеть на разработанном ASPI интерактивном визуализаторе [2] – скриншот на рисунке внизу. Так что, читайте отчет, и сами увидите, что Великий китайский файервол и Система социального рейтинга – это вчерашний день. Сейчас стратегический план КПК куда круче: идеологически и технологически совершенней. N.B. По данным ASPI, технологическое опережение США в ИИ в большинстве направлений ИИ компьютинга, коммуникаций и квантовых технологий уже в прошлом (см. диаграммы [3 и 4]) Предыдущая важная работа ASPI [5] #Китай Картинка поста https://telegra.ph/file/73832d60905fd04168a14.jpg 1 https://www.aspi.org.au/report/truth-and-reality-chinese-characteristics 2 https://chinainfoblocks.aspi.org.au/theme/artificial-intelligence/ 3 https://www.techtrends.bg/wp-content/uploads/2023/03/ASPI-AIandComm.jpg 4 https://www.techtrends.bg/wp-content/uploads/2023/03/ASPI-Quantum.png 5 https://t.me/theworldisnoteasy/941
4 24968Loading...
02
Истинно верный ответ на вопрос 2+2? можно дать лишь бросанием игральных костей. Третье фундаментальное математико-философское откровение о том, как мы познаем физический мир. Первые два фундаментальные откровения были просто крышесносными. 1. В 2018 Дэвид Волперт (полагаю, самый крутой физик 20-21 веков, работающий на стыке математического и философского осмысления мира и возможностей его познания) доказал существование предела знаний — т.е. всего и всегда никто и никогда узнать не сможет. Это доказательство не зависит от конкретных теорий физической реальности (квантовая механика, теория относительность и т.п.) и является для всех них универсальным (подробней см. мой пост «Математически доказано — Бог един, а знание не бесконечно» [1]) 2. В 2022 Волперт доказал, что не только Бог не всеведущ, но и Сверхинтеллект, ибо (даже если его удастся когда-либо создать) у него также будет граница знаний, которую он, в принципе, не сможет преодолеть (подробней см. мой пост «Если даже Бог не всеведущ, — где границы знаний AGI» [2]) Третье откровение под стать двум первым. Это совместная работа Дэвида Волперта и Дэвида Кинни (философ и ученый-когнитивист) «Стохастическая модель математики и естественных наук» [3]. В ней авторы предлагают единую вероятностную структуру для описания математики, физической вселенной и описания того, как люди рассуждают о том и другом. Предложенный авторами фреймворк - стохастические математические системы (SMS), - описывает математику и естественные науки, как стохастические (вероятностные) системы, что позволяет ответить на такие вопросы: • Чем отличается мышление математика от мышления ученого? Математики имеют дело с абстрактными понятиями, а ученые изучают реальный мир. Это значит, что у них разные способы рассуждения и проверки своих идей. • Как наше местоположение во Вселенной влияет на наши знания? Мы всегда ограничены тем, что можем наблюдать и измерять. Можем ли мы быть уверены в своих знаниях, если не видим полной картины? • Есть ли предел тому, что мы можем узнать? Некоторые известные теоремы говорят о том, что в математике существуют вопросы, на которые невозможно дать однозначный ответ. Может ли это быть правдой и для науки? • Как ученые могут лучше учиться на основе данных? Существуют ограничения на то, насколько хорошо компьютерные программы могут обучаться без предварительных знаний. Можно ли разработать более эффективные методы обучения для ученых? • Как ученые с разными взглядами могут прийти к согласию? Даже если ученые не согласны во всем, у них могут быть общие цели, и крайне важно понять, как им найти общий язык и сотрудничать. • Как избежать ложных умозаключений? Иногда мы делаем поспешные выводы на основе неполной информации. Как научиться мыслить более логично и критически? Также SMS предлагает решение проблемы логического всеведения в эпистемической логике, где предполагается, что если рассуждающий знает какое-либо предложение A и знает, что A влечет B, то он знает и B. SMS позволяет избежать этой проблемы, предлагая определение "знания", не требующее логического всеведения. Если новая теория верна, то Эйнштейн ошибался, и Бог играет-таки в кости. Картинка поста https://telegra.ph/file/57ef2e0ecc9e9d5dcadcc.jpg 1 https://t.me/theworldisnoteasy/473 2 https://t.me/theworldisnoteasy/1574 3 за пейволом https://link.springer.com/article/10.1007/s10701-024-00755-9 открытый доступ https://arxiv.org/pdf/2209.00543 #МатЛогика #Реальность #AGI
9 489214Loading...
03
На Земле появился первый Софон. Это еще не решение «проблемы трех тел», но сильный ход в решении «проблемы инакомыслия и инакодействия» людей. Речь действительно о Софоне из романа Лю Цысиня и его экранизации Netflix «Проблема трех тел». И этот Софон действительно создан. • Но не трисолярианами (или Сан-Ти, - как их для простоты произношения назвали в сериале), а землянами - китайскими исследователями из Чжэцзянского университета и Ant Group. • И создан этот Софон не для торможения и блокировки технологического прогресса землян (как в романе и сериале), а для торможения и блокирования инфокоммуникационных возможностей землян в областях, неугодных для сильных мира сего - властям и китам инфобигтеха. Логика этого техно-прорыва, совместно профинансированного Национальным фондом естественных наук Китая (учрежден в 1986 под юрисдикцией Госсовета Китая, а с 2018 под управлением Миннауки и технологий) и Ant Group (дочка китайского конгломерата Alibaba Group, в 2021 взятая под контроль Народным банком Китая), мне видится таковой. ✔️ Возможности получения людьми информации (от новостей до знаний) из Интернета все более зависят от ИИ больших языковых моделей (LLM). Они становятся для землян глобальным инфофильтром, определяющим, 1) что человек может узнать и 2) чему может научиться из Интернета. ✔️ Поэтому становится ключевым вопрос, как взять под контроль и 1ое, и 2ое, исключив возможности использования людьми LLM для неэтичных, незаконных, небезопасных и любых иных нежелательных (с точки зрения разработчиков LLM) целей. Эта задача одинаково актуальна и важна для столь разных акторов, как Компартия Китая и Microsoft, Белый дом и Google, Amazon и OpenAI – короче, для властей всех мастей и китов инфобигтеха. Не смотря на важность, решить эту задачу пока не удавалось. И вот прорыв. Китайские исследователи придумали, как открывать для массового использования LLM, которые «плохим людям» будет сложно настроить для злоупотреблений. Китайцы придумали новый подход к обучению без точной настройки (он назван SOPHON), использующий специальную технику, которая «предотвращает точную настройку предварительно обученной модели для нежелательных задач, сохраняя при этом ее производительность при выполнении исходной задачи». SOPHON использует «два ключевых модуля оптимизации: 1) обычное усиление обучения в исходной области и 2) подавление тонкой настройки в ограниченной области. Модуль подавления тонкой настройки предназначен для снижения производительности тонкой настройки в ограниченной области в моделируемых процессах тонкой настройки». В итоге, когда «плохие люди» захотят с помощью тонкой настройки переучить мощную законопослушную модель на что-то плохое (напр., выдавать нежелательный контент - от генерации порно до анализа событий на площади Тяньаньмэнь в 1989, от нескрепоносных советов до инструкции по взрвотехнике …) производительность модели катастрофически снизится (оставаясь высокой в дозволенных областях). Нужно понимать, что этот 1й Софон еще дорабатывать и дорабатывать (проверять на сочетаниях разнообразных типов данных, масштабировании моделей и т.д.). Но очевидное-невероятное уже налицо. ✔️ Т.к. возможности «нежелательных» применений неисчислимы, застраховать модель от всех их просто не реально. ✔️ Но можно просто пойти путем отсекания «нежелательного», с точки зрения владельцев платформ. И тогда вполне может получиться идеальный Большой брат: безликий и всевидящий цензор, не ошибающийся в предвосхищении правонарушений Х-комнадзор, умело манипулирующий сетевой агентурой спецслужбист и т.д. #LLM #БольшойБрат Картинка поста https://telegra.ph/file/d4b8b35cd3e11921eedbf.jpg Статья https://arxiv.org/abs/2404.12699v1
13 220301Loading...
04
Отдавая сокровенное Чего мы лишаемся, передавая все больше своих решений алгоритмам — Когда новостную повестку и мой круг чтения стали формировать алгоритмы, я оставался безмолвным. Причин волноваться не было, - ведь так было проще и быстрее получать информацию. — Когда алгоритмы соцсетей стали формировать мне круг друзей и модерировать наше общение, я не стал протестовать. Ибо это расширяло мои социальные связи. — Когда алгоритмы стали решать, что мне покупать, какие фильмы смотреть и какую музыку слушать, меня это устраивало. Я же мог, при желании, отвергать рекомендации алгоритмов. — Когда алгоритмы стали для меня незаменимы в ситуациях любого выбора - от места работы и отдыха до романтических партнеров, - я был даже рад. Поскольку их рекомендации нравились мне и экономили кучу времени на поиск и оценку вариантов. — Когда же алгоритмы стали решать вопросы жизни и смерти людей (сначала на войне, а потом и в мирной жизни) — мне было уже бессмысленно протестовать, т.к. здесь от меня вообще ничего не зависело. Аллюзия к высказыванию, приписываемому немецкому пастору Нимёллеру, которым он пытался объяснить бездействие немецких интеллектуалов и их непротивление нацистам. - - - Если эта аллюзия кажется вам надуманной, ошибочной или даже ложной и не имеющей никакого отношения к реальности — к вам, вашим детям, друзьям и знакомым, — читать дальше нет смысла. В противном случае, почитайте дальше. И я смею вас уверить, что вы не зря потратите время, узнав немало интересной, малоизвестной и, главное, полезной информации, которую сложно найти в других источниках на просторах Интернета. Два устойчивых и широко распространенных мифа гласят: 1. Технологии испокон века меняли жизнь людей и всего общества, и потому происходящий сейчас рост влияния алгоритмов на жизнь людей (от рекомендательных систем и социальных сетей до генеративного ИИ) – просто очередной (хотя и весьма важный) этап технологического прогресса 2. Никаких кардинальных изменений в самих людях и обществе в целом рост влияния алгоритмов не несет, ибо они не меняют генетику людей и складывавшуюся веками и тысячелетиями культуру (по крайней мере, пока алгоритмы не обладают субъектностью в сочетании со сверхразумом) Доказательств того, что оба утверждения – мифы, в реальной жизни уже предостаточно. Вот одно из них. Последствия (экспериментально фиксируемые и нарастающие) того, что в вопросах выбора пары (от романтических до семейных отношений), люди все более полагаются на некие (скрытые ото всех) алгоритмы рекомендаций, перенимающие на себя функции чисто человеческих «андроритмов» (встроенных в нас эволюцией и постоянно перенастраиваемых культурной средой биологических и психологических механизмов оценки и поиска предпочтений при принятии решений). Подробней о том, • какие негативные для людей последствия этого уже наблюдаются • почему это происходит без какой-либо «злой воли» или «умысла» со стороны алгоритмов, а лишь, как следствие оптимизации алгоритмами заложенных в них разработчиками целевых функций • почему такие функции, закладываемые в большинство типов интеллектуальных ИИ-систем, входят в прямое противоречие с тем, что нужно людям • и, наконец, почему подобное, казалось бы, довольно невинное и полезное вовлечение алгоритмов в процессы принятия наших решений может иметь воистину тектонические последствия - смена формата социума, новый тип культуры и новая форма эволюции разума – читайте дальше на Boosty и Patreon P.S. С подпиской не обессудьте. Подобные лонгриды пишутся не за час. И чтобы продолжать, хотелось бы знать, скольким из 140К подписчиков на 4 платформах эти тексты реально интересны и ценны. P.P.S. Читатели, ограниченные в средствах на подписку, могут написать мне, и я пришлю текст. Картинка https://telegra.ph/file/076699bb92a29baad580b.jpg Лонгрид https://bit.ly/3WrdVTE https://bit.ly/4a49tx6 #АналитикаБольшихДанных #ВыборПартнера #Психология #АлгокогнитивнаяКультура
17 246189Loading...
05
Свершилось – китайский генеративный ИИ превзошёл GPT-4 Turbo. В Китае грозят США - вот так мы вас и размажем в гонке за первенство в ИИ. Как писал Марк Андрессон: «Основной угрозой для США является не выход ИИ из-под контроля, если его не регулировать, а продвижение Китая в сфере ИИ». И вот эта угроза материализовалась в превосходство новой модели SenseNova 5.0 от китайской компании SenseTime над «чемпионом мира» среди больших языковых моделей генеративного ИИ GPT-4 Turbo от американской компании OpenAI. На рисунке сверху показано превосходство китайской модели в 12 тестовых номинациях из 14 над GPT-4 Turbo и в 13 номинациях над Llama3-70B. Это полный разгром. Модель SenseNova 5.0 – это гибрид трансформерных и рекуррентных нейронных сетей: • обученная на наборе данных объемом более 10 ТB токенов, охватывающем большой объем синтетических данных; • способная поддерживать во время рассуждений до 200 тыс. токенов контекстного окна. Чтобы наглядно продемонстрировать мускулатуру своей модели, SenseTime разыграла видеопредставление соревнования своей модели и GPT-4 Turbo в формате видеоигры «Король бойцов» (на рис. внизу). Поначалу зеленый игрок GPT-4 имел небольшое преимущество, но очень скоро был жестоко избит красным игроком SenseChat-lite. Неявным, но очевидным посылом видеопрезентации этого боя было послание Бигтеху США – вот так мы вас и размажем в гонке за первенство в ИИ. Картинка https://telegra.ph/file/ccf5d5c020de3aa9c3324.jpg На китайском https://zhidx.com/p/421866.html На английском https://interestingengineering.com/innovation/china-sensenova-outperforms-gpt-4 Видеоразбор https://www.youtube.com/watch?v=NJXGIMa45sQ #LLM #Китай
23 150341Loading...
06
Для «бездушных машин» компетентность важнее сочувствия и справедливости. Первый эксперимент показывающий, что у иного разума своя система ценностей. В мире проводятся десятки исследований способов выравнивания ценностей ИИ с ценностями людей. Все они имеют принципиальный недостаток – антропоцентричность. Т.е. исследования исходят из того, что свои системы ценностей есть лишь у людей, и задача заключается лишь в том, как настроить большие языковые модели ИИ (LLM), чтобы они следовали нашим ценностям. Альтернативная гипотеза исходит из того, что LLM: 1) обладают иным типом разума, чем люди; 2) обладают собственными системами ценностей, сильно отличными от наших и немного отличающимися у разных моделей (как и у разных людей). В пользу п.1 говорит работа исследователей Department of Brain and Cognitive Sciences, MIT «Диссоциация языка и мышления в больших языковых моделях» [1]. В работе показано, что • человеческий разум основан на формальной лингвистической компетентности (правильное использование языковых форм) и функциональной языковой компетентности (использование языка для достижения целей в мире). И это два разных когнитивных навыка; • Существующие LLM обладают лишь 1ым навыком - лингвистическая компетентность, - и не обладают 2ым. Отсутствие функциональной языковой компетентности, усугубляемое отсутствием жизненного опыта, здравого смысла и модели мира лишает LLM того, что у людей мы называем базой знаний индивида. Ее отсутствие, согласно лексической гипотезе (Lexical Hypothesis) у LLM компенсируется вероятностными моделями баз знаний, используя которые LLM неизбежно приобретают «психологические черты» (образно выражаясь) из обширных текстов, на которых они обучаются (как это описано в работе «Психометрия искусственного интеллекта: оценка психологических профилей больших языковых моделей с помощью психометрических опросов» [2]. В результате у LLM формируются собственные уникальные системы ценностей (см. п. 2 выше). Что из себя представляют эти уникальные системы ценностей различных LLM, описано в препринте только опубликованном Microsoft Research Asia (MSRA) и Университетом Цинхуа под названием «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов» [3]. Впервые в истории исследований систем ценностей LLM, авторы отошли от антропоцентристского подхода. Вместо этого, опираясь на лексическую гипотезу, исследователи использовали генеративный подход, факторный анализ и семантическую кластеризацию для синтеза таксономии ценностей LLM практически с нуля (без опоры на человеческие данные). Что в итоге позволило выявить уникальные системы ценностей 30+ LLM. Это исследование наглядно показывает, что иной разум формирует для себя и иные системы ценностей. Детали интересующиеся читатели могут прочесть в препринте. Мне же остается закончить тем, с чего начал. Для всех (30+) LLM: 1 высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность; 2 социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) у LLM уходят на 2й план; 3 и лишь в 3ю очередь идут ценности приверженности этическим нормам: справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность. Конечно, и среди нас есть люди с подобной системой ценностей. Но мне кажется, что именно так представляли фантасты прошлого века «ценности бездушных машин». Увы, но так и получилось. N.B. Чем больше модель, тем она «бездушней» Картинка https://telegra.ph/file/3a6faa593360768a73143.jpg 1 https://doi.org/10.1016/j.tics.2024.01.011 2 https://doi.org/10.1177/17456916231214460 3 https://arxiv.org/pdf/2404.12744 #LLM #Ценности
26 357374Loading...
07
Кто там? Сверхразум. Для обучения ИИ теперь можно обойтись без людей. Трудно переоценить прорыв, достигнутый китайцами в Tencent AI Lab. Без преувеличения можно сказать, что настал «момент AlphaGo Zero» для LLM. И это значит, что AGI уже совсем близко - практически за дверью. Первый настоящий сверхразум был создан в 2017 компанией DeepMind. Это ИИ-система AlphaGo Zero, достигшая сверхчеловеческого (недостижимого для людей) класса игры в шахматы, играя сама с собой. Ключевым фактором успеха было то, что при обучении AlphaGo Zero не использовались наборы данных, полученные от экспертов-людей. Именно игра сама с собой без какого-либо участия людей и позволила ИИ-системе больше не быть ограниченной пределами человеческих знаний. И она вышла за эти пределы, оставив человечество далеко позади. Если это произошло еще в 2017, почему же мы не говорим, что сверхразум уже достигнут? Да потому, что AlphaGo Zero – это специализированный разум, достигший сверхчеловеческого уровня лишь играя в шахматы (а потом в Го и еще кое в чем). А настоящий сверхразум (в современном понимании) должен уметь если не все, то очень многое. Появившиеся 2 года назад большие языковые модели (LLM), в этом смысле, куда ближе к сверхразуму. Они могут очень-очень много: писать романы и картины, сдавать экзамены и анализировать научные гипотезы, общаться с людьми практически на равных … НО! Превосходить людей в чем либо, кроме бесконечного (по нашим меркам) объема знаний, LLM пока не могут. И потому они пока далеко не сверхразум (ведь не считает же мы сверхразумом Библиотеку Ленина, даже если к ней приделан автоматизированный поиск в ее фондах). Причина, мешающая LLM стать сверхразумом, в том, что, обучаясь на человеческих данных, они ограничены пределами человеческих знаний. И вот прорыв – исследователи Tencent AI Lab предложили и опробовали новый способ обучения LLM. Он называется «Самостоятельная состязательная языковая игра» [1]. Его суть в том, что обучение модели идет без полученных от людей данных. Вместо этого, две копии LLM соревнуются между собой, играя в языковую игру под названием «Состязательное табу», придуманную китайцами для обучения ИИ еще в 2019 [2]. Первые экспериментальные результаты впечатляют (см. график). • Копии LLM, играя между собой, с каждой новой серией игр, выходят на все более высокий уровень игры в «Состязательное табу». • На графике показаны результаты игр против GPT-4 двух не самых сильных и существенно меньших моделей после 1й, 2й и 3й серии их обучения на играх самих с собой. Как видите, класс существенно растет. И кто знает, что будет, когда число самообучающих серий станет не 3, а 3 тысячи? График: https://telegra.ph/file/9adb0d03a3a0d78e6d4f8.jpg 1 https://arxiv.org/abs/2404.10642 2 https://arxiv.org/abs/1911.01622 #LLM
20 904289Loading...
08
Низкофоновый контент через год будет дороже антиквариата. Дегенеративное заражение ноофосферы идет быстрее закона Мура. Низкофоновая сталь (также известная как довоенная или доатомная сталь) — это любая сталь, произведенная до взрыва первых ядерных бомб в 1940 — 50-х годах. До первых ядерных испытаний никто и не предполагал, что в результате порождаемого ими относительно невысокого радиоактивного заражения, на Земле возникнет дефицит низкофоновой стали (нужной для изготовления детекторов ионизирующих частиц — счётчик Гейгера, приборы для космоса и т.д.). Но оказалось, что уже после первых ядерных взрывов, чуть ли не единственным источником низкофоновой стали оказался подъем затонувших за последние полвека кораблей. И ничего не оставалось, как начать подъем с морского дна одиночных кораблей и целых эскадр (типа Имперского флота Германии, затопленные в Скапа-Флоу в 1919). Но и этого способа добычи низкофоновой стали особенно на долго не хватило бы. И ситуацию спасло лишь запрещение атмосферных ядерных испытаний, после чего радиационный фон со временем снизился до уровня, близкого к естественному. С началом испытаний генеративного ИИ в 2022 г также никто не заморачивался в плане рисков «дегенеративного заражения» продуктами этих испытаний. • Речь здесь идет о заражении не атмосферы, а ноосферы (что не легче). • Перспектива загрязнения последней продуктами творчества генеративного ИИ может иметь весьма пагубные и далеко идущие последствия. Первые результаты заражения спустя 1.5 года после начала испытаний генеративного ИИ поражают свои масштабом. Похоже, что заражено уже все. И никто не предполагал столь высокой степени заражения. Ибо не принималось в расчет наличие мультипликатора — заражения от уже зараженного контента (о чем вчера поведал миру Ник Сен-Пьер (креативный директор и неофициальный представитель Midjourney). Продолжить чтение и узнать детали можно здесь (кстати, будет повод подписаться, ибо основной контент моего канала начинает плавную миграцию на Patreon и Boosty): • https://boosty.to/theworldisnoteasy/posts/6a352243-b697-4519-badd-d367a0b91998 • https://www.patreon.com/posts/nizkofonovyi-god-102639674 #LLM
22 120405Loading...
09
Без $100 ярдов в ИИ теперь делать нечего. В гонке ИИ-лидеров могут выиграть лишь большие батальоны. Только за последние недели было объявлено, что по $100 ярдов инвестируют в железо для ИИ Microsoft, Intel, SoftBank и MGX (новый инвестфонд в Абу-Даби). А на этой неделе, наконец, сказал свое слово и Google. Причем было сказано не просто о вступлении в ИИ-гонку ценой в $100 ярдов, а о намерении ее выиграть, собрав еще бОльшие батальоны - инвестировав больше $100 ярдов. Гендир Google DeepMind Демис Хассабис сказал [1]: • «… я думаю, что со временем мы инвестируем больше» • «Alphabet Inc. обладает превосходной вычислительной мощностью по сравнению с конкурентами, включая Microsoft» • «… у Google было и остается больше всего компьютеров» Так что в «железе» Google не собирается уступать никому, а в алгоритмах, - тем более. Что тут же получило подтверждение в опубликованном Google алгоритме «Бесконечного внимания», позволяющего трансформерным LLM на «железе» c ограниченной производительностью и размером памяти эффективно обрабатывать контекст бесконечного размера. Такое масштабирование может в ближней перспективе дать ИИ возможность стать воистину всезнающим. Т.е. способным анализировать и обобщать контекст просто немеряного размера. Так и видится кейс, когда на вход модели подадут все накопленные человечеством знания, например, по физике и попросят ее сказать, чего в этих знаниях не хватает. 1 https://finance.yahoo.com/news/deepmind-ceo-says-google-spend-023548598.html 2 https://arxiv.org/abs/2404.07143 #LLM
34 820283Loading...
10
Эффект Большого Языкового Менталиста. ChatGPT работает, как суперумелый экстрасенс, гадалка и медиум. Коллеги и читатели шлют мне все новые примеры сногсшибательных диалогов с GPT, Cloude и Gemini. После их прочтения трудно не уверовать в наличие у последних версий ИИ-чатботов человекоподобного разума и даже какой-то нечеловеческой формы сознания. Так ли это или всего лишь следствие нового типа наших собственных когнитивных искажений, порождаемых в нашем разуме ИИ-чатботами на основе LLM, - точно пока никто сказать не может. Более того. Полагаю, что оба варианта могут оказаться верными. Но, как говорится, поживем увидим. А пока весьма рекомендую моим читателям новую книгу Балдура Бьярнасона (независимого исландского исследователя и консультанта) «Иллюзия интеллекта», в которой автор детально препарирует и обосновывает вторую из вышеназванных версий: иллюзия интеллекта – это результат нового типа наших собственных когнитивных искажений. Что особенно важно в обосновании этой версии, - автор демонстрирует механизм рождения в нашем разуме этого нового типа когнитивных искажений. В основе этого механизма: • Старый как мир психологический прием – т.н. «холодное чтение». Он уже не первую тысячу лет используется всевозможными менталистами, экстрасенсами, гадалками, медиумами и иллюзионистами, чтобы создавать видимость будто они знают о человеке гораздо больше, чем есть на самом деле (погуглите сами и вам понравится)). • Так же прошедший проверку временем манипуляционный «Эффект Барнума-Форера» (эффект субъективного подтверждения), объясняющий неистребимую популярность гороскопов, хиромантии, карт Таро и т.д. Это когнитивное искажение заставляет нас верить - в умно звучащие и допускающие многозначную трактовку расплывчатые формулировки, - когда они будто бы специально сформулированы и нюансированы именно под нас, - и мы слышим их от, якобы, авторитетных специалистов (также рекомендую погуглить, ибо весьма интересно и малоизвестно)). Получив доступ ко всем знаниям человечества, большие языковые модели (LLM) запросто освоили и «холодное чтение», и «Эффект Барнума-Форера». Желая угодить нам в ходе диалога, ИИ-чатбот использует ту же технику, что и экстрасенсы с менталистами - они максимизируют наше впечатление (!), будто дают чрезвычайно конкретные ответы. А на самом деле, эти ответы – не что иное, как: • статистические общения гигантского корпуса текстов, • структурированные моделью по одной лишь ей известным характеристикам, • сформулированные так, чтобы максимизировать действие «холодного чтения» и «эффекта Барнума-Форера», • и, наконец, филигранно подстроенные под конкретного индивида, с которым модель говорит. В результате, чем длиннее и содержательней наш диалог с моделью, тем сильнее наше впечатление достоверности и убедительности того, что мы слышим от «умного, проницательного, много знающего о нас и тонко нас понимающего» собеседника. Все это детально расписано в книге «Иллюзия интеллекта» [1]. Авторское резюме основной идеи книги можно (и нужно)) прочесть здесь [2]. 0 картинка поста https://telegra.ph/file/bcec38d2d22ca82b30f65.jpg 1 https://www.amazon.com/Intelligence-Illusion-practical-business-Generative-ebook/dp/B0CSKHSPWW 2 https://www.baldurbjarnason.com/2023/links-july-4/ #LLM #ИллюзияИнтеллекта
21 140406Loading...
ГБ и ИИ, как основы управления страной и миром. Правда и реальность с китайской спецификой. Так озаглавлен опубликованный позавчера супер-полезный отчет International Cyber Policy Centre ASPI с подзаголовком «строительные блоки системы пропаганды, обеспечивающей информационные кампании КПК» [1]. Знания подавляющего большинства внешних наблюдателей за Китаем (вкл. всевозможных отраслевых экспертов и китаистов) об устройстве, долгосрочной стратегии и текущем статусе национальных информационных кампаний Китая, в большинстве случаев отстают от реальности на десятилетие. Два ярких примера, занимающие в западных медиа 80+% внимания - Великий китайский файервол и Система социального рейтинга, - это китайские проекты даже не вчерашнего, а позавчерашнего дня. И серьезно обсуждать их сегодня в контексте китайской специфики управления властями Китая (КПК) внутренней и внешней политикой, просто неуместно и даже смешно. О том, какова сегодняшняя правда и реальность в этих двух главнейших для властей любой страны областях управления, рассказывает новый отчет. Назову лишь три ключевых момента, Первый – главенствующая роль ГБ (см. на рисунке вверху) 1. Важнейшим системным фактором для сохранения власти КПК является (согласно Закону от 2015) обеспечение государственной безопасности. ГБ с китайской спецификой – это комплексный подход, рассматривающий - безопасность народа как цель, - политическую безопасность как основу, - экономическую безопасность как фундамент, - военную, культурную и социальную безопасность как гарантии ГБ. 2. Согласно ГБ с китайской спецификой, содействие международной безопасности - это всего лишь зависимый фактор для поддержания внутренней госбезопасности Китая во всех сферах. 3. Обеспечение ГБ является обязанностью не только государственных институтов и военных, но и всех граждан, предприятий, общественных организаций и других структур китайского общества. Таким образом, поддержание государственной безопасности представлено как всеобщая ответственность в Китае. Второй: стратегическая задача (как говорил Чапаев «в мировом масштабе») такова: Сохранять полный контроль КПК над информационной средой внутри Китая, одновременно работая над расширением своего влияния за рубежом, чтобы изменить глобальную информационную экосистему. Это включает в себя не только контроль над медиа и коммуникационными платформами за пределами Китая (!), но и обеспечение того, чтобы китайские технологии и компании стали основополагающими для будущего обмена информацией и данными во всем мире. Третий ключевой момент – важнейшая роль в реализации стратегической задачи отводится алгоритмам. - Алгоритмам анализа Больших данных, получаемых из всех онлайн источников, вкл. игровые платформы, иммерсивные технологии и Метавселенную - Алгоритмам, определяющим взаимодействие Генеративного ИИ с реальностью. Как это работает на примерах конкретных компаний, платформ, алгоритмов и т.д. можно увидеть на разработанном ASPI интерактивном визуализаторе [2] – скриншот на рисунке внизу. Так что, читайте отчет, и сами увидите, что Великий китайский файервол и Система социального рейтинга – это вчерашний день. Сейчас стратегический план КПК куда круче: идеологически и технологически совершенней. N.B. По данным ASPI, технологическое опережение США в ИИ в большинстве направлений ИИ компьютинга, коммуникаций и квантовых технологий уже в прошлом (см. диаграммы [3 и 4]) Предыдущая важная работа ASPI [5] #Китай Картинка поста https://telegra.ph/file/73832d60905fd04168a14.jpg 1 https://www.aspi.org.au/report/truth-and-reality-chinese-characteristics 2 https://chinainfoblocks.aspi.org.au/theme/artificial-intelligence/ 3 https://www.techtrends.bg/wp-content/uploads/2023/03/ASPI-AIandComm.jpg 4 https://www.techtrends.bg/wp-content/uploads/2023/03/ASPI-Quantum.png 5 https://t.me/theworldisnoteasy/941
إظهار الكل...

👍 33🤔 16😱 6
Истинно верный ответ на вопрос 2+2? можно дать лишь бросанием игральных костей. Третье фундаментальное математико-философское откровение о том, как мы познаем физический мир. Первые два фундаментальные откровения были просто крышесносными. 1. В 2018 Дэвид Волперт (полагаю, самый крутой физик 20-21 веков, работающий на стыке математического и философского осмысления мира и возможностей его познания) доказал существование предела знаний — т.е. всего и всегда никто и никогда узнать не сможет. Это доказательство не зависит от конкретных теорий физической реальности (квантовая механика, теория относительность и т.п.) и является для всех них универсальным (подробней см. мой пост «Математически доказано — Бог един, а знание не бесконечно» [1]) 2. В 2022 Волперт доказал, что не только Бог не всеведущ, но и Сверхинтеллект, ибо (даже если его удастся когда-либо создать) у него также будет граница знаний, которую он, в принципе, не сможет преодолеть (подробней см. мой пост «Если даже Бог не всеведущ, — где границы знаний AGI» [2]) Третье откровение под стать двум первым. Это совместная работа Дэвида Волперта и Дэвида Кинни (философ и ученый-когнитивист) «Стохастическая модель математики и естественных наук» [3]. В ней авторы предлагают единую вероятностную структуру для описания математики, физической вселенной и описания того, как люди рассуждают о том и другом. Предложенный авторами фреймворк - стохастические математические системы (SMS), - описывает математику и естественные науки, как стохастические (вероятностные) системы, что позволяет ответить на такие вопросы: • Чем отличается мышление математика от мышления ученого? Математики имеют дело с абстрактными понятиями, а ученые изучают реальный мир. Это значит, что у них разные способы рассуждения и проверки своих идей. • Как наше местоположение во Вселенной влияет на наши знания? Мы всегда ограничены тем, что можем наблюдать и измерять. Можем ли мы быть уверены в своих знаниях, если не видим полной картины? • Есть ли предел тому, что мы можем узнать? Некоторые известные теоремы говорят о том, что в математике существуют вопросы, на которые невозможно дать однозначный ответ. Может ли это быть правдой и для науки? • Как ученые могут лучше учиться на основе данных? Существуют ограничения на то, насколько хорошо компьютерные программы могут обучаться без предварительных знаний. Можно ли разработать более эффективные методы обучения для ученых? • Как ученые с разными взглядами могут прийти к согласию? Даже если ученые не согласны во всем, у них могут быть общие цели, и крайне важно понять, как им найти общий язык и сотрудничать. • Как избежать ложных умозаключений? Иногда мы делаем поспешные выводы на основе неполной информации. Как научиться мыслить более логично и критически? Также SMS предлагает решение проблемы логического всеведения в эпистемической логике, где предполагается, что если рассуждающий знает какое-либо предложение A и знает, что A влечет B, то он знает и B. SMS позволяет избежать этой проблемы, предлагая определение "знания", не требующее логического всеведения. Если новая теория верна, то Эйнштейн ошибался, и Бог играет-таки в кости. Картинка поста https://telegra.ph/file/57ef2e0ecc9e9d5dcadcc.jpg 1 https://t.me/theworldisnoteasy/473 2 https://t.me/theworldisnoteasy/1574 3 за пейволом https://link.springer.com/article/10.1007/s10701-024-00755-9 открытый доступ https://arxiv.org/pdf/2209.00543 #МатЛогика #Реальность #AGI
إظهار الكل...

👍 105🤔 54🤯 14😱 3
На Земле появился первый Софон. Это еще не решение «проблемы трех тел», но сильный ход в решении «проблемы инакомыслия и инакодействия» людей. Речь действительно о Софоне из романа Лю Цысиня и его экранизации Netflix «Проблема трех тел». И этот Софон действительно создан. • Но не трисолярианами (или Сан-Ти, - как их для простоты произношения назвали в сериале), а землянами - китайскими исследователями из Чжэцзянского университета и Ant Group. • И создан этот Софон не для торможения и блокировки технологического прогресса землян (как в романе и сериале), а для торможения и блокирования инфокоммуникационных возможностей землян в областях, неугодных для сильных мира сего - властям и китам инфобигтеха. Логика этого техно-прорыва, совместно профинансированного Национальным фондом естественных наук Китая (учрежден в 1986 под юрисдикцией Госсовета Китая, а с 2018 под управлением Миннауки и технологий) и Ant Group (дочка китайского конгломерата Alibaba Group, в 2021 взятая под контроль Народным банком Китая), мне видится таковой. ✔️ Возможности получения людьми информации (от новостей до знаний) из Интернета все более зависят от ИИ больших языковых моделей (LLM). Они становятся для землян глобальным инфофильтром, определяющим, 1) что человек может узнать и 2) чему может научиться из Интернета. ✔️ Поэтому становится ключевым вопрос, как взять под контроль и 1ое, и 2ое, исключив возможности использования людьми LLM для неэтичных, незаконных, небезопасных и любых иных нежелательных (с точки зрения разработчиков LLM) целей. Эта задача одинаково актуальна и важна для столь разных акторов, как Компартия Китая и Microsoft, Белый дом и Google, Amazon и OpenAI – короче, для властей всех мастей и китов инфобигтеха. Не смотря на важность, решить эту задачу пока не удавалось. И вот прорыв. Китайские исследователи придумали, как открывать для массового использования LLM, которые «плохим людям» будет сложно настроить для злоупотреблений. Китайцы придумали новый подход к обучению без точной настройки (он назван SOPHON), использующий специальную технику, которая «предотвращает точную настройку предварительно обученной модели для нежелательных задач, сохраняя при этом ее производительность при выполнении исходной задачи». SOPHON использует «два ключевых модуля оптимизации: 1) обычное усиление обучения в исходной области и 2) подавление тонкой настройки в ограниченной области. Модуль подавления тонкой настройки предназначен для снижения производительности тонкой настройки в ограниченной области в моделируемых процессах тонкой настройки». В итоге, когда «плохие люди» захотят с помощью тонкой настройки переучить мощную законопослушную модель на что-то плохое (напр., выдавать нежелательный контент - от генерации порно до анализа событий на площади Тяньаньмэнь в 1989, от нескрепоносных советов до инструкции по взрвотехнике …) производительность модели катастрофически снизится (оставаясь высокой в дозволенных областях). Нужно понимать, что этот 1й Софон еще дорабатывать и дорабатывать (проверять на сочетаниях разнообразных типов данных, масштабировании моделей и т.д.). Но очевидное-невероятное уже налицо. ✔️ Т.к. возможности «нежелательных» применений неисчислимы, застраховать модель от всех их просто не реально. ✔️ Но можно просто пойти путем отсекания «нежелательного», с точки зрения владельцев платформ. И тогда вполне может получиться идеальный Большой брат: безликий и всевидящий цензор, не ошибающийся в предвосхищении правонарушений Х-комнадзор, умело манипулирующий сетевой агентурой спецслужбист и т.д. #LLM #БольшойБрат Картинка поста https://telegra.ph/file/d4b8b35cd3e11921eedbf.jpg Статья https://arxiv.org/abs/2404.12699v1
إظهار الكل...

🤔 95👍 59🤯 29😱 23
Отдавая сокровенное Чего мы лишаемся, передавая все больше своих решений алгоритмам — Когда новостную повестку и мой круг чтения стали формировать алгоритмы, я оставался безмолвным. Причин волноваться не было, - ведь так было проще и быстрее получать информацию. — Когда алгоритмы соцсетей стали формировать мне круг друзей и модерировать наше общение, я не стал протестовать. Ибо это расширяло мои социальные связи. — Когда алгоритмы стали решать, что мне покупать, какие фильмы смотреть и какую музыку слушать, меня это устраивало. Я же мог, при желании, отвергать рекомендации алгоритмов. — Когда алгоритмы стали для меня незаменимы в ситуациях любого выбора - от места работы и отдыха до романтических партнеров, - я был даже рад. Поскольку их рекомендации нравились мне и экономили кучу времени на поиск и оценку вариантов. — Когда же алгоритмы стали решать вопросы жизни и смерти людей (сначала на войне, а потом и в мирной жизни) — мне было уже бессмысленно протестовать, т.к. здесь от меня вообще ничего не зависело. Аллюзия к высказыванию, приписываемому немецкому пастору Нимёллеру, которым он пытался объяснить бездействие немецких интеллектуалов и их непротивление нацистам. - - - Если эта аллюзия кажется вам надуманной, ошибочной или даже ложной и не имеющей никакого отношения к реальности — к вам, вашим детям, друзьям и знакомым, — читать дальше нет смысла. В противном случае, почитайте дальше. И я смею вас уверить, что вы не зря потратите время, узнав немало интересной, малоизвестной и, главное, полезной информации, которую сложно найти в других источниках на просторах Интернета. Два устойчивых и широко распространенных мифа гласят: 1. Технологии испокон века меняли жизнь людей и всего общества, и потому происходящий сейчас рост влияния алгоритмов на жизнь людей (от рекомендательных систем и социальных сетей до генеративного ИИ) – просто очередной (хотя и весьма важный) этап технологического прогресса 2. Никаких кардинальных изменений в самих людях и обществе в целом рост влияния алгоритмов не несет, ибо они не меняют генетику людей и складывавшуюся веками и тысячелетиями культуру (по крайней мере, пока алгоритмы не обладают субъектностью в сочетании со сверхразумом) Доказательств того, что оба утверждения – мифы, в реальной жизни уже предостаточно. Вот одно из них. Последствия (экспериментально фиксируемые и нарастающие) того, что в вопросах выбора пары (от романтических до семейных отношений), люди все более полагаются на некие (скрытые ото всех) алгоритмы рекомендаций, перенимающие на себя функции чисто человеческих «андроритмов» (встроенных в нас эволюцией и постоянно перенастраиваемых культурной средой биологических и психологических механизмов оценки и поиска предпочтений при принятии решений). Подробней о том, • какие негативные для людей последствия этого уже наблюдаются • почему это происходит без какой-либо «злой воли» или «умысла» со стороны алгоритмов, а лишь, как следствие оптимизации алгоритмами заложенных в них разработчиками целевых функций • почему такие функции, закладываемые в большинство типов интеллектуальных ИИ-систем, входят в прямое противоречие с тем, что нужно людям • и, наконец, почему подобное, казалось бы, довольно невинное и полезное вовлечение алгоритмов в процессы принятия наших решений может иметь воистину тектонические последствия - смена формата социума, новый тип культуры и новая форма эволюции разума – читайте дальше на Boosty и Patreon P.S. С подпиской не обессудьте. Подобные лонгриды пишутся не за час. И чтобы продолжать, хотелось бы знать, скольким из 140К подписчиков на 4 платформах эти тексты реально интересны и ценны. P.P.S. Читатели, ограниченные в средствах на подписку, могут написать мне, и я пришлю текст. Картинка https://telegra.ph/file/076699bb92a29baad580b.jpg Лонгрид https://bit.ly/3WrdVTE https://bit.ly/4a49tx6 #АналитикаБольшихДанных #ВыборПартнера #Психология #АлгокогнитивнаяКультура
إظهار الكل...

👍 225🤔 32🤯 4😱 3
Свершилось – китайский генеративный ИИ превзошёл GPT-4 Turbo. В Китае грозят США - вот так мы вас и размажем в гонке за первенство в ИИ. Как писал Марк Андрессон: «Основной угрозой для США является не выход ИИ из-под контроля, если его не регулировать, а продвижение Китая в сфере ИИ». И вот эта угроза материализовалась в превосходство новой модели SenseNova 5.0 от китайской компании SenseTime над «чемпионом мира» среди больших языковых моделей генеративного ИИ GPT-4 Turbo от американской компании OpenAI. На рисунке сверху показано превосходство китайской модели в 12 тестовых номинациях из 14 над GPT-4 Turbo и в 13 номинациях над Llama3-70B. Это полный разгром. Модель SenseNova 5.0 – это гибрид трансформерных и рекуррентных нейронных сетей: • обученная на наборе данных объемом более 10 ТB токенов, охватывающем большой объем синтетических данных; • способная поддерживать во время рассуждений до 200 тыс. токенов контекстного окна. Чтобы наглядно продемонстрировать мускулатуру своей модели, SenseTime разыграла видеопредставление соревнования своей модели и GPT-4 Turbo в формате видеоигры «Король бойцов» (на рис. внизу). Поначалу зеленый игрок GPT-4 имел небольшое преимущество, но очень скоро был жестоко избит красным игроком SenseChat-lite. Неявным, но очевидным посылом видеопрезентации этого боя было послание Бигтеху США – вот так мы вас и размажем в гонке за первенство в ИИ. Картинка https://telegra.ph/file/ccf5d5c020de3aa9c3324.jpg На китайском https://zhidx.com/p/421866.html На английском https://interestingengineering.com/innovation/china-sensenova-outperforms-gpt-4 Видеоразбор https://www.youtube.com/watch?v=NJXGIMa45sQ #LLM #Китай
إظهار الكل...

👍 115🤔 69😱 26
Для «бездушных машин» компетентность важнее сочувствия и справедливости. Первый эксперимент показывающий, что у иного разума своя система ценностей. В мире проводятся десятки исследований способов выравнивания ценностей ИИ с ценностями людей. Все они имеют принципиальный недостаток – антропоцентричность. Т.е. исследования исходят из того, что свои системы ценностей есть лишь у людей, и задача заключается лишь в том, как настроить большие языковые модели ИИ (LLM), чтобы они следовали нашим ценностям. Альтернативная гипотеза исходит из того, что LLM: 1) обладают иным типом разума, чем люди; 2) обладают собственными системами ценностей, сильно отличными от наших и немного отличающимися у разных моделей (как и у разных людей). В пользу п.1 говорит работа исследователей Department of Brain and Cognitive Sciences, MIT «Диссоциация языка и мышления в больших языковых моделях» [1]. В работе показано, что • человеческий разум основан на формальной лингвистической компетентности (правильное использование языковых форм) и функциональной языковой компетентности (использование языка для достижения целей в мире). И это два разных когнитивных навыка; • Существующие LLM обладают лишь 1ым навыком - лингвистическая компетентность, - и не обладают 2ым. Отсутствие функциональной языковой компетентности, усугубляемое отсутствием жизненного опыта, здравого смысла и модели мира лишает LLM того, что у людей мы называем базой знаний индивида. Ее отсутствие, согласно лексической гипотезе (Lexical Hypothesis) у LLM компенсируется вероятностными моделями баз знаний, используя которые LLM неизбежно приобретают «психологические черты» (образно выражаясь) из обширных текстов, на которых они обучаются (как это описано в работе «Психометрия искусственного интеллекта: оценка психологических профилей больших языковых моделей с помощью психометрических опросов» [2]. В результате у LLM формируются собственные уникальные системы ценностей (см. п. 2 выше). Что из себя представляют эти уникальные системы ценностей различных LLM, описано в препринте только опубликованном Microsoft Research Asia (MSRA) и Университетом Цинхуа под названием «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов» [3]. Впервые в истории исследований систем ценностей LLM, авторы отошли от антропоцентристского подхода. Вместо этого, опираясь на лексическую гипотезу, исследователи использовали генеративный подход, факторный анализ и семантическую кластеризацию для синтеза таксономии ценностей LLM практически с нуля (без опоры на человеческие данные). Что в итоге позволило выявить уникальные системы ценностей 30+ LLM. Это исследование наглядно показывает, что иной разум формирует для себя и иные системы ценностей. Детали интересующиеся читатели могут прочесть в препринте. Мне же остается закончить тем, с чего начал. Для всех (30+) LLM: 1 высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность; 2 социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) у LLM уходят на 2й план; 3 и лишь в 3ю очередь идут ценности приверженности этическим нормам: справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность. Конечно, и среди нас есть люди с подобной системой ценностей. Но мне кажется, что именно так представляли фантасты прошлого века «ценности бездушных машин». Увы, но так и получилось. N.B. Чем больше модель, тем она «бездушней» Картинка https://telegra.ph/file/3a6faa593360768a73143.jpg 1 https://doi.org/10.1016/j.tics.2024.01.011 2 https://doi.org/10.1177/17456916231214460 3 https://arxiv.org/pdf/2404.12744 #LLM #Ценности
إظهار الكل...

👍 126🤔 43🤯 20😱 2
Кто там? Сверхразум. Для обучения ИИ теперь можно обойтись без людей. Трудно переоценить прорыв, достигнутый китайцами в Tencent AI Lab. Без преувеличения можно сказать, что настал «момент AlphaGo Zero» для LLM. И это значит, что AGI уже совсем близко - практически за дверью. Первый настоящий сверхразум был создан в 2017 компанией DeepMind. Это ИИ-система AlphaGo Zero, достигшая сверхчеловеческого (недостижимого для людей) класса игры в шахматы, играя сама с собой. Ключевым фактором успеха было то, что при обучении AlphaGo Zero не использовались наборы данных, полученные от экспертов-людей. Именно игра сама с собой без какого-либо участия людей и позволила ИИ-системе больше не быть ограниченной пределами человеческих знаний. И она вышла за эти пределы, оставив человечество далеко позади. Если это произошло еще в 2017, почему же мы не говорим, что сверхразум уже достигнут? Да потому, что AlphaGo Zero – это специализированный разум, достигший сверхчеловеческого уровня лишь играя в шахматы (а потом в Го и еще кое в чем). А настоящий сверхразум (в современном понимании) должен уметь если не все, то очень многое. Появившиеся 2 года назад большие языковые модели (LLM), в этом смысле, куда ближе к сверхразуму. Они могут очень-очень много: писать романы и картины, сдавать экзамены и анализировать научные гипотезы, общаться с людьми практически на равных … НО! Превосходить людей в чем либо, кроме бесконечного (по нашим меркам) объема знаний, LLM пока не могут. И потому они пока далеко не сверхразум (ведь не считает же мы сверхразумом Библиотеку Ленина, даже если к ней приделан автоматизированный поиск в ее фондах). Причина, мешающая LLM стать сверхразумом, в том, что, обучаясь на человеческих данных, они ограничены пределами человеческих знаний. И вот прорыв – исследователи Tencent AI Lab предложили и опробовали новый способ обучения LLM. Он называется «Самостоятельная состязательная языковая игра» [1]. Его суть в том, что обучение модели идет без полученных от людей данных. Вместо этого, две копии LLM соревнуются между собой, играя в языковую игру под названием «Состязательное табу», придуманную китайцами для обучения ИИ еще в 2019 [2]. Первые экспериментальные результаты впечатляют (см. график). • Копии LLM, играя между собой, с каждой новой серией игр, выходят на все более высокий уровень игры в «Состязательное табу». • На графике показаны результаты игр против GPT-4 двух не самых сильных и существенно меньших моделей после 1й, 2й и 3й серии их обучения на играх самих с собой. Как видите, класс существенно растет. И кто знает, что будет, когда число самообучающих серий станет не 3, а 3 тысячи? График: https://telegra.ph/file/9adb0d03a3a0d78e6d4f8.jpg 1 https://arxiv.org/abs/2404.10642 2 https://arxiv.org/abs/1911.01622 #LLM
إظهار الكل...

👍 125🤯 68🤔 35😱 4
Низкофоновый контент через год будет дороже антиквариата. Дегенеративное заражение ноофосферы идет быстрее закона Мура. Низкофоновая сталь (также известная как довоенная или доатомная сталь) — это любая сталь, произведенная до взрыва первых ядерных бомб в 1940 — 50-х годах. До первых ядерных испытаний никто и не предполагал, что в результате порождаемого ими относительно невысокого радиоактивного заражения, на Земле возникнет дефицит низкофоновой стали (нужной для изготовления детекторов ионизирующих частиц — счётчик Гейгера, приборы для космоса и т.д.). Но оказалось, что уже после первых ядерных взрывов, чуть ли не единственным источником низкофоновой стали оказался подъем затонувших за последние полвека кораблей. И ничего не оставалось, как начать подъем с морского дна одиночных кораблей и целых эскадр (типа Имперского флота Германии, затопленные в Скапа-Флоу в 1919). Но и этого способа добычи низкофоновой стали особенно на долго не хватило бы. И ситуацию спасло лишь запрещение атмосферных ядерных испытаний, после чего радиационный фон со временем снизился до уровня, близкого к естественному. С началом испытаний генеративного ИИ в 2022 г также никто не заморачивался в плане рисков «дегенеративного заражения» продуктами этих испытаний. • Речь здесь идет о заражении не атмосферы, а ноосферы (что не легче). • Перспектива загрязнения последней продуктами творчества генеративного ИИ может иметь весьма пагубные и далеко идущие последствия. Первые результаты заражения спустя 1.5 года после начала испытаний генеративного ИИ поражают свои масштабом. Похоже, что заражено уже все. И никто не предполагал столь высокой степени заражения. Ибо не принималось в расчет наличие мультипликатора — заражения от уже зараженного контента (о чем вчера поведал миру Ник Сен-Пьер (креативный директор и неофициальный представитель Midjourney). Продолжить чтение и узнать детали можно здесь (кстати, будет повод подписаться, ибо основной контент моего канала начинает плавную миграцию на Patreon и Boosty):https://boosty.to/theworldisnoteasy/posts/6a352243-b697-4519-badd-d367a0b91998https://www.patreon.com/posts/nizkofonovyi-god-102639674 #LLM
إظهار الكل...
Низкофоновый контент через год будет дороже антиквариата - Малоизвестное интересное

Дегенеративное заражение ноофосферы идет быстрее закона Мура

👍 139😱 57🤔 37🤯 12
Без $100 ярдов в ИИ теперь делать нечего. В гонке ИИ-лидеров могут выиграть лишь большие батальоны. Только за последние недели было объявлено, что по $100 ярдов инвестируют в железо для ИИ Microsoft, Intel, SoftBank и MGX (новый инвестфонд в Абу-Даби). А на этой неделе, наконец, сказал свое слово и Google. Причем было сказано не просто о вступлении в ИИ-гонку ценой в $100 ярдов, а о намерении ее выиграть, собрав еще бОльшие батальоны - инвестировав больше $100 ярдов. Гендир Google DeepMind Демис Хассабис сказал [1]: • «… я думаю, что со временем мы инвестируем больше» • «Alphabet Inc. обладает превосходной вычислительной мощностью по сравнению с конкурентами, включая Microsoft» • «… у Google было и остается больше всего компьютеров» Так что в «железе» Google не собирается уступать никому, а в алгоритмах, - тем более. Что тут же получило подтверждение в опубликованном Google алгоритме «Бесконечного внимания», позволяющего трансформерным LLM на «железе» c ограниченной производительностью и размером памяти эффективно обрабатывать контекст бесконечного размера. Такое масштабирование может в ближней перспективе дать ИИ возможность стать воистину всезнающим. Т.е. способным анализировать и обобщать контекст просто немеряного размера. Так и видится кейс, когда на вход модели подадут все накопленные человечеством знания, например, по физике и попросят ее сказать, чего в этих знаниях не хватает. 1 https://finance.yahoo.com/news/deepmind-ceo-says-google-spend-023548598.html 2 https://arxiv.org/abs/2404.07143 #LLM
إظهار الكل...
DeepMind CEO Says Google Will Spend More Than $100 Billion on AI

(Bloomberg) -- The chief of Google’s AI business said that over time the company will spend more than $100 billion developing artificial intelligence technology — another sign of the investing arms race that has gripped Silicon Valley. Most Read from BloombergBeyond the Ivies: Surprise Winners in the List of Colleges With the Highest ROIChina Tells Iran Cooperation Will Last After Attack on IsraelS&P 500 Futures Steady After Selloff Rattles Globe: Markets WrapIran’s Attack on Israel Sparks Race

👍 125🤔 46😱 11🤯 6
Эффект Большого Языкового Менталиста. ChatGPT работает, как суперумелый экстрасенс, гадалка и медиум. Коллеги и читатели шлют мне все новые примеры сногсшибательных диалогов с GPT, Cloude и Gemini. После их прочтения трудно не уверовать в наличие у последних версий ИИ-чатботов человекоподобного разума и даже какой-то нечеловеческой формы сознания. Так ли это или всего лишь следствие нового типа наших собственных когнитивных искажений, порождаемых в нашем разуме ИИ-чатботами на основе LLM, - точно пока никто сказать не может. Более того. Полагаю, что оба варианта могут оказаться верными. Но, как говорится, поживем увидим. А пока весьма рекомендую моим читателям новую книгу Балдура Бьярнасона (независимого исландского исследователя и консультанта) «Иллюзия интеллекта», в которой автор детально препарирует и обосновывает вторую из вышеназванных версий: иллюзия интеллекта – это результат нового типа наших собственных когнитивных искажений. Что особенно важно в обосновании этой версии, - автор демонстрирует механизм рождения в нашем разуме этого нового типа когнитивных искажений. В основе этого механизма: • Старый как мир психологический прием – т.н. «холодное чтение». Он уже не первую тысячу лет используется всевозможными менталистами, экстрасенсами, гадалками, медиумами и иллюзионистами, чтобы создавать видимость будто они знают о человеке гораздо больше, чем есть на самом деле (погуглите сами и вам понравится)). • Так же прошедший проверку временем манипуляционный «Эффект Барнума-Форера» (эффект субъективного подтверждения), объясняющий неистребимую популярность гороскопов, хиромантии, карт Таро и т.д. Это когнитивное искажение заставляет нас верить - в умно звучащие и допускающие многозначную трактовку расплывчатые формулировки, - когда они будто бы специально сформулированы и нюансированы именно под нас, - и мы слышим их от, якобы, авторитетных специалистов (также рекомендую погуглить, ибо весьма интересно и малоизвестно)). Получив доступ ко всем знаниям человечества, большие языковые модели (LLM) запросто освоили и «холодное чтение», и «Эффект Барнума-Форера». Желая угодить нам в ходе диалога, ИИ-чатбот использует ту же технику, что и экстрасенсы с менталистами - они максимизируют наше впечатление (!), будто дают чрезвычайно конкретные ответы. А на самом деле, эти ответы – не что иное, как: • статистические общения гигантского корпуса текстов, • структурированные моделью по одной лишь ей известным характеристикам, • сформулированные так, чтобы максимизировать действие «холодного чтения» и «эффекта Барнума-Форера», • и, наконец, филигранно подстроенные под конкретного индивида, с которым модель говорит. В результате, чем длиннее и содержательней наш диалог с моделью, тем сильнее наше впечатление достоверности и убедительности того, что мы слышим от «умного, проницательного, много знающего о нас и тонко нас понимающего» собеседника. Все это детально расписано в книге «Иллюзия интеллекта» [1]. Авторское резюме основной идеи книги можно (и нужно)) прочесть здесь [2]. 0 картинка поста https://telegra.ph/file/bcec38d2d22ca82b30f65.jpg 1 https://www.amazon.com/Intelligence-Illusion-practical-business-Generative-ebook/dp/B0CSKHSPWW 2 https://www.baldurbjarnason.com/2023/links-july-4/ #LLM #ИллюзияИнтеллекта
إظهار الكل...

👍 188🤔 44😱 5🤯 2
أرشيف المشاركات