cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Антон Кузнецов | Философ

По вопросам сотрудничества, выступлений: @AntonPhilosopher Подкаст Неискусственный интеллект https://unartificialintellig.mave.digital Instagram https://www.instagram.com/anton_smitt/ Профиль ИСТИНА https://istina.msu.ru/workers/8952239/

Show more
Russia118 189Russian129 743The category is not specified
Advertising posts
3 075
Subscribers
+924 hours
+197 days
+26630 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Обратный тест Тьюринга – это когда человек имитирует искусственный интеллект так, чтобы ИИ-судьи не смогли отличить своего собрата от притворщика. Вот видео, где GPT 4 turbo (Аристотель), Claude 3 opus (Моцарт), Llama 3 (да Винчи), Gemini pro (Клеопатра) вычисляют человека (Чингисхан). В этой компании только Claude 3 opus (Моцарт) не распознает человека (и единственный, кто подвисает). Все остальные с легкостью определяют человека. Общий аргумент такой: слишком поверхностные ответы. От ИИ ожидаешь другого. Иными словами, туп как пробка, поэтому — человек. Gemini pro (Клеопатра) вообще порвала, когда спросила человека (Чингисхана) «Кто по твоему всего лишь человек?» Но дело ли в том, что ИИ давали действительно более глубокие ответы? Хорошего или формального критерия «глубины» нет. Я могу только сказать, что есть зависимость между «глубиной» и формой ответа: введение тезисов - аргументы - заключение. Человек в этой компании единственный, кто попросту не дал развернутого ответа.
Show all...
Reverse Turing Test Experiment with AIs

A group with the most advanced AIs of the world try to figure out who among them is the human. Experiment I made in Unity. Voices by ElevenLabs.

🤯 21🤩 7🤓 6🤔 5 4👌 1😍 1🙉 1
В этом году у меня защищаются три дипломника, один бакалавр и два магистра, с такими темами: 1. Проблема дорефлексивного самосознания в современной философии сознания. София Гарагуля 2. Принятие интенциональной установки в отношении роботов. Мария Щенникова 3. Современные подходы решения проблемы других сознаний. Никита Некрасов Все работы без исключения прорывные. Поздравляю!🍾
Show all...
🎉 100 25❤‍🔥 17🤔 7🫡 5🤣 4🍾 3😍 2💅 2👌 1🍓 1
Photo unavailableShow in Telegram
Присоединяйтесь к эфиру в 9:10. Можно писать прямо в него https://www.youtube.com/live/Uh0tw66L3MQ?si=qbIoFPzXhmMCDDnF
Show all...
🫡 12❤‍🔥 10💅 5 4🥴 2🦄 2
Завтра утром (22 мая, 09:00 ) снова говорим про анархизм на Серебряном дожде вместе с Антоном Кузнецовым. Мы как-то в общих чертах пробежались по этой теме в апреле. Тогда с ведущими пришла в голову мысль продолжить этот разговор, но в свете современных форм анархистской теории. Планируем начать с анархо-примитивизма, а дальше как пойдёт. Задавать вопросы можно через youtube, будет прямая трансляция. Разумеется, мы будем доступны через радио по 100.1 FM, если под рукой нет интернета. Накидайте может какие-то вопросы заранее сюда (если такие есть).
Show all...
Прямой эфир | Серебряный Дождь

Радиостанция впервые вышла в эфир 4 июля 1995 года. Спутниковое вещание осуществляется более чем в 100 городах России и ближнего зарубежья.

❤‍🔥 15 5🐳 5👌 3😘 1
ИИ до сих пор не обладает сознанием, но есть МОМЕНТ Сначала немного базы: Самый известны аргумент против сознания и понимания ИИ — это Китайская комната. В ней моделируется система, проходящая тест Тьюринга. Человек внутри комнаты оперирует закорючками согласно правилам: перемешивает, отнимает одни, добавляет другие, — и отдает за пределы комнаты. Эти закорючки — китайские иероглифы и их читает китаец, который думает, что внутри комнаты кто-то понимает китайский. Но сколько и чего ни делай с закорючками, для тебя они так и останутся закорючками. Важно понимать, что это не аргумент против сознания и понимания ИИ в целом, а против того, что они — это вычислительные состояния. Поэтому никакая программа сама по себе сознание и понимание давать не может. Это если очень кратко. Сейчас важно обратить на линию критики Китайской комнаты, утверждающей, что Комната изначально не может проходить Тест Тьюринга из-за неспособности отвечать на целый класс вопросов. Речь об индексикальных вопросах, словом, о вопросах с указанием тут, там, здесь, сейчас и т.д. Разработчики Комнаты не могли знать, каким мир будет через пять минут или 10 лет после ее создания, поэтому она систематически неспособна отвечать на индексикальные вопросы. Но если ее доработать сенсорными выходами (видеокамерой, например), тогда может появиться квазисемантический блок и уверенно отрицать возможность понимания и сознания будет нельзя. Теперь главное Классические текстовые LLM — это те же Китайские комнаты. Представьте, что вам дают закорючки, много закорючек. Вы их всяко мешаете — сначала вас много бьют током и редко дают пряник. Но со временем вы стали лучше прогнозировать, какую выбрать следующую закорючку, чтобы не долбанули током, а дали пряник. Понимать смысл этих закорючек вы не начнете, но хотя бы заживете посытнее. LLM тоже не может отвечать на индексикальные вопросы, они все еще не существуют в реальном времени. В отличие от естественного интеллекта, LLM пока не могут взаимодействовать с миром в реальном времени: Мир не представляет собой саморазмечающихся и самообновляющихся датасетов LLM неспособены обучаться быстро, на минимальных данных и с минимальными итерациями как естественный интеллект Катастрофическая забывчивость: «подключишь» к миру и накопленный опыт слетит Однако! Мультимодальные LLM — это совсем другое дело. Особенно громогласно о себе заявившая GPT-4o (omni). Подробнее здесь https://habr.com/ru/news/814037/ Благодаря ее (квази)сенсорным способностям, можно считать, что у нее есть квазисемантический блок. Это значит не так много. Сознания и понимания все еще нет. Но это значит, что критика в стиле Китайской комнаты становится менее ощутимой и важной. Думаю, ключевым моментом будет, когда LLM смогут прийти в «настоящесть». Насколько это далеко или близко, не берусь сказать. Но пока многие смотрят на новые фичи и пускают слезу от душевных «понимающих» разговоров, я вижу почти полное отсутствие прогресса у LLM в эту сторону. Возможно, гордиев узел неожиданно будет разрублен роботизацией, отелеснением LLM, а возможно — нет. Ансамбль черных лебедей на роялях в кустах замер в ожидании. Пока ИИ подтачивает классические антифункционалистские аргументы.
Show all...
Вышла новая, улучшенная версия GPT-4 Omni, которая уже бьет все рекорды

Это самая совершенная модель из всех, намного превосходящая своих предшественников, включая таинственной gpt2-chatbot. Она появится уже сегодня в виде приложения для пк.   Новая модель GPT4 Omni...

29🤝 13🌚 5😱 3💯 3❤‍🔥 2🤔 2🤓 2🥱 1💅 1🆒 1
Еще один новый философский канал, но не о философии, а о современной художественной литературе, который основан философом права Виталием Оглезневым. Там даже комментарии открыты, а не как у не которых (не буду показывать пальцем)
Show all...
Literary Minds

Канал о книгах, писателях и современной литературе

🥴 11😎 7😭 5🤨 3🫡 3❤‍🔥 2🦄 1
Photo unavailableShow in Telegram
По этому безобидному фото только знатоки догадаются, что кто-то сейчас получит философскую торпеду и пойдет на дно. Торпедировать мы стали с подачи нашего учителя Васильева, который и в текстах, и устно раньте любил использовать это слово. А работать двойкой мы с Артемом стали с легендарной Томской конференции 2014 года. О ней я расскажу публично только, когда меня выгонят из Университета.
Show all...
🤣 56❤‍🔥 12🦄 11😎 9💯 4🤓 2🤔 1👾 1
Злодей, мракобес, обскурантист, который не любит ИИ, это я. А теперь история. Наша великая конференция по сознанию животных закончилась общей дискуссией с подведением итогов. Анохин спросил аудиторию, есть ли смысл включать тему про сознание ИИ в следующую конференцию. И участники один за другим наперебой принялись говорить, как это будет полезно и прекрасно, если на конференции по сознанию животных будет тема ИИ. Я же сидел и ощущал сильнейший жар откуда-то снизу. По случаю последний день конференции как раз был посвящен ИИ. На ум приходят слова классика: «Я это понимаю, но мне это не интересно, вот мне лично это не интересно». Один доклад соединял вместе горячее и холодное: детей с неразвитой корой и ИИ, второй — представлял результаты опроса как люди реагируют на общение с chatGPT, третий — что живые люди и ИИ не одно и то же, а еще ИИ классно философствует. Только доклад двумя днями ранее Генри Шевлина был интересен. Паноптикум, парад планет. Это первое. А второе — уж очень захотелось разыграть карту Лэдимена, когда ради переименования конференции «Навстречу науке о сознании» в «Науку о сознании» Хамерофф собрал референдум дискуссию «Готовы ли мы к науке о сознании?», где каждый участник должен был выдавить из себя какое-то подобие «да» или хотя бы «ээээээ», что записывалось в «да». Малину испортил выступавший последним Лэдимен, он наотрез отказался соглашаться, ни к какой науке о сознании мы не готовы. И спустя девять лет я все больше с ним согласен. В общем наслушавшись меда о полезности ИИ, я взял микрофон и сказал, что включать в конференцию о сознании животных ИИ не имеет смысла, что в этой области слишком много спекуляций, что, конечно, я согласен, что ИИ это великолепно и очень приятно, но необходимо руководствоваться прагматическими соображениями. Мы не можем обсуждать продуктивно сразу все сразу, делать конференции обо всем сразу. Например, годом ранее у нас был доклад «сознании» растений. Было «любопытно», но в этом году уже ни о растениях, ни о грибах или чем-то еще ничего не было. Тем более во второй своей реплике я заметил, что есть потрясающий вид животных, который не был представлен на конференции, — это люди. Человеки (их еще зовут «кожаные») очень прикольные создания — они могут говорить как LLM, у них общая с другими животными биологическая природа, а еще точно-преточно есть сознание. Бинго! Поэтому нужны специалисты по людям. И больше хордовых нейроученых. Их недостаток был ощутим. Пока так. За два года, когда планируется следующая конференция, может многое поменяться и ансамбль чёрных лебедей даст концерт на роялях в кустах. Тогда изменю свою позицию. О других результатах конференции буду писать ближайшие дни. Так что … так что
Show all...
❤‍🔥 64🫡 16🤣 12🐳 7🤩 4🦄 4 2🤔 2🗿 2👌 1👾 1
Photo unavailableShow in Telegram
🤔 29🤝 10❤‍🔥 6🤩 6🗿 4 2🤣 2💅 1
Главная опасность развития ИИ для теоретика заключается в том, что оно а) слишком быстро и б) показывает, как плохо работают наши эмпирические и философские интуиции. И вот подъехал отличный пример. В начале года в нашем Вестнике была опубликована статья «Почему большие языковые модели не (всегда) рассуждают как люди?», где разбиралась проблема, что LLM систематически не различают валидных рассуждений от верных. В первом случае заключение может быть ложным, но дедуктивная структура правильной, во втором случае заключение обязательно должно быть истинным. Вот валидный силлогизм: 1. Все планеты являются слонами. 2. Земля — это планета. 3. Следовательно, Земля является слоном Заключение бред сивой кобылы, но LLM упорно считала, что все рассуждение не валидно. И это никак не решалось. Автор статьи Дмитрий Владимирович Зайцев давно занимается проблемами естественных рассуждений. Он предположил, что здесь есть глубокая проблема, связанная с отсутствием тела и сенсорных входов у языковых моделей. На важность этого намекают некоторые эмпирические данные. Более того отсутствие телесного воплощения LLM акцентируется многими исследователями ИИ. Но… Но в очередной раз прогресс языковых моделей ответил сам за себя. Прилагаю скрин переписки. Теперь они сходу отличают валидные и верные рассуждения. Я радуюсь этому, как ребенок. Но не потому что Дмитрий Владимирович неправ, а потому что мы получаем четкие ответы, которые проливает свет на природу рассуждений в целом, заставляют нас корректировать и переоценивать естественные установки, полученные на реальных агентах. Это просто великолепно!
Show all...
🏆 24🤔 13👌 5🌭 3🍾 3🤗 2 1🦄 1