cookie

Utilizamos cookies para mejorar tu experiencia de navegación. Al hacer clic en "Aceptar todo", aceptas el uso de cookies.

avatar

Сказки Дядюшки Зомбака

СДЗ это рассказы про паранормальщину, НЛО и UAP, городские легенды и интересные истории. Всё с позиции скептика. Меня зовут Дима Зомбак, я работаю в NASA (могу приврать). Обычно веду @zavtracast, а тут - отдыхаю душой. Реклама: @wladeo

Mostrar más
Publicaciones publicitarias
5 181
Suscriptores
+424 horas
+147 días
+4530 días

Carga de datos en curso...

Tasa de crecimiento de suscriptores

Carga de datos en curso...

Photo unavailableShow in Telegram
Это, скорее всего, совсем утонет в новостном потоке на фоне новостей про покушение на Дональда Трампа, но тут сенатор Шумер снова выкатил свою поправку к законопроекту об оборонном бюджете США на 2025-й год. В прошлом году он тоже свою поправку про UAP выкатывал, но тогда её не приняли, может быть, её примут в этом (если бюджет будет подписан, то это случится уже в декабре этого года). В “поправке Шумера” указывается, что правительство США должно собрать комиссию, которая, собрав все необходимые документы и данные, решит надо ли делать публичный disclosure о феномене и если да, то когда. А все известные инопланетные материалы, корабли и тому подобное должны быть переданы правительственной комиссии. Также должны быть рассекречены все материалы про NHI и UAP до 1999 года (в следующем году, соответственно, с 2000, ещё через год - с 2001 и так далее). Ещё там есть упоминание термина NHI это теперь у нас такое: “Нечеловеческий интеллект" означает любую разумную нечеловеческую форму жизни, независимо от её природы или конечного происхождения, которая может быть предположительно ответственна за неопознанные аномальные явления или же о которой стало известно федеральному правительству”. В качестве необходимости такой поправки в закон указывается, что “легализация необходима, поскольку достоверные свидетельства и свидетельские показания указывают на то, что в федеральном правительстве существуют записи о неопознанных аномальных явлениях, которые не были должным образом рассекречены или же подлежат обязательному рассмотрению на предмет своего рассекречивания, частично из-за исключений, предусмотренных Законом об атомной энергии 1954 года, а также слишком широкой интерпретации ответственными лицами "засекреченной иностранной ядерной информации", которая была также освобождена от обязательного рассекречивания, что предотвращало тем самым публичное раскрытие информации о явлении в соответствии с существующими положениями закона”. Что тут можно сказать. Шумер молодец, только вот боюсь в декабре в США будет совсем не до disclosure, но посмотрим.
Mostrar todo...
👾 27🐳 6🍌 2🕊 1
Photo unavailableShow in Telegram
👾 48🍌 10🐳 6🕊 1
Photo unavailableShow in Telegram
Дайджест: - Ученые нашли мох, который может выжить в атмосфере Марса (а ещё в Антарктике). Его планируют добавить в следующие марсианские миссии чтобы проверить выживет ли он при таких температурах, перепадах давления и радиации. - Телеканал CBS Boston взял интервью у профессора антропологии Montana Technological University, Майкла Мастерса, где тот рассказывает про своё исследование феномена UAP в контексте криптотеррестриалов и того, что "они ходят среди нас, замаскированные". Смотрится хорошо, правда, ничего нового, это просто его теоретические измышления, а не какое-то прям исследование с большой буквой И. Пре-принт тут (сорян за ресёрчгейт), а интервью тут. - Интервью с морпехом Майклом Херрерой, который в 2006-м году на задании в Индонезии видел некое пирамидальное НЛО, в которое военные грузили какой-то груз. Его подразделение задержали люди в черной форме без опознавательных знаков, продержали пару часов под дулами автоматов, а потом почему-то отпустили. Интервью тут. От себя отмечу, что Херрера несёт такой бред местами, что его бывший командир по имени Нейтан пришёл в другой подкаст и рассказал что Херреру постоянно ловили на вранье и уволили из морпехов с позором и никакого НЛО они тогда в Индонезии не видели, а если даже и видели, то лучше бы о нём Херрера помалкивал. Самое смешное, что Херрера сам считает, что "это не пришельцы", а правительственные сверхсекретные технологии, так что не очень понятно, почему его командир так порвался. - SOL Foundation Гарри Нолана опубликовали заявление о том, что UAP вредят здоровью людей и надо чтобы правительство США с этим начало бы разбираться. Все риски, перечисленные в статье, строго говоря, гипотетические. Ну там "возможно, радиация, возможно, микроволны, возможно, другие инвазивные биологические эффекты". - Последнее - это статья с BBC из 2018 года, когда умер знаменитый профессор физики Стивен Хокинг. В общем, за 10 дней до его смерти он вместе с коллегой-физиком Томасом Хертогом успел опубликовать научную статью (см.) в которой утверждалось, что мультивселенная существует. Правда, по Хокингу выходит, что мультивселенная конечна, а не бесконечна, как фрактал. То есть, какое-то количество параллельных вселенных существует (возможно их очень много), но существуют там только те вселенные, где законы физики точно такие же, как у нас.
Mostrar todo...
👾 22🕊 4🍌 4
00:01
Video unavailableShow in Telegram
Композиция 134_1.mp42.89 KB
👾 34🐳 3
Repost from Denis Sexy IT 🤖
В Nature вышла интересная статья (pdf), в ней рассматрели «человеческий язык» как инструмент для передачи информации и пришли к выводу, что это клевый способ для коллаборативной работы нас как вида (и шитпоста в интернете), но язык не нужен мозгу для «мыслительного процесса» Я никогда не задумывался, как выглядит «мысль» если исключить из нее «язык», поэтому вот пару интересных наблюдений из статьи о том как устроен процесс мышления: 1. Мысли, вероятно, опираются на абстрактные, неязыковые ментальные представления. Это могут быть визуальные, пространственные или другие специфические представления под конкретные задачи и концепции. Как человек, который в любой момент времени может вспомнить любой маршрут по которому я ходил где-то и был трезвый, могу сказать что все так, у меня «карта местности» просто существует в виде образа в голове, как оказалось, так не у всех 2. В голове есть ансамбль нейронок — в статье упоминается несколько «мозговых сетей», участвующих в различных задачах: — Есть нейронка «множественных требований» для целенаправленного поведения и решения новых задач, она поощряет находчивость при решении проблем, активируется при выполнении когнитивно сложных задач, особенно тех, которые требуют гибкого мышления и адаптации к новым ситуациям. Она же отвечает за планирование и рабочую память; — Есть нейронка «теории разума» или «эмпатии»: для социального рассуждения и понимания психических состояний – мыслей, чувств, убеждений и намерений других людей. Это та, которая у нас уже хуже чем в GPT4o; — Есть «Дефолтная нейронка», активируется когда мозг в покое – связана с кучей когнитивных штук, включая: способность мысленно перемещаться во времени (вспоминая прошлое или представляя будущее), пространственное познание, размышление о себе, своих чертах и опыте. Интересно, что повреждение это "сетки" ведет к депрессии или даже шизофрении (в теории). 3. Символическое мышление может происходить без языка как инструмента. Это означает, что мозг может манипулировать абстрактными символами или концепциями, не опираясь на слова или грамматические структуры. Условно, когда вам что-то «пришло в голову из неоткуда», это этот эффект. 4. Рассуждение по специфичным задачам — разные типы мышления (математические, социальные, пространственные и т.д.), по-видимому, задействуют разные мозговые «нейронки», что предполагает, что процессы мышления могут быть в некоторой степени модульными и специфичными для конкретных задач; это как если бы у одной мощной LLM было много Lora натренированных на конкретных задачах датасета, а не единая модель для решения всех задач. 5. Параллельная обработка — все эти «нейронки» для решения специфичных задач (социальные, причинно-следственные, решение проблем и т.д.) могут работать параллельно, получая при этом информацию с разных «сенсоров» тела, а не определяться единой системой, такой как язык. 6. Мы сильно похожи на животных — в статье упоминается непрерывность человеческой эволюции, предполагая, что наши процессы мышления могут быть более похожими на процессы мышления других животных, чем считалось ранее, просто они оказались более сложными из-за наших расширенных когнитивных способностей. То есть, условная собака может оказаться намного ближе к нам по процессу мышления чем мы раньше думали. 7. Культура развивает мышление — хоть это и не прямой механизм мышления, в статье упоминается что передача культурных знаний от поколения в поколение, повышает когнитивные способности человека с течением времени, это уже влияние языка как инструмента. Короче, все еще ничего не понятно — но на всякий случай продолжайте тренировать лоры ☕️
Mostrar todo...
👾 22🍌 5🐳 4🕊 2
Photo unavailableShow in Telegram
[10/10] Ну, что тут можно сказать. Отвлекусь от страшилок про ИИ и страшный Китай тем, что недавно слушал очередной говноподкаст про НЛО, где выступал бывший аналитик ЦРУ Джон Рамирез (работал он там с 1984 по 2009-й). Там он обмолвился мол, настоящее раскрытие информации (disclosure) состоится в 2027-м году. Почему именно этот год, он не уточнил, да и в целом Джону Рамирезу верить не стоит, но есть нюанс. С этим "две тыщи двадцать седьмым" уфологи носятся как с писаной торбой, постоянно упоминают в подкастах 2-0-2-7 как мантру, гадают на кофейной гуще, что тогда произойдёт, прилетит ли мазершип с Трисоляриса, высадится ли тарелка перед Белым Домом, выскочат ли из "тиктака" Серые, проявит ли себя из параллельного измерения архангел Рамииль и так далее. Я буквально последние полгода в каждом втором посте вижу упоминание 2027-го года и у меня уже реакция такая: если кто-то упоминает, что в 2027 что-то произойдёт, то это стопудово враньё. И весьма забавно читать страшилку про ИИ в контексте этого года. Спешу вас немного успокоить: Леопольд Ашенбреннер и его начальник Илья Суцкевер сильно верят в создание AGI. А вот другие исследователи ИИ в это не сильно-то и верят. Вот Axios, пишет, к примеру, что "по мнению экспертов, проблема "искуственного интеллекта" не может и не решается одними только нейросетями". Тот ИИ, с которым вы привыкли общаться (будь то Алиса, Claude, ChatGPT или любая другая LLM) строго говоря "ИИ" не является. Это просто весьма продвинутый алгоритм предикативного ввода, который печатает вам буковки на экране или же озвучивает их голосом. Он не "думает" и не "размышляет", он делит ранее предоставленную ему информацию (возможно, всю википедию или весь интернет разом) на маленькие кусочки (токены), а потом из этих кусочков создаёт что-то новое - например, пишет ответ на ваш вопрос. Поэтому создание даже "слабого ИИ", который думает на самом деле, это святой Грааль современных ИИ-стартапов. А проверка реальности простая: Ашенбреннер, питающий свои идеи в движении за эффективный альтруизм, является инвестором в технологии ИИ. Так что он не является незаинтересованной стороной. Ему выгодно говорить о том, как ИИ изменит мир и как надо срочно строить триллиардные кластеры. Он считает, что AGI неизбежно разовьется из сегодняшних языковых моделей и ботов. Но, по общему мнению экспертов, этого может и не произойти. Консенсус такой, что ИИ может решить многие задачи человечества и действительно важен для экономики и промышленности. Но то, куда он направляется сейчас, показывает, что создание AGI в целом не имеет большого смысла для человечества в целом. Проще говоря, нам не нужен "суперинтеллект", превосходящий нас, нам нужен "интеллект примерно на нас похожий", который мы могли бы контролировать и, если что, дообучать или переучивать, а то и выключить в любой момент. Так что успокаиваемся и идём пить чай, всё не так уж и страшно. Ну. Наверное. Узнаем в 2027-м.
Mostrar todo...
🐳 48👾 16🕊 7🍌 1
Photo unavailableShow in Telegram
[9/10] - Если мы правы обо всём этом, что мир сильно изменится к концу 2030-х - Мы должны смотреть на всё с позиции "AGI реалиста". Осознать силу и опасность технологии, обеспечить лидерство США и серьезно относиться к безопасности. - Мы обязаны нашим миром и свободой американскому экономическому и военному превосходству. Мы должны поддерживать его и далее с помощью AGI. - Самый большой риск может заключаться в том, что суперинтеллект позволит создать новые средства массового уничтожения, которые получат широкое распространение. - Нам необходимо здоровое лидерство демократических союзников, чтобы иметь хоть какую-то надежду на безопасное преодоление предстоящих вызовов. - Это, вероятно, будет одна из самых нестабильных международных ситуаций за всю историю человечества. стимулы для первого удара могут быть огромными. - Есть нечто жуткое в том, что создание AGI (~2027 год) совпадает по срокам потенциального вторжения Китая на Тайвань. - Нам нужно быстро закрыть лаборатории по разработке ИИ, пока не произошла утечка информации о ключевых прорывах в ближайшие 12-24 месяца. - Мы должны создавать вычислительные кластеры в США, а не в диктаторских государствах, предлагающих легкие деньги. - Американские ИИ-лаборатории обязаны сотрудничать со спецслужбами и военными. Мы должны создавать ИИ для обороны. - Следующие несколько лет в области ИИ будут похожи на ковид в начале 2020 года. Большинство не заметит этого, а затем все изменится очень и очень быстро. - К 2025/2026 годам ИИ будет приносить бигтеху более $100 млрд годового дохода. Мы увидим оценки и в $10 трлн. - К 2027/2028 году начнут появляться полноценные агенты ИИ, автоматизирующие разработку программного обеспечения и другие рабочие места - Консенсус о том, что мы находимся на пороге создания AGI, будет формироваться по мере того, как эмпирические результаты будут продолжать шокировать людей - Мы, вероятно, увидим первые демонстрации действительно ужасающих возможностей ИИ, например, помощь в создании биооружия - Где-то в 2026/2027 годах настроение в Вашингтоне станет мрачным, поскольку люди начнут осознавать происходящее. - Проект столкнется с огромными проблемами: быстрое создание AGI, противостояние Китаю, управление миллионами ИИ, предотвращение катастрофы - Кто бы ни был назначен руководителем, ему предстоит одна из самых сложных задач в истории человечества. - Если мы справимся, это будет самое важное, что мы когда-либо делали. - Ставки не меньше, чем выживание свободы и демократии, а возможно, и самого человечества - Мы должны относиться к возможности спонтанного появления суперинтеллекта так же серьезно, как ученые относились к возможности цепных ядерных реакций. Никто не верил Лео Силарду насчет них. А мы не можем допустить такой же ошибки с AGI. - Мы разрабатываем самую мощную технологию, когда-либо созданную человечеством. Мы должны относиться к ней именно так. - Практически все остальное, что мы делаем, не будет иметь значения, если мы не обеспечим безопасность и надежность AGI. - Все это произойдет, хотим мы этого или нет. Вопрос только в том, будем ли мы готовы. - Нам необходимо массовое увеличение усилий по исследованию контроля ИИ, обеспечению безопасности и подготовке к предстоящим вызовам. - Правительство должно проснуться и начать относиться к этому как к приоритету национальной безопасности. - Мы должны быть готовы пойти на жесткие компромиссы, например, использовать природный газ для производства электроэнергии, даже если это противоречит климатическим целям. - Экспоненциальный рост сейчас в самом разгаре. 2023 год - это год "пробуждения ИИ". Приготовьтесь к болтанке. - Самое ошеломляющее ускорение технокапитала в истории приведено в движение. Следующие несколько лет будут дикими.
Mostrar todo...
🐳 18👾 6🕊 4🍌 3
Photo unavailableShow in Telegram
[8/10] - Проект (The Project): - Правительство США скорее всего свяжется с разработкой AGI к 2027/2028 годам - Мы увидим, скорее всего, какой-то "Манхэттенский Проект в области AGI" - Частные компании не смогут справится с последствиями внедрения суперинтеллекта для национальной безопасности - Нам нужно участие государства в безопасности, охраны, стабилизации международных отношений и тому подобного - Это не означает национализацию. Это может быть на подряд между Минообороны и подрядчиками по созданию и внедрению AGI. - Конгрессу, скорее всего, придется выделить триллионы на чипы и на развитие энергетики. - Вероятно, будет создана коалиция демократических стран для совместного развития суперинтеллекта - Прикладное применение этой технологии будет процветать, подобно тому, как ядерная энергия последовала за ядерным оружием. - Основная команда исследователей AGI, вероятно, переедет в скрытое безопасное место. Кластер для обучения AGI стоимостью триллион долларов будет строиться с рекордной скоростью.
Mostrar todo...
🐳 12👾 4
Photo unavailableShow in Telegram
[7/10] - Трудности: Свободный Мир должен победить - Создание "сильного ИИ" даст колоссальное военное преимущество. Это будет как скачок от обычного к ядерному оружию. - Китай не стоит списывать со счетов. У них есть четкое видение как быть конкурентоспособными. - Китай скорее всего сможет соперничать с нами в области вычислений. Они уже показали производство 7нм чипов. - Китай может превзойти нас по добычи энергии. Они увеличили своё производство электроэнергии вдвое за последние десять лет, в то время как США не делали ничего. - Если мы не улучшим безопасность, Китай сворует секреты наших алгоритмов. - Авторитарное правительство, получившее в своё распоряжение суперинтеллект будет катастрофой для свободы и демократии. - Сохранение здорового отрыва в ИИ-гонке имеет решающее значение для безопасности. Если они будут к нам слишком близко, мы столкнёмся с рисками "срезания углов" и тому подобных аварий. - Нам нужно опережение их на 1-2 года, а не на 1-2 месяца, чтобы иметь запас для обеспечения собственной безопасности. - США должны рассматривать это как приоритет национальной безопасности. Пока мы не относимся к этому достаточно серьезно.
Mostrar todo...
🐳 13👾 6
Photo unavailableShow in Telegram
[6/10] - Трудности: Проблема контроля искусственного интеллекта (superalignment) - Контролировать ИИ-системы, которые намного умнее нас, это нерешённая задача. Сегодняшние техники контроля не смогут с ним совладать. - Обучение с подкреплением на основе отзывов людей (RLHF) работает прекрасно, но будет опознано суперинтеллектуальными ИИ-системами. - Нам нужно решить проблему "передачи доверия". Как сделать так, чтобы сверхчеловеческие ИИ делали то, что мы от них хотим? - Есть несколько перспективных направлений исследований в этой области, таких как "масштабируемый надзор" (scalable oversight) и исследование обобщений (generalization studies). - Чтобы не отставать от возможностей ИИ в вопросах своего обучения, нам, скорее всего, придется автоматизировать сами исследования по его контролю. - Скачок в области прогресса сверхинтеллекта сделает эту ситуацию чрезвычайно напряженной. Мы можем перейти от уровня человека к уровню сверхчеловека за несколько месяцев. - Нам нужны многочисленные уровни защиты, помимо простого контроля и моральных норм, такие как безопасность, мониторинг и целевое ограничение возможностей ИИ. - Для того чтобы сделать все правильно, потребуется исключительная компетентность и готовность идти на сложные компромиссы. - Мы не готовы к этому настолько, насколько должны быть готовы. Мы слишком полагаемся на удачу.
Mostrar todo...
🐳 14👾 5🕊 1🍌 1
Elige un Plan Diferente

Tu plan actual sólo permite el análisis de 5 canales. Para obtener más, elige otro plan.