cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Mikhail Samin

Effective altruist, founded AudD.io, printed 21k copies (63k books!) of гпмрм.рф. He/him, bi 🏳️‍🌈 Contact me: @Mihonarium contact.ms x.com/mihonarium

Show more
Advertising posts
1 555
Subscribers
-124 hours
No data7 days
-330 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Давно не делился тут новостями! Чаще пишу в Твиттер. Например, попытался проверить скилл Юдковского удивляться вымыслу больше, чем реальности, но реальность отказалась быть удивительной (маловероятное стечение обстоятельств -> пранк не сработал): https://twitter.com/Mihonarium/status/1706219836727341146 Все средства, собранные на краудфандинге в 2018, официально потрачены (и ещё >миллиона сверху). Подробности и отчётность. 150 личных трёхтомников решил подарить за пожертвовани на отправку книг победителям олимпиад и в библиотеки; ещё экземпляр можно получить за пожертвование в MIRI. (Пишите в личные сообщения, @Mihonarium)
Show all...
Mikhail Samin on X

Reality refuses to be confusing around Eliezer! Please don’t read this tweet if you might experience this IRL- spoilers! I have an awesome spinner. I use it as a fun test of the core rationality skill to be surprised by fiction more than by rationality: I ask people to give a…

👍 14 10
Китай на сегодняшнем Совбезе ООН: “The potential impact of AI might exceed human cognitive boundaries. To ensure that this technology always benefits humanity, we must regulate the development of AI and prevent this technology from turning into a runaway wild horse”
Show all...
TED talk Юдковского наконец выложили https://youtu.be/Yd0yQ9yxSYY | https://www.ted.com/talks/eliezer_yudkowsky_will_superintelligent_ai_end_the_world (У него было четыре дня на подготовку. В начале опубликованной записи вырезано "You've heard that things are moving fast in artificial intelligence. How fast? So fast that I was suddenly told on Friday that I needed to be here. So, no slides, six minutes")
Show all...
Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED

Decision theorist Eliezer Yudkowsky has a simple message: superintelligent AI could probably kill us all. So the question becomes: Is it possible to build powerful artificial minds that are obedient, even benevolent? In a fiery talk, Yudkowsky explores why we need to act immediately to ensure smarter-than-human AI systems don't lead to our extinction. If you love watching TED Talks like this one, become a TED Member to support our mission of spreading ideas:

https://ted.com/membership

Follow TED! Twitter:

https://twitter.com/TEDTalks

Instagram:

https://www.instagram.com/ted

Facebook:

https://facebook.com/TED

LinkedIn:

https://www.linkedin.com/company/ted-conferences

TikTok:

https://www.tiktok.com/@tedtoks

The TED Talks channel features talks, performances and original series from the world's leading thinkers and doers. Subscribe to our channel for videos on Technology, Entertainment and Design — plus science, business, global issues, the arts and more. Visit

https://TED.com

to get our entire library of TED Talks, transcripts, translations, personalized talk recommendations and more. Watch more:

https://go.ted.com/eliezeryudkowsky

https://youtu.be/Yd0yQ9yxSYY

TED's videos may be used for non-commercial purposes under a Creative Commons License, Attribution–Non Commercial–No Derivatives (or the CC BY – NC – ND 4.0 International) and in accordance with our TED Talks Usage Policy:

https://www.ted.com/about/our-organization/our-policies-terms/ted-talks-usage-policy.

For more information on using TED for commercial purposes (e.g. employee learning, in a film or online course), please submit a Media Request at

https://media-requests.ted.com

#TED #TEDTalks #ai

Начинаем через несколько минут. Можно продолжать задавать вопросы по ссылке и в комментариях
Show all...
Думаю, попробую провести небольшое Q&A об алайнменте. Задавать вопросы и голосовать за заданные другими можно заранее по этой ссылке
Show all...
Photo unavailable
Если пройдёте свободный курс AI Safety Fundamentals, созданный при поддержке сотрудников OpenAI, DeepMind и Anthropic (материалы на английском), подарю вам трёхтомник ГПиМРМ. Бесплатный самовывоз в Москве; по России курьерская доставка за мой счёт если прошедших людей будет немного, или за ваш счёт (обычно 300-450 рублей) если много. После прохождения пишите мне в личные сообщения. Курс — https://course.aisafetyfundamentals.com/alignment
Show all...
Photo unavailable
Если пройдёте свободный курс AI Safety Fundamentals, созданный при поддержке сотрудников OpenAI, DeepMind и Anthropic (материалы на английском), подарю вам трёхтомник ГПиМРМ. Бесплатный самовывоз в Москве; по России курьерская доставка за мой счёт если прошедших людей будет немного, или за ваш счёт (обычно 300-450 рублей) если много. После прохождения пишите мне в личные сообщения. Курс — https://course.aisafetyfundamentals.com/alignment
Show all...
Photo unavailable
Show all...
Statement on AI risk, подписанный руководителями OpenAI, Google DeepMind, Anthropic, тремя обладателями Премии Тьюринга и др.: Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war. https://www.safe.ai/statement-on-ai-risk
Show all...
Statement on AI Risk | CAIS

A statement jointly signed by a historic coalition of experts: “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”

Statement on AI risk, подписанный руководителями OpenAI, Google DeepMind, Anthropic, тремя обладателями Премии Тьюринга и др.: Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war. https://www.safe.ai/statement-on-ai-risk
Show all...
Statement on AI Risk | CAIS

A statement jointly signed by a historic coalition of experts: “Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”