cookie

Мы используем файлы cookie для улучшения сервиса. Нажав кнопку «Принять все», вы соглашаетесь с использованием cookies.

avatar

Kali Novskaya

Нейросети, искусство, мысли. Поехали! Разрабатываю LLM и веду команды chatGPT, GPT-3, GPT-4

Больше
Рекламные посты
11 414
Подписчики
+1224 часа
+377 дней
+8930 дней

Загрузка данных...

Прирост подписчиков

Загрузка данных...

У AIRI тоже летняя школа открывается, просто какая-то неделя постов про хорошие летние школы!
Показать все...
🔥 14💯 6 2😐 1
Repost from AIRI Institute
Фото недоступноПоказать в Telegram
Открыт прием заявок на Лето с AIRI!⚡️ В этом году мы запускаем Школу совместно с Передовой Инженерной Школой ИТМО. Программа пройдет в Санкт-Петербурге с 20 по 30 августа. 🗓 Подать заявку можно по ссылке до 23:59 14 июля 2024 года. Школа включает в себя лекции, семинары и практическую работу по направлениям: — Мультимодальные архитектуры и генеративный ИИ в промышленности — Модели воплощенного ИИ и обучение с подкреплением в робототехнике — Искусственный интеллект и химия — Доверенный искусственный интеллект 📍Питание, обучение и проживание бесплатное, оплатить самим нужно будет только проезд. Подавайте заявки и делитесь постом с друзьями и коллегами!
Показать все...
18 6👍 3 1
🌸Oxford LLM School 2024🌸 #nlp #про_nlp Открыт прием заявок в Oxford LLM School for social sciences! Если у вас гуманитарный бэкграунд, и вы хотите погрузиться в устройство LLM и начать изучать их влияние на общество, то это отличная возможность! В программе: вводные лекции в архитектуру языковых моделей, их применение, оценку, агенты. А ещё практические семинары и коллаборативные проекты! Среди лекторов в этом году Гриша Сапунов и я. Буду читать про оценку LLM и какую-то часть про агенты. Когда: 23-27 сентября 2024 Где: Nuffield College (University of Oxford) Дедлайн подачи заявок: 29 июля! 🟣Сайт школы: https://llmsforsocialscience.net 🟣Подать заявку: https://llmsforsocialscience.net/posts/apply
Показать все...
Apply!

Hello there,

38🔥 19 7 5👍 3
Фото недоступноПоказать в Telegram
🌸TLDR: со вчера я Research Scientist Manager в одной из core команд Llama! 6 месяцев собесов, миллион разных секций, технических, лидерских, литкода, бессистемных бесед по 3 часа, а кто вы по гороскопу, 100500 отказов на разных этапов — и вот я в месте, которое считаю одним из самых важных для языковых моделей и опенсорса. Моделирования естественного языка в целом. Отношусь к этому очень серьёзно. Поверьте, на ближайшие месяцы синдром самозванца — мой ближайший друг. Пишите в комментариях, что вам интересно, можно сделать серию постов про практику собеседований в faang и тд.
Показать все...
364🔥 170🎉 42 34👏 14❤‍🔥 10👍 10 5👎 1🤯 1🖕 1
Фото недоступноПоказать в Telegram
#не_про_nlp Вчера был сумасшедший день, не написала вам. У меня апдейт!
Показать все...
🔥 330🤯 50 38❤‍🔥 23👍 18🎉 13👏 11🍾 7 6👎 2🍌 2
Давно по воскресеньям не было #female_vocals — так вот. Провожу день с прекрасной Элизабет Фрайзер, и делюсь с вами Cocteau Twins — Pandora, 1984 Ethereal wave, dream pop https://youtu.be/h_ICl20EJjY?si=cZ4iC3wWbY4gs_P-
Показать все...
Cocteau Twins - Pandora

Taken from the "Treasure" Album.

👍 20 12🔥 3🥱 3❤‍🔥 2🤡 2🌚 2 1👎 1🎉 1
🌸Открытые данные и LLM🌸 #nlp #про_nlp Прошлая неделя выдалась тяжелой для открытых текстовых данных. 🟣Open Library Open Library, большая часть Internet Archive, про которую я рассказывала раньше, проиграла судебный процесс по копирайту против группы американских издательств. Издатели вынудили Archive org удалить более 500 тысяч книг из общественного доступа. Многие из этих книг отсутствуют в оцифрованном виде где-либо еще, а так же составляют базу ссылок и источников Википедии. Заявление архива: — More than 500,000 books have been taken out of lending as a result of Hachette v. Internet Archive, the publishers’ lawsuit against our library, including more than 1,300 banned and challenged books. — We are appealing the decision that led to these takedowns in an effort to restore access to these books for all of our patrons. Надежда есть! Международная федерация библиотек помогает побороться и восстановить доступ, легализуя статус "Controlled Digital Lending". Список из 1300 названий запрещенных книг, которые требовали удалить в первую очередь, включает "1984" Оруэлла, "Оптимизм" Вольтера, "Декамерон" Боккаччо, книги с нетрадиционной любовной сюжетной линией -- это только то, что сразу бросилось в глаза в списке. 🟣Anna's Archive Anna's Archive org заблокирован и переехал на новый домен: https://annas-archive.gs На прошлой неделе в торрент-части появилось несколько десятков новых коллекций, суммарно 60Тб, доступных для скачивания напрямую как датасет либо в формате зашарженных архивов через торрент: — Degruyter — дамп базы научных изданий Degruyter, метаданных пока нет, только архивы на торренте. — Docer — дамп публично доступных документов из агрегатора docer.pl — Duxiu — китайская библиотека оцифрованных книг, в большинстве научная литература, университетские издания. — MagzDB — дамп базы всех периодических изданий из magzdb — Open Library тоже доступна -- эта коллекция везде фигурирует под именем IA Controlled Digital Lending и OpenLibrary. Есть версия датасета от 26 марта, то есть сразу после проигыша суда Archive org. 🟣Ссылка на датасеты: https://annas-archive.gs/datasets 🟣Коммьюнити-торренты https://annas-archive.gs/torrents/upload
Показать все...
Kali Novskaya

#nlp #про_nlp #opensource Немного про насущные проблемы ИИ и интернет-корпусов Одной из предпосылок открытых технологий ИИ является достатоынй объем качественных открытых данных на разных яязыках. К сожалению, проблемы настигают многие источники цифрового знания. Например, в конце марта проект Archive.org, он же the Wayback Machine, он же цифровая библиотека и архив интернета, проиграл в суде с издательствами за право предоставлять бесплатный доступ к оцифрованным книгам. 37 миллионов книг может быть удалено, если и новая апелляция оставит решение суда в силе. 🔹Archive.org — крупнейшая онлайн-библиотека, оцифрованные и машиночитаемые книги на многих языках мира. 🔹Ресурсы с Archive.org являются одним из основных источников для Википедии 🔹Archive.org архивирует сайты, любой желающий может сохранить веб-страницу в ее текущем состоянии с помощью инструментов на сайте 🔹Archive.org живет с донатов и некоммерческого волонтерства с 1996 года. Сейчас коллекция, помимо книг, состоит из 7,9 млн фильмов, видео и телепередач, 842 тыс. программ, 14 млн аудиофайлов, 4 млн изображений, 2,4 млн телеклипов, 237 тыс. концертов и более 682 млрд веб-страниц в Wayback Machine. Судебный процесс:

https://www.battleforlibraries.com/

Промежуточный итог:

https://blog.archive.org/2023/03/25/the-fight-continues/

46👍 21 5 4🤯 2😱 2
В честь пятницы — мемотред! Давно не было #шитпост
Показать все...
👍 42😁 20🔥 15 10 8👎 2 1
🌸Обучаем(ся) LLM с нуля🌸 #nlp #про_nlp Андрей Карпаты продолжает создавать прекрасный образовательный контент по LLM после ухода из OpenAI! Теперь, помимо замечательных видео, появился еще репозиторий с будущими главами учебника на Github по тренировке LLM с нуля, дообучению, мультимодальности, инференсу моделей, квантизации — и многим другим темам! Курс — LLM101n: Let's build a Storyteller 🟣Github: https://github.com/karpathy/LLM101n Курс точно будет интересен всем индустриальным специалистам и студентам, желающим погрузиться в работу с реальными инженерными проблемами своими руками. Заявленные темы: Chapter 01 Bigram Language Model (language modeling) Chapter 02 Micrograd (machine learning, backpropagation) Chapter 03 N-gram model (multi-layer perceptron, matmul, gelu) Chapter 04 Attention (attention, softmax, positional encoder) Chapter 05 Transformer (transformer, residual, layernorm, GPT-2) Chapter 06 Tokenization (minBPE, byte pair encoding) Chapter 07 Optimization (initialization, optimization, AdamW) Chapter 08 Need for Speed I: Device (device, CPU, GPU, ...) Chapter 09 Need for Speed II: Precision (mixed precision training, fp16, bf16, fp8, ...) Chapter 10 Need for Speed III: Distributed (distributed optimization, DDP, ZeRO) Chapter 11 Datasets (datasets, data loading, synthetic data generation) Chapter 12 Inference I: kv-cache (kv-cache) Chapter 13 Inference II: Quantization (quantization) Chapter 14 Finetuning I: SFT (supervised finetuning SFT, PEFT, LoRA, chat) Chapter 15 Finetuning II: RL (reinforcement learning, RLHF, PPO, DPO) Chapter 16 Deployment (API, web app) Chapter 17 Multimodal (VQVAE, diffusion transformer) Пока курс создается, можно пересмотреть плейлист Neural Networks: Zero to Hero
Показать все...
[1hr Talk] Intro to Large Language Models

This is a 1 hour general-audience introduction to Large Language Models: the core technical component behind systems like ChatGPT, Claude, and Bard. What they are, where they are headed, comparisons and analogies to present-day operating systems, and some of the security-related challenges of this new computing paradigm. As of November 2023 (this field moves fast!). Context: This video is based on the slides of a talk I gave recently at the AI Security Summit. The talk was not recorded but a lot of people came to me after and told me they liked it. Seeing as I had already put in one long weekend of work to make the slides, I decided to just tune them a bit, record this round 2 of the talk and upload it here on YouTube. Pardon the random background, that's my hotel room during the thanksgiving break. - Slides as PDF:

https://drive.google.com/file/d/1pxx_ZI7O-Nwl7ZLNk5hI3WzAsTLwvNU7/view?usp=share_link

(42MB) - Slides. as Keynote:

https://drive.google.com/file/d/1FPUpFMiCkMRKPFjhi9MAhby68MHVqe8u/view?usp=share_link

(140MB) Few things I wish I said (I'll add items here as they come up): - The dreams and hallucinations do not get fixed with finetuning. Finetuning just "directs" the dreams into "helpful assistant dreams". Always be careful with what LLMs tell you, especially if they are telling you something from memory alone. That said, similar to a human, if the LLM used browsing or retrieval and the answer made its way into the "working memory" of its context window, you can trust the LLM a bit more to process that information into the final answer. But TLDR right now, do not trust what LLMs say or do. For example, in the tools section, I'd always recommend double-checking the math/code the LLM did. - How does the LLM use a tool like the browser? It emits special words, e.g. |BROWSER|. When the code "above" that is inferencing the LLM detects these words it captures the output that follows, sends it off to a tool, comes back with the result and continues the generation. How does the LLM know to emit these special words? Finetuning datasets teach it how and when to browse, by example. And/or the instructions for tool use can also be automatically placed in the context window (in the “system message”). - You might also enjoy my 2015 blog post "Unreasonable Effectiveness of Recurrent Neural Networks". The way we obtain base models today is pretty much identical on a high level, except the RNN is swapped for a Transformer. http://karpathy.github.io/2015/05/21/rnn-effectiveness/ - What is in the run.c file? A bit more full-featured 1000-line version hre:

https://github.com/karpathy/llama2.c/blob/master/run.c

Chapters: Part 1: LLMs 00:00:00 Intro: Large Language Model (LLM) talk 00:00:20 LLM Inference 00:04:17 LLM Training 00:08:58 LLM dreams 00:11:22 How do they work? 00:14:14 Finetuning into an Assistant 00:17:52 Summary so far 00:21:05 Appendix: Comparisons, Labeling docs, RLHF, Synthetic data, Leaderboard Part 2: Future of LLMs 00:25:43 LLM Scaling Laws 00:27:43 Tool Use (Browser, Calculator, Interpreter, DALL-E) 00:33:32 Multimodality (Vision, Audio) 00:35:00 Thinking, System 1/2 00:38:02 Self-improvement, LLM AlphaGo 00:40:45 LLM Customization, GPTs store 00:42:15 LLM OS Part 3: LLM Security 00:45:43 LLM Security Intro 00:46:14 Jailbreaks 00:51:30 Prompt Injection 00:56:23 Data poisoning 00:58:37 LLM Security conclusions End 00:59:23 Outro

94🔥 35 11👍 6 6
Repost from Рабкор
00:14
Видео недоступноПоказать в Telegram
🥳Джулиан Ассанж на свободе! Журналист заключил сделку с прокуратурой США. В обмен на признание вины Ассанжу зачтут срок пребывания в тюрьме Белмарш (5 лет) как наказание. Сейчас Ассанж направляется на остров Сайпан (территория США), где состоится финальный суд по его делу. После признания вины, суд отпустит Ассанжа на его родину - в Австралию. Ассанж не был на родине больше 15 лет, с 2010 года он находился под следствием, с 2012 по 2019 года безвылазно в здании посольства Эквадора в Лондоне, а с 2019 по 2024 в тюрьме строго режима Белмарш. Освобождение Ассанжа - это результат не только качественной работы его адвокатов, но и широкая кампания в защиту журналиста, инициированная ресурсом Wikileaks. Ассанжа поддерживали множество социальных движений, деятелей культуры, лидеры левых партий и движений, среди них Джереми Корбин, Янис Варуфакис, Жан-Люк Меланшон и многие другие.
Показать все...
2.06 MB
🔥 140👍 36 17❤‍🔥 8🤡 5👀 4🥱 2👎 1😁 1🎉 1
Выберите другой тариф

Ваш текущий тарифный план позволяет посмотреть аналитику только 5 каналов. Чтобы получить больше, выберите другой план.