cookie

Sizning foydalanuvchi tajribangizni yaxshilash uchun cookie-lardan foydalanamiz. Barchasini qabul qiling», bosing, cookie-lardan foydalanilishiga rozilik bildirishingiz talab qilinadi.

avatar

Mashkka про Data Science

Пишу здесь про Data Science, NLP и жизнь в ИТ

Ko'proq ko'rsatish
Reklama postlari
2 886
Obunachilar
+1024 soatlar
+537 kunlar
+10830 kunlar
Post vaqtlarining boʻlagichi

Ma'lumot yuklanmoqda...

Find out who reads your channel

This graph will show you who besides your subscribers reads your channel and learn about other sources of traffic.
Views Sources
Nashrni tahlil qilish
PostlarKo'rishlar
Ulashishlar
Ko'rish dinamikasi
01
👣По следам DataFest Ловите запись моего доклада Как ковалась MERA: кодовая база под капотом бенчмарка, который я рассказывала на DataFest Новосибирск. В докладе рассказываю про методологию оценки на бенчмарке и про то, как запускать скрипт оценки и гонять свои модели на нем (ведь именно это и интересует вас больше всего, я права?). 🗣А про сам бенчмарк и задачи, представленные на нем, мы рассказывали на Giga R&D Day. 🫶🏻 Спасибо соавторам @alenusch, @arorlov и Леониду, а также всем, кто вместе с нами MERA ковал! 💭 Запись ✨ Слайды 🧬 Статья #трудовыебудни #datafest #nlp #datascience #datafest #llm
732Loading...
02
Всем привет! 👋🏻 ✌🏻 На днях Лиза Петрова вместе с Марией Бочаровой из проекта Лингвоподкаст 🗣️ записали новый выпуск подкаста, в котором обсудили распознавание русского жестового языка. 🙌🏻 Лиза рассказала, с какими трудностями сталкивались наша команда при решении этой задачи, как их удалось преодолеть и какие есть перспективные направления развития. 🫶🏻 Скоро подкаст будет доступен на всех площадках, а пока что можете посмотреть другой выпуск с участием нашей коллеги из SberDevices Марии Тихоновой, где она рассказывает про большие языковые модели и то, как они изменили мир: Большие языковые модели и тренды в NLP | Мария Тихонова, Sber Devices
5154Loading...
03
📚Digest полезных материалов по ML 🔽Матричное дифференцирование 1️⃣ Семинар с объяснением и выводом основных формул с курсаФКН ВШЭ 2️⃣ Статья из MLучебника Школы Анализа данных по матричному дифференцированию 3️⃣ Объяснение на YouTube про матричные производные @mashkka_ds #ml_на_пальцах #полезныематериалы #usefullinks #ml #datascience
74038Loading...
04
✨Выступила на DataFest в Новосибирске Вчера выступила на Новосибирском DataFest, представив MERA - наш бенчмарк для оценки фундаментальных моделей. В этот раз рассказывала про то, как делать сабмиты и как оценивать свои модели на нем. Запись скоро будет, а про сам бенчмарк MERA можете посмотреть наш доклад с Giga R&D Day. 👉🏻Слайды
1 2016Loading...
05
🤖По следам открытого вебинара Сингулярное разложение в рекомендательных системах На открытом уроке в OTUS, посвященному рекомендательным системам, рассказала, как устроены рекомендательные системы на основе сингулярного разложения и как это применить на практике. 🔘Решили погрузиться в область по полной и освоить самые продвинутые методы ML? Тогда приходите на наш курс ML Advanced. Новый поток стартует уже в конце июня! Warning: ML Advanced - это продвинутый курс! 🖥Запись 📖Практика 👩‍🏫Курс
1 2029Loading...
06
17, 24 и 31 мая прошли открытые лекции от Дмитрия Морозова, Александры Брызгаловой и Марии Тихоновой! Дмитрий Морозов в рамках своей лекции рассказал, зачем Национальный корпус русского языка нужен лингвистам, переводчикам, учителям и NLP-инженерам, с какими трудностями приходится сталкиваться при разработке корпусной платформы. Александра Брызгалова рассказала про теорию ограничений и проектное управление. Теория ограничений — это методология управления системами, созданная израильским физиком Элияху Голдраттом. Инструменты ТОС можно использовать для устранения ограничений любых систем, а значит и повышения их эффективности. На заключительной лекции этого семестра выступила Мария Тихонова. Мария рассмотрела проблему определения того, что такое «хорошо» и что такое «плохо» в мире больших нейросетей, рассказала, какие их «способности» необходимо оценивать и многое другое. Спасибо, что активно посещали наши открытые лекции. Записи всех выступлений вы можете посмотреть в нашей группе в ВК!
1 08311Loading...
07
✨Стала звездой НГУ 👩‍🦰Хотела сухо написать про выступление, а получился немного эмоциональный пост. ПрАстите меня, уж больно хорошо меня встретили в НГУ. На вторую половину недели перебазировалась в Академгородок Новосибрска, где у меня целых два выступления: с открытой лекцией в НГУ и на местном DataFest. Думала скромно выступить перед компьютерными лингвистами, а мою открытую лекцию, посвященную проблемам оценки LLM, распиарили на весь универ. Раскреили афиши по всему зданию, мое фото приветливо улыбнулось мне со студенческого ТВ, а на само выступление, несмотря на сессию, собрался полный зал. Меня пришли слушать даже местные профессора. Очень приятно, что тема того, как правильно измерять качество больших языковых моделей, сегодня так востребована. Ведь оценка - крайне важный аспект. Как говорится: 💭"Если вы не можете что-то измерить, значит, вы не можете улучшить это" (с) На самой лекции порадовали вдумчивые вопросы, реакция, которую вызвал доклад, и тот теплый прием, который мне оказали в НГУ. Уже ради этого стоило ехать за 4 часовых пояса, а впереди еще DataFest. #трудовыебудни #nlp #dl #ds #llm 👉🏻Слайды можете найти тут. 👇Запись будет ниже в посте👇
9264Loading...
08
Не будем медлить, сразу делимся записью Во вторник Мария Тихонова, преподаватель онлайн-магистратуры “Master of Data Science”, провела вебинар “Introduction to Neural Networks”. Вместе со спикером слушатели решили несколько кейсов по глубинному обучению (Deep Learning). Мария Тихонова рассказала про эволюцию алгоритмов, классификации нейросетей и их устройство. Кроме того, слушатели узнали, как обучить нейросеть, чтобы она понимала все запросы. 🎥 Чтобы вспомнить или посмотреть вебинар, переходите по ссылке
9889Loading...
09
#пятничныемемасы
1 17229Loading...
10
Парень провёл абсолютно гениальный эксперимент — «Обратный тест Тьюринга». Он создал на Unity купе, где собрал известных исторических личностей под управлением разных ИИ. Задача безумная — нейросети знают, что среди них есть человек и им нужно его вычислить. Задача чувака — правдоподобно отыграть ИИ-Чингисхана, чтобы не покупать билет. Специально для вас сделали перевод на русский язык. @exploitex
1 03949Loading...
11
🇮🇹Turin my impressions 🗣Обещала поделиться впечатлениями из Турина. Я в Италии уже пятый раз и пока Турин явно в топе моих Итальянских городов. Это прекрасный город с очень целостным старым городом, который покоряет своим шармом и красотой. И кажется, по нему можно бесконечно гулять. 👇Нагулявшись по старому городу, можно посетить что-то из моего топ-листа👇 ⠀ ✔️Моле Антонеллиана (Mole Antonelliana): эта башня истинный символ города, без ее шпиля на фоне неба Турин уже не Турин. И не забудьте подняться на историческом лифте на вершину, откуда открывается потрясающая панорама на Турин. ✔️Музей кинематографа (Museo nazionale del cinema): этот необычный музей внутри Моле Антонеллиана. По спирали винтовой лестницы музей проведет вас сквозь череду фильмов: от классики с Одри Хепберн до Tim Burton World. ✔️Королевский дворец (Palazzo Reale): главный дворец и главная достопримечательность города. Обязательно загляните сюда увидеть, с каким шиком жили Итальянские короли. ✔️Площадь Кастелло (Piazza Castello): сердце старого города, которое невозможно пропустить! ✔️Королевский театр (Teatro Regio): один из старейших и самых престижных театров Италии. Сам театр точно стоит того, чтобы его посетить. ✔️Собор Святого Иоанна Крестителя (Duomo di San Giovanni): главный собор города, куда же без него. ✔️Палантийские ворота (Porta Palatina): античное наследие Турина, упоминающиеся во всех путеводителях. ✔️Базилика Суперга (Basilica di Superga): прекрасная католическая церковь на соседнем с Турином холме, откуда открывается захватывающий панорамный вид. ➖Египетский музей (Museo Egizio): второй по величине египетский музей в мире после Каира, в который я не дошла, так что прокомментировать не могу. ➖Дворец Мадама (Palazzo Madama): причудливое сооружение в центре Турина, больше похожее на крепость, чем на дворец. Внутри находится музей античного искусства. ➖Замок Валентино (Castello e Parco del Valentino): прекрасный дворец с первого взгляда поражает своими размерами и великолепием. @mashkka_ds ⠀ #mashkka_italia #новостисполей
1 2693Loading...
12
🤖Как работает ChatGPT для чайников простыми словами (habr edition) 👵🏻Даже твоя бабушка поймет Уже писала про шикарный видео ликбез о том, как работает ChatGPT, но почему-то не упомянула, что по мотивам видео есть еще и статья "Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда". Простыми словами, так что понятно будет даже тем, кто далек от Data Science, но при этом все точно и по существу. Порог входа: знать, что такое T9, остальное автор чудесно объяснит! Кстати, статья стала победительницей ежегодного конкурса Технотекст на Хабре. #nlp #chatgpt
1 08037Loading...
13
📚Обзор с LREC-COLING'24 ⏰Part 3 🗣Собралась и написала заключительную часть обзора статей, про которые хотела рассказать. ❕Обзор субъективный и составлен на усмотрение автора ➖Uncovering the Potential of ChatGPT for Discourse Analysis in Dialogue: An Empirical Study Статья исследует возможности ChatGPT в анализе дискурса диалогов, включая сегментацию тем и парсинг дискурса, выявляя его сильные и слабые стороны в понимании линейных и иерархических структур. ➖Explicit over Implict: Explicit Diversity Conditions for Effective Question Answer Generatio Метод генерации разнообразных QA пар для генерации синтетических QA датасетов. В статье авторы выводят явные условия разнообразия для QAG, уделяя особое внимание пространственным аспектам, типам вопросов и именованным сущностям, что существенно увеличивает разнообразие при формировании вопросно-ответных пар. ➖Distillation with Explanations from Large Language Models Метод обучения моделей небольшого размера генерировать точные предсказаний и объяснения к ним в виде текста в свободной форме на основе аналогичных ответов с объяснениями от больших LLM. ➖LinguaMeta: Unified Metadata for Thousands of Languages Статья представляет LinguaMeta, унифицированную базу данных метаданных для тысяч языков, которая включает информацию о языковых кодах, названиях, количестве носителей, системах письма, странах использования, официальном статусе и географических координатах. ➖HumanEval-XL: A Multilingual Code Generation Benchmark for Cross-lingual Natural Language Generalization HumanEval-XL - бенчмарк для мультиязычной генерации кода, который связывает 23 естественных языка с 12 языками программирования, обеспечивая комплексную оценку мультиязычных моделей. @mashkka_ds #nlpобзор #новостисполей #nlp #mashkka_italy #lreccoling
98610Loading...
14
⚡️Сегодня мы выпустили обновлённую версию Kandinsky Video 1.1 в публичный доступ Основные изменения коснулись качества генерации (поработали с самим пайплайном синтеза, улучшили латентный декодер, использовали значительно бОльший сет на обучении) и, конечно, скорости - видео длиной 5 секунд генерируется примерно за 1.5 минуты (это если без очереди) с FPS=30. 📖 Детали по классике в Хабре 🛜 Ссылки собрали на Project Page 🤖 Бот в телеграмм теперь и с видео @complete_ai
1 04212Loading...
15
В чем разница между машинным и глубинным обучением? Про второе можно узнать на вебинаре 28 мая На вебинаре "Introduction to Neural Networks" Мария Тихонова расскажет про основы глубинного обучения (Deep Learning) и концепции нейронных сетей. Посетив вебинар, вы сможете узнать: ⭐️ Как качественно обучить нейросеть, чтобы она понимала все запросы; ⭐️ Что лежит в основе создания современных нейронных сетей; ⭐️ Можно ли создать свою нейросеть. Для кого: для всех, кто хочет разобраться в структуре нейронных сетей с самых азов. 🎙️ Спикер: Мария Тихонова, Senior Data Scientist в SberDevices 📆 Дата: 28 мая, 18:00 📕 Зарегистрироваться по ссылке ➖➖➖➖➖➖ Вебинар организован онлайн-магистратурой "Master of Data Science" и пройдет на английском языке.
1 11911Loading...
16
🇯🇵Невероятно, но факт: неожиданные особенности Японии Задолжала вам подборку интересных фактов про Японию. Решила, что вечер пятницы для подобного поста - отличных день. ⠀ ➖У японцев не принято говорить громко, они говорят тихо, почти шепотом. ➖Все купюры выглядят как новые, так как в банкоматах и во всех автоматах они проходят через цикл обеззараживания и отпаривания. Таких помятых банкнот как у нас тут просто не найти. ➖Японки любят носить ультракороткие юбки, но у них не принято глубокое декольте и даже плечи в городе предпочитают не оголять несмотря на жару. ➖В Японии на улице нет общественных урн от слова совсем, здесь все носят мусор с собой, выкидывая его дома. А бросать его на улице - великий грех. Мусорок крайне мало, они есть разве что в 7eleven и кафе. Общественный туалет здесь намного проще найти (и часто проще найти его и выкинуть мусор там). ➖Во многих местах, например, в традиционных ресторанах, принято снимать в обувь и надевать специальные тапочки для гостей, либо ходить в носках. В последнем случае в уборной будут стоять специальные тапочки для туалета, которыми можно воспользоваться, когда заходишь туда. ➖В Японии все унитазы в уборных с подогревом! И даже если туалет общественный, то там обязательно будет теплый унитаз, а еще многофункциональное биде и возможность включить звук воды. ➖Японцы всячески избегают солнца, и чтобы на кожу не попадали его лучи, многие местные жители, даже мужчины, ходят по городу, спрятавшись под зонтиком. ➖Япония - не страна суперсовременных технологий. Технологии здесь застряли в нулевых годах, но про это у меня был отдельный пост. А если вы вдохновитесь съездить в Японию, то @mashajapan сможет помочь вам оформить визу всего за несколько дней без горы бумажек и очередей. ⠀ #mashkka_japan
1 57516Loading...
17
📚Обзор с LREC-COLING'24 ⏰Day 2 ❕Обзор субъективный и составлен на усмотрение автора ➖Has It All Been Solved? Open NLP Research Questions Not Solved by Large Language Models Большой обзор открытых вопросов и областей для исследователей, актуальных в эпоху LLM. выявляют 14 наиболее актуальных сегодня в NLP областей, включающих 45 различных направлений, которые остаются остаются актуальными сегодня. ➖NumHG: A Dataset for Number-Focused Headline Generation Статья посвящена новому датасету для генерации новостных заголовков с акцентом на числа. Корпус NumNG й содержит более 27 тысяч новостных статей с большим количеством чисел в новостных текстах. ➖Grammatical Error Correction for Code-Switched Sentences by Learners of English В работе авторы изучают применение спеллчекеров для текстов написанных на смеси языков. Они предлагают новый метод создания синтетических наборов данных на смеси языков для задачи спеллчека, исследуя методы генерации подобных данных. Automating Dataset Production Using Generative Text and Image Models Способ автоматической генерации текстово-визуальных датасетов с использованием генеративных моделей и моделей для работы с картинками. Их подход подход включает (1) генерацию текста с помощью LLMs; (2) генерацию сопутствующих изображений с помощью text-to-image моделей; и (3) человеческую оценку. @mashkka_ds #nlpобзор #новостисполей #nlp #mashkka_italy #lreccoling
1 22213Loading...
18
📚Обзор с LREC-COLING'24 ⏰Day 1 ❕Обзор субъективный и составлен на усмотрение автора NumHG: A Dataset for Number-Focused Headline GenerationNumHG: A Dataset for Number-Focused Headline Generation Статья посвящена новому датасету для генерации новостных заголовков с акцентом на числа. Корпус NumNG й содержит более 27 тысяч новостных статей с большим количеством чисел в новостных текстах. NumHG: A Dataset for Number-Focused Headline GenerationGrammatical Error Correction for Code-Switched Sentences by Learners of English @mashkka_ds #nlpобзор #новостисполей #nlp #mashkka_italy #lreccoling
11Loading...
19
#пятничныемемасы Подсмотренно у @oulenspiegel_channel
1 54918Loading...
20
🤖🦒Открыли двери нашего зоопарка моделей на LREC-COLING🤖🦒 Представили с коллегой наш зоопарк русскоязычных модлей на LREC-COLING, включающий 13 open-source трансформеных моделей для русского языка, которые мы обучали на протяжении последних лет. Для меня это важная работа, потому что она подводит научный итог тому, что наши команды делали на протяжении последних лет. Ведь сегодня эти модели - ведущие среди аналогичных архитектур и насчитывают десятки тысяч скачиваний в месяц на HugginFace (у ruBERT, например почти скачиваний 25к+ за апрель) и для меня крайне важно, что это в итоге оформилось в единый научный рисерч и что мы смогли представить их на ведущей мировой NLP конференции. 🤗HuggingFace repo 📚Paper #nlpобзор #новостисполей #nlp #mashkka_italy #lreccoling
1 3703Loading...
21
Сбер запустил бесплатный онлайн-курс «Работа с LLM GigaChat» 🔥 Курс СберУниверситета по основам промпт-инжиниринга состоит из двух разделов: 🖥 «Промпт-инжиниринг», который даёт представление о том, как работает GigaChat, какие задачи можно решать с помощью сервиса и как писать эффективные текстовые запросы 🖥 «Продвинутый уровень: системный промптинг, GigaChain, RAG», который учит создавать системные запросы и получать предсказуемые ответы для автоматизации бизнес-задач Обучение подходит тем, кто хочет разобраться, как работать с генеративными моделями и использовать их для решения различных задач — от анализа данных до автоматизации процессов. А ещё у Сбера есть другие бесплатные курсы по обращению с нейросетевыми моделями на платформе Edutoria. Например, по эффективной генерации видео в Kandinsky. Посмотреть их можно здесь.
1 01266Loading...
22
📚Обзор с LREC-COLING'24 ⏰Day 1 ❕Обзор субъективный и составлен на усмотрение автора ➖ Discriminative Language Model as Semantic Consistency Scorer for Prompt-based Few-Shot Text Classification - nominated for best paper awards Метод prompt-based finetuning (DLM-SCS) для few-shot классификации текстов, основанный на идее, что промпт истинного лейбла, имеет высокий показатель семантической согласованности (semantic consistency score). Авторы раскладывают промпт на компоненты, для которых по отдельности вычисляется согласованность. ➖Towards Robust In-Context Learning for Machine Translation with Large Language Models - nominated for best paper awards LLMs в задаче машинного перевода (MT) набирают популярность. Основная идея подхода заключается в том, чтобы собрать несколько демонстраций из доп. корпуса, которые затем используются для управляемой генерации. Авторы предлагают робастный метод поиска качественных демонстраций, с помощью поиска, который использует информацию на уровне слов и на уровне предложений. ➖SciNews: From Scholarly Complexities to Public Narratives – a Dataset for Scientific News Report Generation Автоматическая генерация научных сводок (scientific reports) делает науку более доступной. Авторы представляют новый параллельный корпус, состоящий из научных публикаций и сводок по 9 дисциплинам. ➖Diversifying Question Generation over Knowledge Base via External Natural Questions Авторы предложили новую метрику оценки разнообразия сгенерированных вопросов на основе KBQG. А для решения задачи генерации разнообразных вопросов они используют двойную модель с двумя стратегиями генерации. ➖ EROS:Entity-Driven Controlled Policy Document Summarization Согласия на обработку перс данных отличаются длиной и большим числом терминов. Авторы предлагают сделать их чтение проще с помощью управляемой абстрактивной суммаризации, обеспечивая при этом сохранность оригинальных сущностей и основного содержания. @mashkka_ds #nlpобзор #новостисполей #nlp #mashkka_italy #lreccoling
1 07714Loading...
23
🇮🇹LREC-COLING'24 is just about to start Вот-вот начнется одна из крупнейших NLP конференций - LREC-COLING, которая в этом году объединила целых две: LREC и COLING. Почти 3,5к сабмитов, невероятное количество интересных статей по самым разным темам от LLM до графов знаний. От обилия интересных докладов разбегаются глаза. В этот раз я постараюсь не только делиться впечатлениями, но и писать краткие описания наиболее интересных статей для меня. Но предупреждаю сразу, что подборка будет крайне субъективная, так как то, что показалось интересным мне не факт, что будет настолько же актуально вам, да и в потоке статей я вполне могла что-то пропустить. #nlp #coling #nlpconference #datascience #deeplearning #mashkka_italy #носвостисполей
1 0673Loading...
Photo unavailableShow in Telegram
👣По следам DataFest Ловите запись моего доклада Как ковалась MERA: кодовая база под капотом бенчмарка, который я рассказывала на DataFest Новосибирск. В докладе рассказываю про методологию оценки на бенчмарке и про то, как запускать скрипт оценки и гонять свои модели на нем (ведь именно это и интересует вас больше всего, я права?). 🗣А про сам бенчмарк и задачи, представленные на нем, мы рассказывали на Giga R&D Day. 🫶🏻 Спасибо соавторам @alenusch, @arorlov и Леониду, а также всем, кто вместе с нами MERA ковал! 💭 Запись Слайды 🧬 Статья #трудовыебудни #datafest #nlp #datascience #datafest #llm
Hammasini ko'rsatish...
👍 2
Repost from RnD CV Team
Photo unavailableShow in Telegram
Всем привет! 👋🏻 ✌🏻 На днях Лиза Петрова вместе с Марией Бочаровой из проекта Лингвоподкаст 🗣️ записали новый выпуск подкаста, в котором обсудили распознавание русского жестового языка. 🙌🏻 Лиза рассказала, с какими трудностями сталкивались наша команда при решении этой задачи, как их удалось преодолеть и какие есть перспективные направления развития. 🫶🏻 Скоро подкаст будет доступен на всех площадках, а пока что можете посмотреть другой выпуск с участием нашей коллеги из SberDevices Марии Тихоновой, где она рассказывает про большие языковые модели и то, как они изменили мир: Большие языковые модели и тренды в NLP | Мария Тихонова, Sber Devices
Hammasini ko'rsatish...
🔥 12👍 3 2🥰 1
Photo unavailableShow in Telegram
📚Digest полезных материалов по ML 🔽Матричное дифференцирование 1️⃣ Семинар с объяснением и выводом основных формул с курсаФКН ВШЭ 2️⃣ Статья из MLучебника Школы Анализа данных по матричному дифференцированию 3️⃣ Объяснение на YouTube про матричные производные @mashkka_ds #ml_на_пальцах #полезныематериалы #usefullinks #ml #datascience
Hammasini ko'rsatish...
🔥 21❤‍🔥 5 2
Photo unavailableShow in Telegram
Выступила на DataFest в Новосибирске Вчера выступила на Новосибирском DataFest, представив MERA - наш бенчмарк для оценки фундаментальных моделей. В этот раз рассказывала про то, как делать сабмиты и как оценивать свои модели на нем. Запись скоро будет, а про сам бенчмарк MERA можете посмотреть наш доклад с Giga R&D Day. 👉🏻Слайды
Hammasini ko'rsatish...
22👍 4
Photo unavailableShow in Telegram
🤖По следам открытого вебинара Сингулярное разложение в рекомендательных системах На открытом уроке в OTUS, посвященному рекомендательным системам, рассказала, как устроены рекомендательные системы на основе сингулярного разложения и как это применить на практике. 🔘Решили погрузиться в область по полной и освоить самые продвинутые методы ML? Тогда приходите на наш курс ML Advanced. Новый поток стартует уже в конце июня! Warning: ML Advanced - это продвинутый курс! 🖥Запись 📖Практика 👩‍🏫Курс
Hammasini ko'rsatish...
🔥 3🥴 1
Repost from N/a
Photo unavailableShow in Telegram
17, 24 и 31 мая прошли открытые лекции от Дмитрия Морозова, Александры Брызгаловой и Марии Тихоновой! Дмитрий Морозов в рамках своей лекции рассказал, зачем Национальный корпус русского языка нужен лингвистам, переводчикам, учителям и NLP-инженерам, с какими трудностями приходится сталкиваться при разработке корпусной платформы. Александра Брызгалова рассказала про теорию ограничений и проектное управление. Теория ограничений — это методология управления системами, созданная израильским физиком Элияху Голдраттом. Инструменты ТОС можно использовать для устранения ограничений любых систем, а значит и повышения их эффективности. На заключительной лекции этого семестра выступила Мария Тихонова. Мария рассмотрела проблему определения того, что такое «хорошо» и что такое «плохо» в мире больших нейросетей, рассказала, какие их «способности» необходимо оценивать и многое другое. Спасибо, что активно посещали наши открытые лекции. Записи всех выступлений вы можете посмотреть в нашей группе в ВК!
Hammasini ko'rsatish...
🔥 12
Photo unavailableShow in Telegram
Стала звездой НГУ 👩‍🦰Хотела сухо написать про выступление, а получился немного эмоциональный пост. ПрАстите меня, уж больно хорошо меня встретили в НГУ. На вторую половину недели перебазировалась в Академгородок Новосибрска, где у меня целых два выступления: с открытой лекцией в НГУ и на местном DataFest. Думала скромно выступить перед компьютерными лингвистами, а мою открытую лекцию, посвященную проблемам оценки LLM, распиарили на весь универ. Раскреили афиши по всему зданию, мое фото приветливо улыбнулось мне со студенческого ТВ, а на само выступление, несмотря на сессию, собрался полный зал. Меня пришли слушать даже местные профессора. Очень приятно, что тема того, как правильно измерять качество больших языковых моделей, сегодня так востребована. Ведь оценка - крайне важный аспект. Как говорится: 💭"Если вы не можете что-то измерить, значит, вы не можете улучшить это" (с) На самой лекции порадовали вдумчивые вопросы, реакция, которую вызвал доклад, и тот теплый прием, который мне оказали в НГУ. Уже ради этого стоило ехать за 4 часовых пояса, а впереди еще DataFest. #трудовыебудни #nlp #dl #ds #llm 👉🏻Слайды можете найти тут. 👇Запись будет ниже в посте👇
Hammasini ko'rsatish...
🔥 24👍 5 5
Не будем медлить, сразу делимся записью Во вторник Мария Тихонова, преподаватель онлайн-магистратуры “Master of Data Science”, провела вебинар “Introduction to Neural Networks”. Вместе со спикером слушатели решили несколько кейсов по глубинному обучению (Deep Learning). Мария Тихонова рассказала про эволюцию алгоритмов, классификации нейросетей и их устройство. Кроме того, слушатели узнали, как обучить нейросеть, чтобы она понимала все запросы. 🎥 Чтобы вспомнить или посмотреть вебинар, переходите по ссылке
Hammasini ko'rsatish...
Introduction to Neural Networks: как работают нейронные сети?

На вебинаре “Introduction to Neural Networks” Мария Тихонова, преподаватель онлайн-магистратуры "Master of Data Science", рассказывает о глубинном обучении и концепции нейросетей. Из видео вы узнаете: – Как можно применить искусственный интеллект (ИИ) в различных сферах: финансы, сельское хозяйство, девелопмент; – Как менялись методы распознавания объектов; – Какие существуют виды нейросетей; – Как работают нейронные сети; – Что такое обучение нейросетей и что нужно делать для эффективного обучения; – Зачем использовать свёрточные нейросети в компьютерном зрении (CV). Кроме того, на вебинаре слушатели решили несколько кейсов из сферы глубинного обучения. Встреча организована онлайн-магистратурой “Master of Data Science”. Подписывайтесь на телеграм-канал программы:

https://t.me/masterofds

In the webinar “Introduction to Neural Networks” Maria Tikhonova, lecturer at the Online Master's programme "Master of Data Science", discusses Deep Learning and the concept of neural networks. In the video, you will discover: – AI applications in different spheres (finance, agriculture & farming, development) ; – Evolution of recognition algorithms; – Types of NN; – How neural networks work; – What’s neural networks’ training; – How convolutions are applied in computer vision (CV) Moreover, you solve some cases from Deep Learning. This event is organized by the Online Master's programme "Master of Data Science". Subscribe to the program's Telegram channel for more updates:

https://t.me/masterofds

👍 14👏 1🥴 1
Photo unavailableShow in Telegram
#пятничныемемасы
Hammasini ko'rsatish...
😁 56🔥 7
Repost from Эксплойт
06:37
Video unavailableShow in Telegram
Парень провёл абсолютно гениальный эксперимент — «Обратный тест Тьюринга». Он создал на Unity купе, где собрал известных исторических личностей под управлением разных ИИ. Задача безумная — нейросети знают, что среди них есть человек и им нужно его вычислить. Задача чувака — правдоподобно отыграть ИИ-Чингисхана, чтобы не покупать билет. Специально для вас сделали перевод на русский язык. @exploitex
Hammasini ko'rsatish...
0528 (1).mp4160.90 MB
🔥 27😁 7 1🐳 1