cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

دستاوردهای یادگیری عمیق(InTec)

هوش مصنوعی، یادگیری ماشین و یادگیری عمیق موضوع اصلی کانال این یک بلاگ شخصی با طرز تفکر شخصی هست. Core Python : @PyHints

Show more
Advertising posts
6 887
Subscribers
+5324 hours
+1807 days
+40430 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Photo unavailableShow in Telegram
اگر دنبال مدل تولید عکس می‌گردید بهترین مدل بنظرم اینجاست اونم :
OpenSource
Github link HuggingFace Model Card حتما حداقل نمونه تصاویر تولید شده باهاش رو بینید.
Show all...
18👍 3
Photo unavailableShow in Telegram
این سایت بهتون اجازه میده بصورت رایگان و بدون نیاز به حتی ثبت‌نام بین ۴۰ مدل معروف این روزهای دنیای LLM مقایسه بگیرید. Check this out در صورت مقایسه به پایین صفحه هم دقت کنید. هزینه و سرعت (اگر اشتباه نکنم) برای شما نشون داده میشه اضافه کنم : تصویر مربوط به مقایسه gpt-4o , Qwen2 هست.
Show all...
👍 16 7
Show all...
دستاوردهای یادگیری عمیق(InTec) Chat

این گروه فقط برای بحث و گفتگو یا سوال و جواب پیرامون پست‌های کانال تاسیس شده @pytens

👍 17 7
MInference
This approach achieves up to a 10x speedup for pre-filling on an A100 while maintaining accuracy.
برای کسایی که روی Inference کار‌ می‌کنند، ماکروسافت اینفرنس منتشر شد.
Show all...
GitHub - microsoft/MInference: To speed up Long-context LLMs' inference, approximate and dynamic sparse calculate the attention, which reduces inference latency by up to 10x for pre-filling on an A100 while maintaining accuracy.

To speed up Long-context LLMs' inference, approximate and dynamic sparse calculate the attention, which reduces inference latency by up to 10x for pre-filling on an A100 while maintaining a...

👍 9 5
بنظرم نسل بعدی
ML Engineer 
هایی که دستمزد بالایی خواهند داشت قطعا
Python + Rust Developer 
خواهند بود. تیم Groq هم خبری رو شنیدم که از Rust استفاده می‌کنند و قبلا هم راجب تیم خودمون و x.ai هم گفته بودم. تیم اگر نگم اولین جز اولین‌هایی بود که به سمت Rust رفت که خب خیلی خوشحالم بابت اون تصمبم و البته حسرت که خودم توسعه دهنده Rust نشدم برای اون کدها (شرکت بهم اجازه نداد)
Show all...
👍 17 4
طبق بلاگ‌‌ها و صحبت‌هایی که شده سرعت Moshi توی قسمت‌های مهمی مدیون Rust هست. یکی از مهمترین ابزارهایی که ما هم داریم استفاده می‌کنیم برای دپلوی مدل‌ها huggingface Candle که روی Rust نوشته شده و headless ml framework هست. قطعا توی همین جملات برای آنان که می‌اندیشند نکات بسیاری هست. اضافه کنم : این پست رو برای همراه اول هم بفرستید که توی الکامپ دمو مدل نیاره بعد بگه چون درخواست زیاد بوده نمی‌تونیم جواب بدیم 😂 توقع داشتن توی نمایشگاه که معرفی می‌کنند ۱۰ درخواست در دقیقه بگیره ؟
Show all...
GitHub - huggingface/candle: Minimalist ML framework for Rust

Minimalist ML framework for Rust. Contribute to huggingface/candle development by creating an account on GitHub.

👍 13 5
Andrej Karpathy این مرد بزرگ یک تنه داره جور کل دوره‌های آموزشی و ... رو می‌کشه پلن جدید ایشون برای آموزش دقیق همه آنچه که برای ساخت و درک LLM نیاز دارید. Karpathy GitHub به محض شروع این دوره قطعاً به لیست بالا اضافه خواهد شد. بدون شک و تردید و ندیده (شخصاً نمی‌تونم صبر کنم)
Show all...
GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller

LLM101n: Let's build a Storyteller. Contribute to karpathy/LLM101n development by creating an account on GitHub.

41👍 17
Moshi: Realtime multi-modal OpenSource Model 
دمو chatgpt 4o رو یادتون هست ؟ خیلی ها بهترین فیچرش رو صحبت کردن باهاش می‌دونند. این مدل Moshi که open source هم خواهد بود؛ همون کا رو براتون می‌کنه با تفاوت بزرگتر؛ این مدل واقعا real-time هست. فوق‌العاده سریع هست؛ بدون شک و تردید توی این مورد بسیار عملکرد بهتری از chatgpt داره نمی‌تونم صبر کنم که مدل منتشر بشه و به سیستم فعلی؛ RAG و .... که دارم وصلش کنم نکته؛ این مدل به اینترنت وصل نیست پس سوالاتی که به RAG یا سرچ و ... نیاز داره رو نمی‌تونه خیلی جواب بده ولی مشکلی نیست چون خیلی تازه هست. Moshi website (free to test, 5min) اگر ۵ دقیقه تموم شد باید؛ دوباره وارد بشید
Show all...
12👍 6
Photo unavailableShow in Telegram
3:40 A.M
بعد از کدهای مربوط به کار و خبر انتشار مدل multi-token-prediction درخواست دسترسی دادم؛ حدود ۵ دقیقه طول کشید تا تایید شد و هرجور حساب می‌کنم تست نکرده نمیشه خوابید. دقیقا این مدل برای منی که بیشتر عضو تیم
Software, Engineering, ...
هستم خیلی اهمیتی و مزیتی نداره؛ اگر این مقاله رو خونده باشید بهبود نتایجش توی مدل‌های بزرگتر هست نه مدل کوچکتر اما مزیت سرعت Inference بالا رو با خودش داره و این بخشی هست که بسیار برای من جذاب هست و قطعا بسیاری از پیشرفت‌ها در این جهت خواهد بود؛ یا به این شکل یا بر اساس این روش. لینک مقاله: https://arxiv.org/pdf/2404.19737
Show all...
👍 19 1
قطعا اگر تلگرام premium داشته باشید می‌دونید که ویژگی تبدیل voice message به متن رو داره موردی که با توجه به حجم دیتا و ... ایی که تلگرام داره همه فکر می‌کنند مدل و امکانات خودش هست. اما در واقع موضوع اینه که تلگرام فقط به خوبی هرچه تمام و با حوصله داره از ابزارهای موجود استفاده می‌کنه؛ برای همین مورد بعنوان مثال داره از whisper-large-v3 در حال حاضر استفاده می‌کنه؛ یک مدل opensource و کاملا در دسترس با توجه به چیزی که دیده میشه؛ حتی وقتی برای بهبود یا quantize کردن مدل برای دپلوی نذاشتند.
Show all...
👍 34 2
Choose a Different Plan

Your current plan allows analytics for only 5 channels. To get more, please choose a different plan.