ایده های ارائه ماشین لرنینگ

Brought to you by Kiarash Nourafshan

💙🩵 ادایی 💫✨

01
تشخیص امواج گرانشی با دیپ‌لرنینگ
استفاده از داده‌های واقعی LIGO و شبکه‌های کانولوشنی برای تشخیص سیگنال از نویز. مقایسه با روش کلاسیک matched filtering و رسیدن به دقت بالاتر در SNR پایین.
CNN • Time Series • Gravitational Waves • LIGO Open Data
02
پیش‌بینی گذار فاز تو مدل ایزینگ با شبکه عصبی
شبکه عصبی فقط با دیدن کانفیگ اسپین‌ها دمای بحرانی و پارامتر منظم رو پیدا می‌کنه. بدون اینکه بهش بگی فیزیک پشتش چیه!
Phase Transition • Unsupervised • Monte Carlo • Statistical Mechanics
03
تفاوت KNN و Quantum KNN تو کلاس‌بندی ذرات تو LHC
داده‌های واقعی CMS، مقایسه KNN کلاسیک با نسخه کوانتومی روی کیوبیت‌های شبیه‌سازی‌شده. سرعت و دقت تو فضای بالا بعدی.
Quantum ML • Pennylane • Particle Physics • High Energy
04
پیش‌بینی خواص مولکولی با گراف نیورال نت‌ورک
دیتاست QM9، پیش‌بینی HOMO-LUMO gap و انرژی تشکیل. GNN از دسکریپتورهای کلاسیک می‌زنه بیرون.
GNN • Computational Chemistry • Quantum Chemistry
05
پیدا کردن سیاره‌های فراخورشیدی و عدسی گرانشی با آنومالی دیتکشن
داده‌های TESS + Autoencoder و Isolation Forest برای پیدا کردن نورهای غیرعادی که ممکنه سیاره جدید یا microlensing باشه.
Anomaly Detection • Astrophysics • Time Series
06
کشف خودکار قانون‌های بقا فقط از دیتا
به شبکه فقط مسیر ذرات رو می‌دی، خودش انرژی، تکانه و تکانه زاویه‌ای رو کشف می‌کنه (SINDy + Neural Symbolic).
Symbolic Regression • Conservation Laws • Physics Discovery
07
حل معادلات دیفرانسیل فیزیک با PINN
حل شرودینگر، معادله موج یا ناویر-استوکس فقط با شبکه عصبی و بدون گرید! مقایسه با روش‌های عددی کلاسیک.
Physics-Informed NN • PDE • Scientific ML
08
انتقال یادگیری از شبیه‌سازی به دیتای واقعی شکار ماده تاریک
آموزش روی شبیه‌سازی‌های WIMP بعد انتقال به داده‌های واقعی XENON1T و LUX-ZEPLIN.
Transfer Learning • Dark Matter • Particle Astrophysics
09
کم کردن بعد شبیه‌سازی‌های کیهان‌شناسی
PCA، UMAP و Diffusion Map روی داده‌های IllustrisTNG برای پیدا کردن ساختارهای پنهان کهکشان‌ها.
Dimensionality Reduction • Cosmology • Manifold Learning
10
کنترل سیستم‌های آشوبناک با رینفورسمِنت لرنینگ
تثبیت پاندول معکوس یا Lorenz attractor با PPO/DDPG — بهتر از LQR کلاسیک.
RL • Chaos • Control Theory
11
فولد کردن پروتئین‌های کوچیک با مدل شبیه آلفافولد
فاین‌تیون کردن ESM-2 روی پپتیدهای کوتاه و مقایسه با انرژی‌های کلاسیک.
Protein Folding • Transformer • Biophysics
12
بازسازی حالت کوانتومی با Restricted Boltzmann Machine
توموگرافی حالت‌های چندکیوبیتی از داده‌های واقعی IBM Quantum.
RBM • Quantum Tomography • Quantum Information
13
سوپررزولوشن عکس‌های تداخل‌سنج امواج گرانشی با دیفیوژن
بهبود sky localization نقشه‌های LIGO/Virgo با Denoising Diffusion.
Diffusion Models • Gravitational Waves • Image Enhancement
14
سلف‌سوپروایزد لرنینگ رو عکس‌های JWST برای طبقه‌بندی کهکشان
پری‌ترِین با SimCLR روی عکس‌های بدون لیبل وب، بعد فاین‌تیون — بهتر از نظارت‌شده.
Self-Supervised • Astronomy • Vision Transformer
15
تفسیر دیاگرام فاینمن با اتِنشِن نیورال نت
آیا شبکه خودش قوانین حفظ بار و طعم رو از اتِنشِن یاد می‌گیره؟
Attention • Interpretability • Feynman Diagrams
16
پیش‌بینی زلزله چند ثانیه قبلش با ترانسفورمر
داده‌های لرزه‌نگار IRIS + Transformer برای پیش‌بینی شدت و مکان قبل از رسیدن P-wave.
Transformer • Seismology • Early Warning
17
یاد گرفتن نظریه میدان موثر از داده‌های QCD
شبکه عصبی حد پیوسته lattice QCD رو یاد می‌گیره و ثابت‌های کم‌انرژی (مثل f_π) رو استخراج می‌کنه.
Effective Field Theory • Lattice QCD • Nuclear Physics
18
کاهش بُعد شبیه‌سازی‌های عددی سیاه‌چاله‌ها با Autoencoder
داده‌های سنگین GRMHD شبیه‌سازی ادغام سیاه‌چاله‌ها (مثل خروجی‌های Einstein Toolkit یا Illinois GRMHD) رو می‌گیریم، با Variational Autoencoder می‌زنیم تو بطری‌گردن ۸-۱۶ بعدی، بعد دوباره بازسازی می‌کنیم. خطای بازسازی زیر ۱٪ و سرعت چند صد برابر برای پارامتر اسکن. حتی می‌شه لتنت اسپیس رو با فیزیک (مثل جرم، اسپین، نرخ ادغام) تفسیر کرد.
Variational Autoencoder • Black Hole Mergers • GRMHD • Numerical Relativity • Latent Physics