L

حرف L

Letter L

کلمات توضیح
۱ L1 loss

تابع زبانی بر اساس قدرمطلق تفاضل مقدار پیش‌بینی شده توسط مدل و مقدار واقعی برچسب. تابع زیان L1 نسبت به تابع زیان L2 کمتر به استثنائات حساس است.

۲ L1 Regularization

نوعی از نظم‌دهی (regularization) که وزن‌ها را به نسبت مجموع مقدار قدر مطلق آن‌ها کاهش می‌دهد. در مدل‌هایی که بر ویژگی‌های پراکنده (sparse features) تکیه دارند، نظم‌دهی L1 کمک می‌کند تا وزن ویژگی‌های...

۳ L2 Loss

تابع زیان مربعات (squared loss) را ببینید.

۴ L2 Regularization

نوعی از نظم‌دهی که وزن‌ها را به نسبت مجموع مربعات آن‌ها کاهش می‌دهد. نظم‌دهی ‌L2 تلاش می‌کند تا وزن‌های استثناء (آن‌هایی که مقدار مثبت بسیار بالا یا مقدار منفی بسیار پایین دارند) به صفر نزدیک شوند اما...

۵ Label

در یادگیری با ناظر به «پاسخ» یا «نتیجه» مورد انتظار به ازای یک نمونه برچسب می‌گویند. هر نمونه در یک مجموعه داده برچسب‌خورده از یک یا بیشتر ویژگی و یک برچسب تشکیل می‌شود. به عنوان مثال، در یک مجموعه...

۶ Labeled Example

نمونه‌ای که شامل ویژگی‌ها و یک برچسب است. در یادگیری با ناظر، مدل‌ها از نمونه‌های برچسب‌خورده یاد می‌گیرند.

۷ Lambda

مترادف: نرخ نظم‌دهی این یک اصطلاح با معانی مختلف است. در این‌جا بر معنی مربوط به نظم‌دهی (regularization) تمرکز شده است.

۸ Landmarks

مترادف: نقاط کلیدی (keypoints)

۹ Layer

مجموعه‌ای از نورون‌ها در یک شبکه عصبی که مجموعه ویژگی‌های ورودی یا خروجی نورون‌های دیگر را پردازش می‌کنند.

۱۰ Learning Rate

یک مقدار عددی که در آموزش مدل با روش کاهش شیب (gradient descent) استفاده می‌شود. در هر گام، الگوریتم کاهش شیب مقدار نرخ یادگیری را در گرادیان‌ها یا شیب‌ها ضرب می‌کند. حاصل ضرب این‌ها گام شیب نامیده...

۱۱ Least Squares Regression

یک مدل رگرسیون خطی که با کمینه کردن تابع خطای L2 آموزش دیده است.

۱۲ Linear Model

مدلی که برای پیش‌بینی کردن به هر ویژگی یک وزن اختصاص می‌دهد. (مدل‌های خطی همچنین یک مقدار اریبی را با حاصل جمع ادغام می‌کنند.) در مقابل مدل‌های خطی، رابطه وزن‌ها با ویژگی‌ها در مدل‌های عمیق یک به یک...

۱۳ Linear Regression

استفاده از خروجی خام (y') یک مدل خطی به عنوان نتیجه نهایی یک مدل رگرسیون. هدف مساله‌های رگرسیون یک پیش‌بینی با ارزش واقعی ات. به عنوان مثال، اگر مقدار خروجی مدل خطی ۸.۳۷ باشد، مقدار پیش‌بینی نیز...

۱۴ Log-odds

لگاریتم احتمالات چندین پیشامد. اگر پیشامد به یک احتمال دودویی اشاره کند، در این صورت odds به نسبت موفقیت (p) بر روی شکست (1-p) اشاره می‌کند. به عنوان مثال، فرض کنید که پیشامدی ۹۰٪ احتمال موفقیت و ۱۰٪...

۱۵ Log Loss

تابع زیانی که در مساله‌های رگرسیون خطی دو کلاسه استفاده می‌شود.

۱۶ Logistic Regression

رگرسیون لجستیک یا آمادی یک مدل طبقه‌بندی است که با استفاده از تابع sigmoid پیش‌بینی‌های خام یک مدل خطی (y') را به مقداری بین ۰ و ۱ تبدیل می‌کند. این مقدار بین ۰ و ۱ را می‌توان به یکی از روش‌های...

۱۷ Logits

برداری از پیش‌بینی‌های خام (نرمال نشده) که یک مدل طبقه‌بندی تولید می‌کند، و در شرایط عادی به عنوان ورودی به یک تابع نرمال‌سازی پاس داده ‌می‌شوند. اگر مدل یک مساله طبقه‌بندی چند-دسته‌ای را حل کند،...

۱۸ Long Short-Term Memory (LSTM)

نوعی از نورون‌های سازنده یک شبکه عصبی بازگشتی که برای پردازش دنباله‌ای از داده‌ها در حوزه‌هایی مانند تشخیص دست‌نوشته، ترجمه ماشینی و شرح تصاویر استفاده می‌شود. آن‌ها مشکل محوشدگی گرادیان را که به خاطر...

۱۹ Loss

معیاری برای اندازه‌گیری این که پیش‌بینی‌های مدل چقدر از برچسب‌ها دورند. به بیان دیگر، این معیار برای اندازه‌گیری مقدار بد بودن مدل است. برای مشخص شدن این مقدار، باید برای مدل یک تابع زیان تعریف شود....

۲۰ Loss Curve

نمودار مقادیر تابع زیان به عنوان تابعی از گام‌های آموزش. به عنوان مثال نمودار زیر را درنظر بگیرید: منحنی زیان برای تشخیص همگرایی، بیش‌برازشی (overfitting) و کم‌برازشی (underfitting) مدل استفاده...

۲۱ Loss Function

تابعی که جهت اندازه‌گیری مقدار بد عمل کردن یک مدل تعریف می‌شود. به بیان دیگر، تابع زیان تابعی‌ست که نگاشتی از وضعیت مدل به یک مقدار حقیقی که تحت عنوان زیان شناخته می‌شود برقرار می‌سازد.

۲۲ Loss Surface

نموداری از وزن(ها) در برابر مقدار تابع زیان. الگوریتم کاهش شیب (gradient descent) تلاش می‌کند تا وزنی را پیدا کند که به ازای آن مقدار نمای زیان در نقطه کمینه محلی باشد.

۲۳ LSTM

مخفف حافظه طولانی کوتاه-مدت (Long Short-Term Memory).