Random Forest

یک روش گروه ادغام (ensemble) برای پیدا کردن بهترین درخت تصمیم‌گیری‌ بر روی داده‌های آموزش. در این روش چندین درخت تصمیم‌گیری ساخته می‌شود و سپس میانگین آن‌ها محاسبه می‌شود. کلمه «تصادفی» به این مساله اشاره دارد که هر کدام از درخت‌های تصمیم‌گیری بر اساس برخی ویژگی‌ها که به صورت تصادفی انتخاب شده‌اند شکل می‌گیرد. کلمه «درخت» به مجموعه درخت‌های تصمیم‌گیری اشاره دارد.

Random Policy

در یادگیری تقویتی، به سیاستی گفته می‌شود که اعمال را به صورت تصادفی انتخاب می‌کند.

Rank (Ordinality)

موقعیت معمول یک دسته در یک مساله یادگیری ماشین که دسته‌ها را از بالا به پایین طبقه‌بندی می‌کند. به عنوان مثال، یک سامانه رتبه‌بندی رفتار می‌تواند پاداش یک سگ را از بالا (استیک) به پایین (کلم‌پیچ پژمرده) رتبه‌بندی کند.

Rater

فردی که برای نمونه‌ها برچسب تولید می‌کند. این فرد حاشیه‌نویس یا annotator نیز نامیده می‌شود.

Re-ranking

مرحله پایانی در یک سامانه پیشنهادگر، که در آن المان‌هایی که به آن‌ها امتیاز نسبت داده شده ممکن است مجددا با الگوریتم‌های دیگر (معمولا غیر یادگیری ماشینی) امتیازدهی شوند. رتبه‌بندی مجدد لیست المان‌هایی که در مرحله رتبه‌بندی تولید می‌شوند را با روش‌هایی مانند موارد زیر ارزیابی می‌کند:

Recall

معیاری که جهت ارزیابی مدل‌های طبقه‌بندی استفاده می‌شود و به به این سوال پاسخ می‌دهد که «از بین تمامی برچسب‌های مثبت، چقدر از آن‌ها توسط مدل درست تشخیص داده شده‌اند؟» چگونگی محاسبه این معیار به شکل زیر است:

Recommendation System

سامانه‌ای که برای هر کاربر مجموعه نسبتا مطلوبی از موارد مطلوب را از میان یک گروه بزرگ انتخاب می‌کند. به عنوان مثال، یک سامانه توصیه‌گر فیلم ممکن است از میان ۱۰۰۰۰۰ فیلم دو مورد را به هر کاربر پیشنهاد دهد. این سامانه ممکن است در پیشنهاداتش عامل‌های زیر را درنظر بگیرد:

Rectified Linear Unit (ReLU)

یک تابع فعال‌ساز با شزایط زیر:

Recurrent Neural Network

یک شبکه عصبی که طراحی شده تا چندین بار اجرا شود و بخش‌هایی از هر اجرا به عنوان ورودی در اجرای بعدی استفاده می‌شوند. به بیان دقیق‌تر، لایه‌های مخفی اجرای قبلی بخشی از ورودی همان لایه‌ها در اجرای بعدی هستند. شبکه‌های عصبی بازگشتی برای بررسی توالی‌ها مورد استفاده قرار می‌گیرند تا از لایه‌های مخفی آن‌ها جهت به یاد سپاری بخش‌های ابتدایی توالی از اجراهای قبلی استفاده شود.

به عنوان مثال، تصویر زیر یک شبکه عصبی بازگشتی را نشان می‌دهد که چهار بار اجرا شده است. توجه کنید که مقادیری که لایه‌های مخفی در اجرای اول یاد گرفته‌اند، به عنوان بخشی از ورودی همان لایه در اجرای دوم مورد استفاده قرار گرفته‌اند. این باعث می‌شود تا شبکه‌های عصبی بازگشتی معنای کل توالی را درک کنند، نه فقط اجزای تشکیل‌دهنده آن را.

Regression Model

نوعی از مدل‌ها که خروجی آن‌ها مقادیر پیوسته (معمولا اعشاری) است. این مدل‌ها در برابر مدل‌های دسته‌بندی قرار می‌گیرند که در آن‌ها خروجی مقداری گسسته و محدود، مانند اعداد طبیعی بین ۱ تا ۱۰ دارد. در مساله‌های دسته‌بندی معمولا هر عدد به یک دسته، مانند تصاویر «زنبق» یا «رز» اشاره می‌کند.

Regularization

جریمه‌ای برای پیچیدگی‌های مدل. نظم‌دهی به ما در جلوگیری از بیش‌برازش (overfitting) کمک می‌کند. انواع مختلفی از نظم‌دهی وجود دارد که از آن‌ها می‌توان به موارد زیر اشاره کرد:

Regularization Rate

یک مقدار نرده‌ای (اسکالر) که با لاندا نمایش داده می‌شود و اهمیت نسبی تابع نظم‌دهی را مشخص می‌کند. عبارت تابع زیان ساده‌شده زیر تاثیر نرخ نظم‌دهی را نشان می‌دهد:

افزایش نرخ نظم‌دهی بیش‌برازش را کاهش می‌دهد اما می‌تواند باعث کم شدن کارایی مدل نیز بشود.

Reinforcement Learning (RL)

دسته‌ای از الگوریتم‌ها که یک سیاست بهینه را با هدف بیشینه کردن بازده در تعامل با محیط یاد می‌گیرند. به عنوان مثال، پاداش نهایی اکثر بازی‌ها پیروزی است. یادگیری تقویتی می‌تواند با ارزیابی حرکات در بازی‌های قبلی که در نهایت به پیروزی یا شکست منجر شده‌اند در بسیاری از بازی‌های پیچیده متخصص شود.

Replay Buffer

در الگوریتم‌هایی مانند DQN، به حافظه‌ای گفته می‌شود که توسط عامل جهت ذخیره انتقالات بین حالات در تکرار تجربه استفاده می‌شود.

Reporting Bias

این واقعیت که فراوانی نوشتن افراد درباره اعمال، نتایج یا ویژگی‌ها بازتابی از فراوانی آن‌ها در دنیای واقعی یا میزانی که یک ویژگی در اعضای یک دسته مشخص است، نیست. سوگیری گزارش می‌تواند بر ترکیب داده‌هایی که سیستم‌های یادگیری ماشین از آن‌ها می‌آموزند تاثیر بگذارد.

به عنوان مثال، در کتاب‌ها کلمه «خندید» بیشتر از «نفس کشید» تکرار می‌شود. یک مدل یادگیری ماشین که تعداد نسبی خنده و تنفس را از یک مجموعه کتاب برآورد می‌کند، احتمالاً تصور می‌کند که خندیدن بیشتر از نفس کشیدن رایج است.

Representation

فرآیند نگاشت داده‌ها به ویژگی‌های پرکاربرد.

Return

در یادگیری تقویتی، با توجه به یک خط مشی و یک حالت خاص، بازده مجموع تمام امتیازاتی است که عامل انتظار دارد با دنبال کردن خط مشی از یک حالت تا پایان یک قسمت بدست بیاورد.

عامل بابت تاخیر نقل و انتقال بین حالت‌‌ها، یک ضریب کاهشی را برای محاسبه‌ی امتیاز در نظر می‌گیرد.

بنابراین اگر ضریب کاهشی γ باشد و امتیازها را تا انتهای قسمت مشخص کنیم، محاسبه بازده به شرح زیر است:

Reward

در یادگیری تقویتی، نتیجه کمی انجام یک عمل در یک حالت که در یک محیط تعریف شده‌اند.

Ridge Regularization

مترادف: نظم‌دهی L2

واژه نظم‌دهی ستیغی بیشتر در زمینه‌های آماری خالص کاربرد دارد، درحالی که نظم‌دهی L2 بیشتر در حوزه یادگیری ماشین به کار می‌رود.

RNN

مخفف Recurrent Neural Network یا شبکه عصبی بازگشتی است.

ROC (Receiver Operating Characteristic) Curve

منحنی‌ای که مقدار نرخ مثبت حقیقی و نرخ مثبت کاذب به ازای حد آستانه‌های دسته‌بندی مختلف نمایش می‌دهد.

اطلاعات بیشتر: AUC

Root Mean Squared Error (RMSE)

ریشه دوم میانگین مجذور خطا.

Rotational Invariance

در یک مساله دسته‌بندی تصویر، به توانایی الگوریتم در دسته‌بندی درست تصاویر در صورت چرخش آن‌ها گفته می‌شود. به عنوان مثال، الگوریتم باید تصویر یک راکت تنیس را در هر جهتی تشخیص دهد. توجه کنید که ناوردایی چرخشی همیشه قابل دستیابی نیست. به عنوان مثال، تصویری از ۷ که وارونه شده است باید ۸ تشخیص داده شود.

مطالعه بیشتر: ناوردایی انتقالی و ناوردایی اندازه‌ای