Early Stopping

روشی برای نظم‌دهی (regularization) که شامل توقف آموزش مدل قبل از به پایان رسیدن کاهش مقدار تابع زیان آموزش است. در این روش، فرآیند آموزش زمانی متوقف می‌شود که تابع زیان روی داده‌های اعتبارسنجی افزایش پیدا کند، که این زمانی‌ست که قدرت تعمیم مدل کاهش پیدا می‌کند.

Embedding Space

فضای برداری d بعدی که ویژگی‌ها از فضای برداری با ابعاد بیشتر به آن نگاشت داده می‌شوند. در حالت ایده‌آل، فضای تعبیه شده شامل ساختاری است که به نتایج ریاضی معناداری منجر می‌شود. به عنوان مثال، در فضای تعبیه شده ایده‌آل می‌توان مسائل قیاس کلمات را با استفاده از جمع و تفریق بردارها حل کرد.

ضرب داخلی دو تعبیه (embedding) شباهت آن دو را محاسبه می‌کند.

Embeddings

یک یک ویژگی طبقه‌بندی که به شکل یک ویژگی با مقادیر پیوسته ارائه شود. معمولا، هر تعبیه (‌embedding) نگاشتی از یک بردار در فضای با ابعاد بالا به فضایی با ابعادی کمتر است. به عنوان مثال، کلمه موجود در یک عبارت را می‌توان به یکی از دو شکل زیر نمایش داد:

در Tensorflow تعبیه‌ها مانند هر پارامتر دیگری در شبکه‌های عصبی با محاسبه تابع زیان و انتشار معکوس (backpropagation) محاسبه می‌شوند.

Empirical Risk Minimization (ERM)

انتخاب تابعی که مقدار تابع زیان را بر روی داده‌های آموزش کمینه کند.

متضاد: کمینه‌سازی ریسک ساختاری

Ensemble

ادغام‌گر پیش‌بینی‌های چندین مدل. برای ایجاد یک گروه می‌توان از یکی یا چند تا از روش‌های زیر برای آموزش مدل استفاده کرد:

مدل‌های عمیق و گسترده (‌‌Deep and wide models) نوعی از یادگیری جمعی هستند.

Environment

در یادگیری تقویتی، دنیایی که شامل عامل است و به آن امکان مشاهده‌ی حالتش را می‌دهد. به عنوان مثال دنیای عامل می‌تواند یک بازی مانند شطرنج، یا یک دنیای فیزیکی مانند پیچ‌و‌خم باشد. با اقدام به عمل عامل، محیط بین حالات تغییر می‌کند.

Episode

در یادگیری تقویتی، هر یک از تلاش های مکرر عامل برای یادگیری یک محیط.

Epoch

یک گذر کامل بر روی داده‌ها در فرآیند آموزش به گونه‌ای که هر نمونه یک بار مشاهده شده باشد. در این صورت یک دوره (epoch) شامل [ N / اندازه دسته ] تکرار (iteration) بر روی داده‌های آموزش است که N تعداد کل نمونه‌هاست.

Epsilon Greedy Policy

در یادگیری تقویتی (reinforcement learning) به سیاستی (policy) گفته می‌شود که با احتمال اپسیلون (epsilon) از یک سیاست تصادفی و در غیر این صورت از یک سیاست حریصانه پیروی کند. به عنوان مثال، اگر اپسیلون ۰.۹ باشد، در این صورت باید در ۹۰٪ مواقع از سیاست تصادفی و در ۱۰٪ مواقع از سیاست حریصانه پیروی کرد.

در قسمت‌های (episode) پیاپی، الگوریتم مقدار اپسیلون را کاهش می‌دهد تا به حای دنبال کردن یه سیاست تصادفی، از سیاست حریصانه پیروی کند. با تغییر سیاست، عامل (agent) ابتدا به صورت تصادفی محیط (environment) را جستجو می‌کند و سپس به صورت حریصانه از نتایج جستجوهای تصادفی بهره می‌برد.

Equality of Opportunity

یک معیار تساوی (fairness metric) که بررسی می‌کند به ازای یک برچسب ترجیحی (چیزی که سود یا امتیازی برای شخص به همراه داشته باشد) و یک صفت (attribute) مشخص، آیا طبقه‌بند (classifier) آن برچسب را برای مقادیر مختلف آن صفت به صورت برابر پیش‌بینی می‌کند یا خیر. به بیان دیگر، برابری فرصت بررسی می‌کند که آیا افرادی که باید از یک موقعیت بهره ببرند جدای از گروه‌های مختلفی که در آن هستند این امکان را دارند یا خیر.

به عنوان مثال، تصور کنید دانشگاه گلوب‌دوب‌دریب (Glubbdubdrib - اسامی به کتاب سفرهای گالیور مربوط هستند.) هم ساکنین لی‌لی‌پوت (Lilliputians) و هم ساکنین براب‌دینگ‌نگ (Brobdingnagians) را برای یک دوره پیشرفته ریاضی پذیرش می‌کند. مدارس متوسطه لی‌لی‌پوت یک برنامه درسی قوی برای کلاس‌های ریاضی ارائه می‌دهند و اکثریت قریب به اتفاق دانش آموزان واجد شرایط برنامه دانشگاه هستند. مدارس متوسطه براب‌دینگ‌نگ به هیچ وجه کلاس ریاضی ارائه نمی دهند و در نتیجه تعداد بسیار کمی از دانش آموزان آن‌ها واجد شرایط هستند. در این حالت برابری فرصت برای برچسب ترجیحی «پذیرفته‌شده» با توجه به «ملیت» در شرایطی برقرار است که دانشجویان واجد شرایط بدون توجه به این که ساکن لی‌لی‌پوت یا براب‌دینگ‌نگ هستند، شانس پذیرفته شدن برابری داشته باشند.

فرض کنید ۱۰۰ دانشجوی ساکن لی‌لی‌پوت و ۱۰۰ دانشجوی براب‌دینگ‌نگ برای دانشگاه گلوب‌دوب‌دریب درخواست داده باشند. و تصمیم پذیرش افراد به شکل زیر است:

جدول ۱ - درخواست‌های لی‌لی‌پوت (۹۰٪ افراد واجد شرایطند.)

فاقد شرایط واجد شرایط
۳ ۴۵ پذیرفته شده
۷ ۴۵ رد شده
۱۰ ۹۰ مجموع

درصد افراد واجد شرایط که پذیرش شده‌اند: ۴۵/۹۰ = ۵۰٪

درصد افراد فاقد شرایط که رد شده‌اند: ۷/۱۰ = ۷۰٪

درصد افراد ساکن لی‌لی‌پوت که پذیرش شده‌اند: ۴۸/۱۰۰ = ۴۸٪

جدول ۲ - درخواست‌های براب‌دینگ‌نگ (۱۰٪ افراد واجد شرایطند.)

فاقد شرایط واجد شرایط
۹ ۵ پذیرفته شده
۸۱ ۵ رد شده
۹۰ ۱۰ مجموع

درصد افراد واجد شرایط که پذیرش شده‌اند: ۵/۱۰ = ۵۰٪

درصد افراد فاقد شرایط که رد شده‌اند: ۸۱/۹۰ = ۹۰٪

درصد افراد ساکن براب‌دینگ‌نگ که پذیرش شده‌اند: ۱۴/۱۰۰ = ۱۴٪

در مثال فوق شرط برابری فرصت برقرار است چون افراد واجد شرایط لی‌لی‌پوت و براب‌دینگ‌نگ هر دو ۵۰٪ شانس پذیرش دارند.

توجه کنید که با وجود این که برابری فرصت برقرار است، دو معیار تساوی زیر وجود ندارند:

مطالعه بیشتر: برابری فرصت در یادگیری با ناظر (Equality of Opportunity in Supervised Learning) - مقابله با تبعیض با یادگیری ماشین هوشمندتر (Attacking discrimination with smarter machine learning)

Equalized Odds

یک معیار تساوی (fairness metric) که بررسی می‌کند به ازای هر برچسب، آیا طبقه‌بند (classifier) آن را برای مقادیر مختلف یک صفت به صورت برابر پیش‌بینی می‌کند یا خیر.

به عنوان مثال، تصور کنید دانشگاه گلوب‌دوب‌دریب (Glubbdubdrib - اسامی به کتاب سفرهای گالیور مربوط هستند.) هم ساکنین لی‌لی‌پوت (Lilliputians) و هم ساکنین براب‌دینگ‌نگ (Brobdingnagians) را برای یک دوره پیشرفته ریاضی پذیرش می‌کند. مدارس متوسطه لی‌لی‌پوت یک برنامه درسی قوی برای کلاس‌های ریاضی ارائه می‌دهند و اکثریت قریب به اتفاق دانش آموزان واجد شرایط برنامه دانشگاه هستند. مدارس متوسطه براب‌دینگ‌نگ به هیچ وجه کلاس ریاضی ارائه نمی دهند و در نتیجه تعداد بسیار کمی از دانش آموزان آن‌ها واجد شرایط هستند. معیار احتمال یکسان زمانی برقرار است که این که درخواست‌دهنده ساکن لی‌لی‌پوت یا براب‌دینگ‌نگ است تفاوتی در نتیجه داوری ایجاد نکند. اگر فرد ساکن لی‌لی‌پوت و براب‌دینگ‌نگ واجد شرایطند، هر دو احتمال پذیرش یکسانی داشته باشند. هم‌چنین اگر این دو فرد فاقد شرایط باشند، هر دو باید احتمال رد شدن یکسانی داشته باشند.

فرض کنید ۱۰۰ دانشجوی ساکن لی‌لی‌پوت و ۱۰۰ دانشجوی براب‌دینگ‌نگ برای دانشگاه گلوب‌دوب‌دریب درخواست داده باشند. و تصمیم پذیرش افراد به شکل زیر است:

جدول ۳ - درخواست‌های لی‌لی‌پوت (۹۰٪ افراد واجد شرایطند.)

فاقد شرایط واجد شرایط
۲ ۴۵ پذیرفته شده
۸ ۴۵ رد شده
۱۰ ۹۰ مجموع

درصد افراد واجد شرایط که پذیرش شده‌اند: ۴۵/۹۰ = ۵۰٪

درصد افراد فاقد شرایط که رد شده‌اند: ۸/۱۰ = ۸۰٪

درصد افراد ساکن لی‌لی‌پوت که پذیرش شده‌اند: ۴۷/۱۰۰ = ۴۷٪

جدول ۴ - درخواست‌های براب‌دینگ‌نگ (۱۰٪ افراد واجد شرایطند.)

فاقد شرایط واجد شرایط
۱۸ ۵ پذیرفته شده
۷۲ ۵ رد شده
۹۰ ۱۰ مجموع

درصد افراد واجد شرایط که پذیرش شده‌اند: ۵/۱۰ = ۵۰٪

درصد افراد فاقد شرایط که رد شده‌اند: ۷۲/۹۰ = ۸۰٪

درصد افراد ساکن براب‌دینگ‌نگ که پذیرش شده‌اند: ۲۳/۱۰۰ = ۲۳٪

در مثال فوق احتمال یکسان برقرار است چون افراد واجد شرایط از لی‌لی‌پوت یا براب‌دینگ‌نگ هر دو ۵۰٪ شانس پذیرش دارند، و افراد فاقد شرایط هر دو شهر نیز ۸۰٪ احتمال رد شدن دارند.

توجه کنید که با این که احتمال یکسان در مثال فوق برقرار است، اما برابری جمعیتی (demographic parity) برقرار نیست. نرخ حضور ساکنین لی‌لی‌پوت و براب‌دینگ‌نگ در دانشگاه متفاوت است. ۴۷٪ از ساکنین لی‌لی‌پوت پذیرفته شده‌اند در حالی که فقط ۲۳٪ از ساکنین براب‌دینگ‌نگ پذیرفته شده‌اند.

احتمال یکسان به صورت رسمی در برابری فرصت در یادگیری با ناظر (Equality of Opportunity in Supervised Learning) تعریف شده است.

این معیار را با حالت آسان‌گیرانه‌تر معیار برابری فرصت (equality of opportunity) مقایسه کنید.

Example

یک سطر از مجموعه داده. یک نمونه شامل یک یا چند خصیصه و احتمالا یک برچسب است.

اطلاعات بیشتر: نمونه برچسب‌ خورده، نمونه بدون برچسب

Experience Replay

یک تکنیک مربوط به ‌DQN در یادگیری تقویتی که با هدف کاهش هم‌بستگی زمانی در مجموعه‌داده‌های آموزش استفاده می‌شود. عامل انتقال بین حالت‌ها را در یک بافر تکرار ذخیره می‌کند، و سپس با نمونه‌گیری از انتقال‌های درون بافر تکرار داده‌های آموزش را ایجاد می‌کند.

Experimenter's Bias

سوگیری تاییدی (confirmation bias) را ببینید.

Exploding Gradient Problem

تمایل گرادیان‌ها در یک شبکه عصبی عمیق (به‌خصوص شبکه‌های عصبی بازگشتی) برای پذیرفتن مقادیر بالا. گرادیان‌های بالا باعث به‌روزرسانی شدید در وزن‌ها در هر گره (node) در شبکه عصبی عمیق می‌شود.

آموزش مدل‌هایی که با مشکل انفجار گرادیان مواجه هستند سخت یا گاهی غیرممکن است. محدود کردن شیب (gradient clipping) می‌تواند در رفع این مشکل موثر باشد.

مقایسه شود با محوشدگی گرادیان (vanishing gradient problem).