Objective

یک معیار که الگوریتم‌ها تلاش می‌کنند آن‌ را بهینه کنند.

Objective Function

یک عبارت ریاضی یا معیار که یک مدل تلاش می‌کند تا آن را بهینه کند. به عنوان مثال، تابع هدف برای مسائل رگرسیون خطی معمولا تابع خطای توان دوم (squared loss) است. بنابراین، هنگامی که یک مدل رگرسیون خطی آموزش می‌بیند، هدف کمینه کردن تابع خطای توان دوم است.

در برخی موارد، هدف می‌تواند بیشینه کردن تابع هدف باشد. به عنوان مثال، اگر تابع هدف کارایی باشد، هدف بیشینه کردن کارایی است.

مطالعه بیشتر: زیان

Offline Inference

تولید دسته‌ای از پیش‌بینی‌ها، ذخیره آن پیش‌بینی‌ها و بازیابی آن پیش‌بینی‌ها در صورت نیاز.

متضادها: استنباط درون‌خط

One-hot Encoding

یک بردار پراکنده (sparse) که در آن:

این نوع کدگذاری جهت نمایش شناسه‌هایی که مقادیر محدودی می‌پذیرند معمول است. به عنوان مثال، یک مجموعه داده گیاه‌شناسی شامل ۱۵۰۰۰ گونه متفاوت را درنظر بگیرید که هر کدام با یک رشته منحصربه‌فرد معرفی می‌شوند. به عنوان یک مرحله از مهندسی ویژگی‌، شما احتمالا آن رشته‌ها به شکل بردارهای one-hot با اندازه ۱۵۰۰۰ درمی‌آورید.

One-shot Learning

یک رویکرد یادگیری ماشین است که معمولا در مسائل طبقه‌بندی اشیا استفاده می‌شود و طراحی شده است تا بتواند طبقه‌بند‌های موثر از یک نمونه آموزش دهد.

اطلاعات بیشتر: یادگیری چندمرحله‌ای (few-shot learning)

One-vs.-All

در یک مساله طبقه‌بندی با N پاسخ ممکن، یک رویکرد «یک در مقابل همه» شامل N طبقه‌بند دوتایی (یک طبقه‌بند دوتایی برای هر خروجی ممکن) است. به عنوان مثال، مدلی که نمونه‌ها را به عنوان حیوان، سبزیجات یا کانی طبقه‌بندی می‌کند، یک رویکرد «یک در مقابل همه» سه طبقه‌بند دوتایی زیر را تولید می‌کند:

Online Inference

تولید پیش‌بینی‌ها در لحظه نیاز.

متضادها: استنباط برون‌خط (offline inference)

Optimizer

یک ‌پیاده‌سازی خاص از الگوریتم کاهش شیب (gradient descent). بهینه‌سازهای پرکاربرد عبارتند از:

بهینه‌سازهای مختلف ممکن است با ایجاد تفاوت یک یا چند مورد از مفاهیم زیر تاثیر الگوریتم کاهش شیب (gradient descent) را بر روی یک مجموعه داده آموزش تغییر دهند:

حتی می‌توان بهینه‌سازهای مبتنی بر شبکه‌های عصبی را نیز متصور شد.

Out-Group Homogeneity Bias

گرایش به این که در هنگام مقایسه مقادیر و شاخص‌های خارج گروه را شبیه‌تر از اعضای درون گروه ببینیم. درون‌گروهی به معنای افرادی است که به طور منظم با آن‌ها برخورد دارید و خارج‌گروهی به افرادی گفته می‌شود که معمولا با آن‌ها برخورد نداشته باشید. اگر با پرسش از افراد درباره ویژگی‌های اعضای خارج از گروه یک مجموعه داده جمع‌آوری کنید، این ویژگی‌ها نسبت به شاخصه‌های اعضای درون گروه با ظرافت کمتر و کلیشه‌ای‌تر خواهند بود.

به عنوان مثال، لی‌لی‌پوتی‌ها ممکن است خانه‌ی دیگر لی‌لی‌پوتی‌ها را با جزئیات بالا و تفاوت‌های ریز در معماری، سبک پنجره‌ها و درها و اندازه توصیف کنند؛ در حالی که همان لی‌لی‌پوتی‌ها معتقدند که ساکنان براب‌دینگ‌نگ همگی در خانه‌های یکسانی زندگی می‌کنند.

سوگیری همگنی خارج از گروهی نوعی از انتساب گروهی مقدار پیش‌فرض (group attribution bias) است.

مطالعه بیشتر: سوگیری بین‌گروهی (in-group bias)

Outliers

مقدارهای که از بقیه مقادیر فاصله‌ی زیادی دارند. در یادگیری ماشین، هر کدام از موارد زیر داده‌ی پرت حساب می‌شوند:

داده‌های پرت معمولا در آموزش مدل‌ها اختلال ایجاد می‌کنند. بریده‌سازی (clipping) یکی از راه‌های مدیریت این داده‌هاست.

Output Layer

آخرین لایه در یک شبکه عصبی. این لایه حاوی جواب‌های مساله است.

Overfitting

ایجاد یک مدل که به نمونه‌های مجموعه داده آموزش بسیار نزدیک شده است؛ به طوری که در پیش‌بینی داده‌های جدید به مشکل می‌خورد.