Sampling Bias

سوگیری انتخاب را مشاهده کنید.

Scalar

یک عدد یا یک رشته منفرد که می‌تواند به عنوان تنسور درجه ۰ نمایش داده شود. به عنوان مثال کدهای زیر هر کدام یک مقیاس را در TensorFlow ایجاد می‌کنند:

breed = tf.Variable("poodle", tf.string)
temperature = tf.Variable(27, tf.int16)
precision = tf.Variable(0.982375101275, tf.float64)
Scaling

روشی معمول در مهندسی ویژگی که برای تعدیل دامنه مقادیر یک ویژگی، برای مطابقت با دامنه‌ی سایر ویژگی‌های مجموعه داده مورد استفاده قرار می‌گیرد. به عنوان مثال فرض کنید می‌خواهید همه ویژگی‌های شناور در مجموعه داده مقادیری در بازه‌ی ۰ تا ۱ داشته باشند. با توجه به محدوده ۰ تا ۵۰۰ یک ویژگی خاص، می‌توان با تقسیم هر مقدار بر ۵۰۰، آن ویژگی را مقیاس بندی کرد.

به نرمال سازی نیز مراجعه کنید.

Scikit-Learn

یک پلتفرم محبوب مخزن باز یادگیری ماشین است. برای اطلاعات بیشتر به سایت  www.scikit-learn.org مراجعه کنید.

Scoring

بخشی از یک سیستم توصیه‌گر که برای هر مورد تولید شده به عنوان نامزد پیشنهادی، یک مقدار یا رتبه‌ را ایجاد می‌کند.

Selection Bias

علت بروز خطا در نتیجه‌گیری از داده‌های نمونه‌گیری شده، فرایند انتخاب است که ضمن آن تفاوت‌های سیستماتیک بین نمونه‌های مشاهده شده در مجموعه داده‌ها و موارد مشاهده نشده ایجاد می‌شود.

اشکال زیر از سوگیری انتخاب وجود دارد:

سوگیری پوشش: جمعیت نشان داده شده در مجموعه داده‌ها با جمعیتی که مدل یادگیری ماشین پیش بینی کرده است مطابقت ندارد.

سوگیری نمونه‌‌برداری: داده‌ها به صورت تصادفی از گروه هدف جمع آوری نمی‌شوند.

سوگیری عدم پاسخگویی یا سوگیری مشارکت: کاربران گرو‌‌ه‌های خاصی نسبت به کاربران گروه‌های دیگر از نظرسنجی انصراف می‌دهند.

برای مثال، فرض کنید قرار است یک مدل یادگیری ماشین طراحی کنید که میزان علاقه مردم به یک فیلم را پیش‌بینی می‌کند. برای جمع آوری داده‌های آموزشی، نظرسنجی را برای همه افرادی که در ردیف اول سالن نمایش فیلم هستند، انجام می دهید. به صورت ناخواسته، ممکن است این روش منطقی برای جمع آوری مجموعه داده به نظر برسد. با این حال، این شکل از جمع آوری داده‌ها ممکن است اشکال زیر از سوگیری انتخاب را ایجاد کند:

Semi-Supervised Learning

آموزش مدلی بر روی داده ها که در برخی از نمونه های آموزش دارای برچسب است اما در برخی دیگر اینگونه نیست. یک روش برای یادگیری نیمه نظارت ، استنباط برچسب برای مثالهای بدون برچسب و سپس آموزش بر روی برچسب های استنباط شده برای ایجاد یک مدل جدید است. اگر به دست آوردن برچسب ها گران باشد اما نمونه های بدون برچسب فراوان ، یادگیری نیمه نظارت شده می تواند مفید باشد.

Sensitive Attribute

یک ویژگی انسانی که ممکن است به دلایل حقوقی، اخلاقی، اجتماعی یا شخصی مورد توجه ویژه قرار گیرد.

Sentiment Analysis

استفاده از الگوریتم های آماری یا یادگیری ماشین برای تعیین نگرش کلی یک گروه - مثبت یا منفی - نسبت به یک خدمت، محصول، سازمان یا موضوع. به عنوان مثال، یک الگوریتم می‌تواند با استفاده از درک زبان طبیعی، دیدگاه افراد را از بین بازخوردهای متنی یک دوره دانشگاهی تجزیه و تحلیل کند تا میزان علاقه دانش‌آموزان به آن دوره را مشخص کند.

Sequence Model

مدلی که در آن ورودی‌ها به یک توالی وابسته هستند. به عنوان مثال، پیش‌بینی فریم بعدی در یک ویدیو بر اساس فریم‌های قبلی‌ای که از آن مشاهده شده.

Serving

مترادف‌: استنباط

Shape (Tensor)

تعداد المان‌هایی که در هر یک از ابعاد از یک تنسور قرار می‌گیرند. شکل یک تنسور به شکل لیستی از اعداد نشان داده می‌شود. به عنوان مثال، شکل تنسور دوبعدی زیر [3, 4] است:

[[5, 7, 6, 4],
 [2, 9, 4, 8],
 [3, 6, 5, 1]]
Sigmoid Function

تابعی که خروجی رگرسیون چندجمله‌ای یا لجستیک را به احتمال نگاشت می‌دهد و مقداری بین ۰ و ۱ برمی‌گرداند. تابع سیگوید به صورت زیر تعریف شده است:

که سیگما در مساله‌های رگرسیون لجستیک به سادگی به شکل زیر تعریف می‌شود:

به بیان دیگر، تابع سیگموید مقدار ورودی را تبدیل به احتمالی بین ۰ و ۱ می‌کند.

در برخی از شبکه‌های عصبی، از تابع سیگموید به عنوان تابع فعال‌ساز استفاده می‌شود.

Similarity Measure

در الگوریتم‌های خوشه‌بندی، به معیاری گفته می‌شود که برای تعیین این که چقدر دو نمونه به هم شبیهند، استفاده می‌شود.

Size Invariance

در یک مساله دسته‌بندی تصاویر، به توانایی یک الگوریتم در دسته‌بندی درست با وجود تغییر در اندازه تصویر گفته می‌شود. به عنوان مثال، الگوریتم باید بتواند یک خودرو را در تصویر تشخیص دهد، بدون توجه به این که اندازه آن دو میلیون پیکسل است یا دویست هزار پیکسل. توجه کنید که حتی بهترین الگوریتم‌های طبقه‌بندی تصاویر هم هنوز محدودیت‌هایی درباره این مساله دارند. به عنوان مثال، یک الگوریتم (یا انسان) بعید است که بتواند به درستی گربه‌ای را که تنها ۲۰ پیکسل است طبقه‌بندی کند.

مطالعه بیشتر: ناوردایی انتقالی - ناوردایی چرخشی

Sketching

دسته‌ای از الگوریتم‌ها در یادگیری بدون نظارت، که یک تحلیل شباهت اولیه بر روی داده‌ها انجام می‌دهد. الگوریتم‌های ترسیم از تابع درهم‌سازی (hash) حساس به مکان استفاده می‌‌کند تا مواردی را که به احتمال زیاد مشابه هستند تشخیص دهد و آن‌ها را در پیاله‌ها گروه‌بندی می‌کند.

استفاده از الگوریتم‌های ترسیم، محاسبات لازم برای محاسبه شباهت بر روی مجموعه داده‌های بزرگ را کاهش می‌دهد. به جای محاسبه شباهت برای هر کدام از نمونه‌های موجود در مجموعه داده، ما شباهت را فقط برای هر جفت نقطه در هر سطل محاسبه می‌کنیم.

Softmax

تابعی که به ازای هر دسته در یک مدل طبقه‌بندی چندکلاسه احتمال را محاسبه می‌کند. مجموع احتمالات برابر ۱ خواهد بود. به عنوان مثال، تابع بیشینه هموار ممکن است تشخیص دهد که احتمال این که یک تصویر مشخص متعلق به دسته «سگ» باشد برابر ۰.۹، «گربه» برابر ۰.۰۸ و «سگ» برابر ۰.۰۲ است. این تابع همچنین تابع بیشینه هموار کامل (full softmax) نیز نامیده می‌شود.

متضادها: نمونه‌گیری در دسترس (داوطلبانه)

Sparse Feature

یک بردار ویژگی که مقادیر آن اکثرا صفر یا خالی هستند. به عنوان مثال، یک بردار که تنها یک مقدار ۱ و میلیون‌ها مقدار صفر دارد پراکنده است. به عنوان مثال دیگر، کلماتی که در عبارت مورد جست‌و‌جو قرار دارند می‌توانند یک بردار پراکنده باشند. (در هر زبان کلمات بسیار زیادی وجود دارد اما تنها تعداد محدودی از آن‌ها در یک عبارت فرضی وجود دارند.)

متضاد: ویژگی متراکم

Sparse Representation

بازنمایی از یک تنسور که تنها المان‌های غیر صفر را نگهداری می‌کند.

به عنوان مثال، زبان انگلیسی شامل حدود یک میلیون کلمه است. دو روش زیر را برای نمایش تعداد کلمات به کار رفته در یک جمله انگلیسی را در نظر بگیرید:

Sparse Vector

یک بردار که بیشتر مقادیرش صفر هستند.

مطالعه بیشتر: ویژگی پراکنده

Sparsity

تعداد المان‌هایی از یک بردار یا ماتریس که صفر هستند تقسیم بر تعداد کل المان‌ها. به عنوان مثال، یک ماتریس ۱۰*۱۰ با ۹۸ سلول برابر صفر را درنظر بگیرید. مقدار پراکندگی در این مثال برابر است با:

پراکندگی ویژگی به پراکندگی در یک بردار ویژگی، و پراکندگی مدل به پراکندگی در وزن‌های یک مدل اشاره می‌کند.

Spatial Pooling

اطلاعات بیشتر: ادغام

Squared Hinge Loss

مربع خطای Hinge. مجذور خطای hinge داده‌های پرت را شدیدتر از خطای hinge عادی سرکوب می‌کند.

Squared Loss

تابع خطای مورد استفاده در مساله‌های رگرسیون خطی که تحت عنوان زیان L2 نیز شناخته می‌شود. این تابع مجذور اختلاف بین مقدار پیش‌بینی‌شده توسط مدل و برچسب واقعی یک نمونه برچسب‌زده‌شده را محاسبه می‌کند. با توجه به مربع شدن، این تابع خطا تاثیر پیش‌بینی‌های اشتباه را بیشتر می‌کند. به همین دلیل، تابع مجذور خطا به نسبت خطای L1 شدیدتر به داده‌های پرت واکنش نشان می‌دهد.

State-Action Value Function

مترادف: تابع Q

State

در یادگیری تقویتی، مقادیر پارامتر که تنظیمات فعلی محیطی را توصیف می‌کند‌، که عامل برای انتخاب یک عمل از آن استفاده می‌کند.

Static Model

مدلی که به صورت برون‌خطی (offline) آموزش دیده است.

Stationarity

یک ویژگی در داده‌های موجود در یک مجموعه داده، که بیانگر ثابت ماندن توزیع داده‌ها در یک یا چند بعد می‌باشد. این بعد معمولا زمان است، و به این معناست که داده‌هایی که نشان‌دهنده‌ی ایستایی هستند، با گذشت زمان تغییر نمی‌کنند.

Step

بک ارزیابی رو‌به‌جلو و معکوس بر روی یک دسته از داده‌ها.

Step Size

مترادف: نرخ یادگیری (learning rate)

Stochastic Gradient Descent (SGD)

یک الگوریتم کاهش شیب که در آن تعداد داده‌های یک دسته برابر یک است. به بیان دیگر، این الگوریتم برای تخمین شیب در هر گام، تنها به یک نمونه داده که به صورت تصادفی از میان مجموعه داده انتخاب شده نیاز دارد.

Stride

در هر عملگر کانولوشنی یا ادغام، به فاصله بین سری‌های داده‌های ورودی در هر بعد گفته می‌شود. به عنوان مثال، در نمونه زیر می‌توانید یک عملگر کانولوشنی با قدم‌های (۱,۱) را ببینید. بنابراین هر برش از داده‌ی ورودی به اندازه یک خانه به سمت راست از برش قبلی آغاز می‌شود. هنگامی که عملگر به لبه انتهایی سمت راست می‌رسد، برش بعدی از سمت چپ و با فاصله یک خانه به سمت پایین شروع می‌شود.

An input 5x5 matrix and a 3x3 convolutional filter. Because thestride is (1,1), a convolutional filter will be applied 9 times. The firstconvolutional slice evaluates the top-left 3x3 submatrix of the inputmatrix. The second slice evaluates the top-middle 3x3submatrix. The third convolutional slice evaluates the top-right 3x3submatrix.  The fourth slice evaluates the middle-left 3x3 submatrix.The fifth slice evaluates the middle 3x3 submatrix. The sixth sliceevaluates the middle-right 3x3 submatrix. The seventh slice evaluatesthe bottom-left 3x3 submatrix.  The eighth slice evaluates thebottom-middle 3x3 submatrix. The ninth slice evaluates the bottom-right 3x3submatrix.

مثال فوق نشان‌دهنده‌ی یک قدم دوبعدی است. اگر ماتریس ورودی سه‌بعدی باشد، قدم‌ها نیز باید سه‌بعدی باشند.

Structural Risk Minimization (SRM)

الگوریتمی که بین دو هدف زیر تعادل برقرار می‌کند:

به عنوان مثال، تابعی که مقدار خطا + نظم‌دهی را بر روی مجموعه داده آموزش کمینه می‌کند یک الگوریتم کمینه‌سازی ریسک ساختاری است.

متضاد: کمینه‌سازی ریسک تجربی

Subsampling

به ادغام رجوع کنید.

Supervised Machine Learning

آموزش یک مدل بر اساس داده‌های ورودی و برچسب‌های متناظر آن‌ها. یادگیری ماشین با ناظر مانند دانش آموزی است که با مطالعه‌ی مجموعه‌ای از سوالات و پاسخ‌های مربوط به آن‌ها، موضوعی را یاد می‌گیرد. بعد از تسلط بر روی نگاشت بین سوال‌ها و پاسخ‌ها، دانش‌آموز می‌تواند برای سوالاتی از آن موضوع که قبلا ندیده جواب تولید کند.

متضاد: یادگیری ماشین بدون نظارت

Synthetic Feature

ویژگی‌ای که در بین ویژگی‌های ورودی قرار ندارد، بلکه با استفاده از یک یا چند مورد از آن‌ها ساخته می‌شود. برای معرفی نمونه‌هایی از این ویژگی‌ها می‌توان به موارد زیر اشاره کرد:

ویژگی‌های حاصل از بهنجارش (normalization) و مقیاس‌گذاری (scaling) به تنهایی به عنوان ویژگی مصنوعی درنظر گرفته نمی‌شوند.