Pandas

یک رابط برنامه‌نویسی تحلیل داده ستون‌گرا. بسیاری از فریم‌ورک‌های یادگیری ماشین، از جمله TensorFlow، از ساختار داده‌ی pandas به عنوان ورودی پشتیبانی می‌کنند.

اطلاعات بیشتر: اسناد مربوط به pandas

Parameter

هر متغیر در مدل که سیستم یادگیری ماشین مقدار آن را خود یاد می‌گیرد. به عنوان مثال، وزن‌ها پارامترهایی هستند که سیستم یادگیری ماشین در تکرارهای متوالی فرآیند آموزش مقدار آن را فرا می‌گیرد.

متضادها: ابرپارامتر (hyperparameter)

Parameter Update

عملیات تنظیم کردن پارامترهای مدل در حین فرآیند آموزش، که معمولا در یک تکرار (iteration) از الگوریتم کاهش شیب (gradient descent) اتفاق می‌افتد.

Partial Derivative

نوعی از مشتق‌گیری که در آن همه‌ی متغیرها به جز یکی ثابت در نظر گرفته می‌شوند. به عنوان مثال، مشتق جزئی تابع f(x,y) نسبت به x به معنای مشتق تابع f است درحالی که f تابعی تنها بر حسب x فرض می‌شود. (که این معادل ثابت در نظر گرفتن y است.) مشتق جزئی تابع f نسبت به x تنها بر تغییرات x تمرکز دارد و بقیه متغیرهای موجود در عبارت را نادیده می‌گیرد.

Participation Bias

مترادف سوگیری عدم پاسخ (non-response bias) است.

اطلاعات بیشتر: سوگیری انتخاب

Partitioning Strategy

الگوریتمی که به‌وسیله آن متغیرها بین سرورهای پارامتری تقسیم می‌شوند.

Perceptron

یک سیستم (نرم‌افزاری یا سخت‌افزاری) که یا چند مقدار ورودی دریافت کند، و جهت محاسبه مقدار خروجی یک تابع بر روی حاصل جمع وزن‌دار ورودی‌ها اعمال کند. در یادگیری ماشین، این تابع معمولا غیرخطی (مانند ReLU، sigmoid یا tanh) است. به عنوان مثال، پرسپترون زیر برای پردازش سه مقدار ورودی از تابع sigmiod استفاده می‌کند:

در تصویر زیر، پرسپترون سه مقدار ورودی می‌گیرد که هر کدام قبل از وارد شدن به پرسپترون در یک مقدار وزن ضرب می‌شوند:

پرسپترون‌ها همان گره‌ها (node) در شبکه‌های عصبی عمیق هستند. در واقع شبکه‌های عصبی عمیق از چندین پرسپترون متصل به هم تشکیل شده که از الگوریتم انتشار معکوس (backpropagation) جهت بازخورد استفاده می‌کند.

Performance

این واژه می‌تواند یکی از معانی زیر را داشته باشد:

Perplexity

یک معیار جهت اندازه‌گیری میزان خوب بودن یک مدل در انجام وظیفه. به عنوان مثال، فرض کنید وظیفه شما خواندن چند حرف اول کلمه‌ای است که کاربر در صفحه کلید تلفن هوشمند خود تایپ می‌کند تا با توجه به آن لیستی از کلمات احتمالی جهت تکمیل آن حروف ارائه کنید. سرگشتگی (P) در این وظیفه تقریبا برابر تعداد حدس‌هایی است که نیاز است شما بزنید قبل از این که کلمه هدف کاربر را پیشنهاد دهید.

سرگشتگی با فرمول زیر به آنتروپی متقاطع (cross-entropy) مرتبط می‌شود:

Pipeline

هر یک از زیرساخت‌ها در الگوریتم‌های یادگیری ماشین. یک خط لوله (pipeline) شامل جمع‌آوری داده، تبدیل داده‌ها به داده‌های آموزش مدل، آموزش یک یا چند مدل و تبدیل مدل‌ها به محصولات نهایی است.

Policy

در یادگیری تقویتی، به نگاشت احتمالی عامل (agent) از حالت‌ها (states) به عمل‌ها (actions) گفته می‌شود.

Pooling

کوچک کردن ماتریس (یا ماتریس‌هایی) که حاصل لایه کانولوشنی (پیچشی) قبلی هستند. ادغام معمولا به معنای پیدا کردن مقدار بیشینه یا محاسبه میانگین در ناحیه در حال ادغام است. به عنوان مثال، فرض کنید که ماتریس ۳*۳ زیر موجود است:

عملیات ادغام یا pooling نیز مانند عملیات کانولوشن، ماتریس را به چندین برش تقسیم می‌کند و با در نظر گرفتن قدم (stride) در هر مرحله عملیات ادغام را انجام می‌دهد. به عنوان مثال، فرض کنید که عملیات ادغام ماتریس را به یک برش‌های ۲*۲ تقسیم می‌کند و با قدم‌های ۱*۱ بر روی آن حرکت می‌کند. همان طور که نمودار زیر نشان می‌دهد، چهار عملیات ادغام اتفاق می‌افتد. تصور کنید که هر عملیات ادغام مقدار بیشینه را از بین چهار مقدار در پنجره انتخاب می‌کند. در این صورت داریم:

لایه‌های ادغام به تحقق ناوردایی انتقالی (translational invariance) در ماتریس ورودی کمک می‌کنند.

ادغام در حوزه بینایی ماشین معمولا به نام «ادغام مکانی» شناخته می‌شود،‌ اما در کاربردهای آن در حوزه سری‌های زمانی معمولا به آن «ادغام زمانی» گفته می‌شود. هم‌چنین، گاهی به آن «نمونه‌کاهی» (subsampling یا downsampling) گفته می‌شود.

Positive Class

در طبقه‌بندی دوتایی، دو طبقه ممکن به نام‌های «دسته مثبت» و «دسته منفی» شناخته می‌شوند. دسته مثبت همان چیزی است که ما به دنبال آن هستیم. به عنوان مثال، دسته مثبت در یک آزمایش پزشکی می‌تواند «تومور» باشد، یا در مساله طبقه‌بندی پیام‌های الکترونیکی، «هرزنامه» می‌تواند به عنوان دسته مثبت انتخاب شود.

متضاد: دسته منفی

Post-Processing

پردازش خروجی مدل بعد از اجرای آن. پس‌پردازش‌ها می‌توانند بدون ایجاد تغییر در مدل‌ها به متحقق شدن قیدهای تساوی کمک کنند.

به عنوان مثال، یک نمونه پس‌پردازش در یک طبقه‌بند دوتایی می‌تواند انتخاب حد آستانه‌ای باشد که با بررسی یکسان بودن نرخ مثبت حقیقی (True Positive Rate) برای همه گروه‌ها به برابری فرصت (equality of opportunity) منجر شود.

PR AUC (area under the PR curve)

ناحیه زیر منحنی دقت-بازخوانی (precision-recall) که با رسم کردن نقاط دقت و بازخوانی به ازای مقادیر مختلف آستانه دسته‌بندی به دست می‌آید. بسته به نحوه محاسبه آن، این نمودار می‌تواند معادل میانگین دقت مدل باشد.

Pre-trained Model

مدل یا بخشی از مدل (مانند تعبیه (embeddings)) که قبلا آموزش دیده است. گاهی اوقات شما تعبیه‌های یک مدل از قبل آموزش داده شده را به عنوان ورودی به یک شبکه عصبی می‌دهید. در دیگر مواقع، مدل به جای اتکا به تعبیه‌های یک مدل از پیش آموزش دیده، خود جهت محاسبه تعبیه‌ها آموزش می‌بیند.

Precision-Recall Curve

منحنی حاصل از محاسبه دقت (precision) و بازخوانی (recall) به ازای مقادیر مختلف آستانه دسته‌بندی.

Precision

یک معیار که برای مدل‌های دسته‌بندی استفاده می‌شود. دقت (precision) نسبت جواب‌های درستی را مشخص می‌کند که مدل هنگامی که پیش‌بینی‌اش دسته مثبت است دارد.

Prediction

خروجی مدل که به ازای یک نمونه ورودی تولید می‌شود.

Prediction Bias

مقداری که بیان می‌کند که میانگین پیش‌بینی‌های مدل چقدر از میانگین برچسب‌ها در مجموعه داده فاصله دارد.

این لغت نباید با اریبی در مدل‌های یادگیری ماشین یا با سوگیری در اخلاق و عدالت اشتباه گرفته شود.

Predictive Parity

یک معیار تساوی که بررسی می‌کند آیا یک طبقه‌بند برای تمام زیرگروه‌هایی که تحت شرایطی تعریف شده‌اند دقت برابری دارد یا خیر.

به عنوان مثال، یک مدل که احتمال پذیرش در دانشگاه را پیش‌بینی می‌کند دارای برابری پیش‌نگر خواهد بود اگر نرخ دقت آن برای لی‌لی‌پوتی‌ها و ساکنین براب‌دینگ‌نگ یکسان باشد.

برابری پیش‌نگر گاهی برابری نرخ پیش‌نگر (predictive rate parity) نیز خوانده می‌شود.

اطلاعات بیشتر: توضیح تعاریف عدالت، بخش ۳.۲.۱

Predictive Rate Parity

نام دیگری برای برابری پیش‌نگر.

Preprocessing

پردازش داده‌ها قبل از این که مدل از آن‌ها استفاده کند. پیش‌پردازش می‌تواند بسیار ساده (حذف کردن کلمه‌هایی از متن نگلیسی که در دیکشنری انگلیسی وجود ندارند) یا بسیار پیچیده (تنظیم مجدد نقاط داده‌ها به صوزتی که ویژگی‌های مرتبط با ویژگی‌های حساسیت برانگیز را از بین ببرد) باشد. انجام پیش‌پردازش می‌تواند به برقراری قیدهای تساوی (fairness constraint) کمک کند.

Prior Belief

آنچه قبل از شروع روند آموزش، درباره داده‌ها به آن اعتقاد دارید. به عنوان مثال، نظم‌دهی L2 به این باور قبلی متکی است که وزن‌ها باید اعدادی کوچک باشند که حوال عدد صفر دارای توزیع نرمال هستند.

Proxy (Sensitive Attributes)

یک ویژگی که به عنوان جایگزین ویژگی‌های حساسیت‌برانگیز استفاده می‌شود. به عنوان مثال، کد پستی یک شخص می‌تواند به عنوان پیش‌کار برای درآمد، نژاد یا قومیت آن فرد درنظر گرفته شود.

An attribute used as a stand-in for a sensitive attribute. For example, an individual's postal code might be used as a proxy for their income, race, or ethnicity.

Proxy Labels

داده‌هایی که برای تقریب برچسب‌هایی که مستقیماً در مجموعه داده در دسترس نیستند استفاده می‌شوند.

به عنوان مثال، فرض کنید شما می‌خواهید «باران می‌بارد؟» را به عنوان یک برچسب دودویی در مجموعه داده‌ی خود داشته باشید، اما مجموعه داده حاوی این برچسب نیست. اگر عکس در دسترس باشد، می‌توانید وجود تصاویر افرادی را که چتر حمل می‌کنند به عنوان برچسب پیش‌کار برای «باران می‌بارد؟» استفاده کنید. با این حال، برچسب‌های پیش‌کار ممکن است نتایج را تحریف کنند. به عنوان مثال، در بعضی از نقاط، حمل چتر بیشتر با هدف محافظت در برابر آفتاب استفاده می‌شود تا باران.