Data Analysis

درک داده‌ها با در نظر گرفتن نمونه‌ها و اندازه‌گیری و تصویرسازی از آن‌ها. داده‌کاوی به ویژه هنگامی که مجموعه داده‌ای برای اولین بار دریافت می‌شود می‌تواند برای فردی که می‌خواهد اولین مدل را آموزش دهد مفید باشد. همچنین این کار برای درک آزمایش‌ها و اشکال‌زدایی سیستم بسیار مهم است.

Data Augmentation

افزایش مصنوعی بازه و تعداد نمونه‌های آموزش با تغییر نمونه‌های موجود. به عنوان مثال، فرض کنید تصاویر یکی از ویژگی‌های مورد استفاده شما هستند، اما مجموعه داده تعداد کافی نمونه تصویر برای آموزش کاربردی مدل ندارد. در حالت ایده‌آل شما می‌توانید به اندازه کافی تصویر برچسب‌خورده به مجموعه داده اضافه کنید تا مدل درست آموزش داده شود. اگر این کار ممکن نباشد، داده‌افزایی می‌تواند با چرخش، کشیدن و بازتاب هر تصویر گونه‌های مختلفی از تصاویر اصلی ایجاد کنید که شما را به تعداد داده کافی برای آموزش برساند.

Dataset

مجموعه‌ای از نمونه‌ها.

DataFrame

یک نوع داده معروف برای نمایش مجموعه داده‌ها در pandas. DataFrame ساختاری مشابه جدول دارد. هر ستون آن یک نام یا سرتیتر‌ (header) دارد و هر ردیف با یک شماره مشخص می‌شود.

Decision Boundary

مرزی که کلاس‌های مختلف را از هم جدا می‌کند و توسط یک مدل در یک مساله طبقه‌بندی دوتایی یا چندتایی یاد گرفته شده است. به عنوان مثال، در تصویر زیر که یک مساله دسته‌بندی دوتایی را نشان می‌دهد، مرز بین دو کلاس نارنجی و آبی مرز تصمیم‌گیری است.

Decision Threshold

مترادف‌‌ها: آستانه دسته‌بندی (classification threshold)

Decision Tree

مدلی که به عنوان دنباله ای از انشعاب‌ها نشان داده می‌شود. به عنوان مثال، درخت تصمیم‌ ساده‌سازی‌شده زیر برای پیش‌بینی قیمت خانه ( هزار دلار) دارای چندین شاخه است. بر اساس این درخت تصمیم، پیش‌بینی می‌شود که خانه‌ای بزرگ‌تر از ۱۶۰ متر مربع، دارای بیش از سه اتاق خواب و با عمری کم‌تر از ۱۰ سال، ۵۱۰ هزار دلار قیمت خواهد داشت.

یادگیری ماشین می‌تواند درخت‌های تصمیم عمیق تولید کند.

Deep Model

نوعی از شبکه‌های عصبی که دارای چندین لایه پنهان (hidden layer) هستند.

متضاد: مدل‌های گسترده (wide model)

Deep Neural Network

مترادفی برای مدل عمیق است.

Deep Q-network (DQN)

در یادگیری Q ، یک شبکه‌ی عصبی عمیق است که توابع Q را پیش‌بینی می‌کند.

می‌توان گفت نقاد (Critic) مترادفی برای شبکه‌ی عمیق Q است.

Demographic Parity

یک معیار سنجش برابری است برای زمانی که پاسخ مدل به یک ویژگی حساس وابسته نباشد.

به عنوان مثال اگر دو گروه از افراد کوتاه و بلند قامت برای یک دانشگاه درخواست بفرستند، در صورت پذیرش درصد مساوی از هر دو گروه صرف نظر از اینکه کدام یک واجد شرایط‌تر هستند برابری جمعیتی حاصل می‌شود.

تضاد با شانس برابر و برابری فرصت‌ها که به طبقه‌بند اجازه‌ می‌دهد به ویژگی‌های حساس وابسته باشد، اجازه نمی‌دهد نتایج طبقه‌بند برای یک سری برچسب‌های حقیقی خاص، وابسته به ویژگی های حساس باشد.

برای درک بهتر بهینه‌سازی برابری جمعیتی به "حمله به تبعیض با یادگیری ماشین هوشمند" مراجعه کنید.

Dense Feature

ویژگی‌ای که در آن بیشتر مقادیر غیر صفراند . به طور معمول یک تنسور از مقادیر شناور، در تضاد با ویژگی پراکنده است.

Dense Layer

مترادفی برای لایه کاملاً همبند است.

Depth

تعداد لایه‌ها(از جمله هر لایه‌ی تعبیه شده) در یک شبکه عصبی که وزن‌ها را یاد می‌گیرند. به عنوان مثال، یک شبکه عصبی با ۵ لایه پنهان و ۱ لایه خروجی دارای عمق ۶ است.

Depthwise Separable Convolutional Neural Network (sepcnn)

یک معماری شبکه‌ی عصبی کانولوشنال مبتنی بر Inception است که ماژول‌های آن با کانولوشن کانال‌های تفکیک‌پذیر جایگزین می‌شوند. همچنین به عنوان Xception شناخته می‌شود.

کانولوشن کانال‌های تفکیک‌پذیر یک نتیجه‌گیری ۳ بعدی استاندارد را به دو عمل جابجایی جداگانه تبدیل می‌کند که از نظر محاسباتی کارآمد‌تر هستند: اول یک کانولوشن عمیق با عمق 1 (n * n * 1) و سپس یک کانولوشن نقطه‌ای با طول و عرض 1 (1 * 1 * n).

برای کسب اطلاعات بیشتر ، به Xception: Deep Learning with Depthwise Separable Convolutions مراجعه کنید.

Dimension Reduction

کاهش تعداد ابعاد مورد استفاده برای نشان دادن یک ویژگی خاص درz یک بردار ویژگی که به طور معمول با تبدیل به تعبیه صورت می‌گیرد.

Dimensions

با هر یک از عبارات زیر قابل تعریف است:

  1. یک مقیاس دارای ابعاد صفر است. به عنوان مثال : ["سلام"]
  2. یک وکتور یک بعد دارد. به عنوان مثال : [3 ، 5 ، 7 ، 11]
  3. یک ماتریس دارای دو بعد است. به عنوان مثال : [[2 ، 4 ، 18] ، [5 ، 7 ، 14]]

برای مشخص کردن یک درایه خاص را در یک بردار یک بعدی با یک مختصات و در یک ماتریس دو بعدی به دو مختصات نیاز است.

Discrete Feature

یک ویژگی با مجموعه محدودی از مقادیر ممکن است. به عنوان مثال ویژگی‌ای که مقادیر آن فقط ممکن است حیوانی، نباتی یا معدنی باشد یک ویژگی گسسته یا طبقه بندی شده است.( در تضاد با ویژگی پیوسته)

Discriminative Model

مدلی که برچسب‌ها را از مجموعه‌ای از یک یا چند ویژگی، پیش‌بینی می‌کند. به طور کلی‌تر مدل‌های تشخیص‌دهنده احتمال شرطی یک خروجی را با توجه به ویژگی‌ها و وزن‌ها تعریف می‌کنند.

به این صورت که:

(خروجی | ویژگی‌ها ، وزن‌ها)p

به عنوان مثال مدلی که پیش‌بینی می‌کند آیا ایمیلی اسپم است یا خیر(از طریق ویژگی‌ها و وزن‌هایش) مدل تشخیص‌دهنده است.

اغلب الگوهای مبتنی بر یادگیری نظارت‌شده از جمله مدل‌های طبقه‌بندی و رگرسیون مدل‌های تشخیص‌دهنده هستند.(در تضاد با مدل‌های مولد)

Discriminator

سیستمی که مشخص می‌کند نمونه‌ها واقعی یا ساختگی هستند و به عنوان یک زیر سیستم در شبکه‌ی مولد تخاصمی بر کار مولد نظارت می‌کند.

Disparate Impact

تصمیم‌گیری نامتناسب در مورد افرادی که تحت تاثیر گروه‌های مختلف جامعه قرار دارند. معمولا در شرایطی که یک فرآیند تصمیم‌گیری الگوریتمی بجای سود، به بعضی از زیر گروه‌ها آسیب می‌رساند.

به عنوان مثال الگوریتمی را در نظر بگیرید که صلاحیت لیلیپوتی را برای دریافت وام خانه‌ی مینیاتوری تعیین کند‌، احتمالا اگر آدرس پستی آن‌ها حاوی کد پستی خاصی باشد آن‌ها را به عنوان "غیرمجاز" طبقه بندی می‌کنند. حال اگر لیلیپوت‌های Big-Endian آدرس پستی مشابه‌ای با کد پستی لیلیپوت‌های Little-Endian داشته باشند، در این صورت ممکن است این الگوریتم دارای تاثیر متفاوتی باشد که موجب نابرابری می‌شود.

در تضاد با تبعیض(رفتار‌های نابرابر) است که بر نابرابری حاصل از ورودی ویژگی‌های زیر گروه به یک فرآیند تصمیم‌گیری الگوریتمی هستند.

Disparate Treatment

ویژگی‌های حساس فاکتورسازی را به گونه‌ای در یک فرآیند تصمیم گیری الگوریتمی قرار می‌دهد که با زیر گروه‌های مختلف از مردم متفاوت رفتار می‌شود(تبعیض).

به عنوان مثال الگوریتمی را در نظر بگیرید که صلاحیت لیلیپوت‌ها را برای وام خانه کوچک براساس داده‌هایی که در برنامه وام خود ارائه می‌دهند تعیین کند. اگر این الگوریتم از وابستگی لیلیپوت به عنوان Big-Endian یا Little-Endian به عنوان ورودی استفاده کند، در همان بعد نابرابری رفتاری را اعمال می‌کند.

در تضاد با تاثیر نابرابری است که بر نابرابری در تاثیرات اجتماعی تصمیمات الگوریتمی در زیر گروه‌ها متمرکز است، صرف نظر از اینکه زیر گروه‌ها ورودی مدل هستند یا نه.

Divisive Clustering

خوشه‌بندی سلسله مراتبی را ببینید.

Downsampling

با هر یک از عبارات زیر قابل تعریف است:

DQN

اختصار Deep Q-Network.

Dropout Regularization

نوعی تنظیم کارآمد در آموزش شبکه‌های عصبی است که با حذف یک انتخاب تصادفی از تعداد ثابت واحدهای یک لایه شبکه کار می کند. هرچه واحدها بیشتر از بین بروند، نظم و انعطاف پذیری قوی‌تر می‌شود.که شبیه به آموزش شبکه برای تقلید از یک مجموعه نمایی بزرگ از شبکه‌های کوچک‌تر است. برای جزئیات کامل به "Dropout: A Simple Way to Prevent Neural Networks from Overfitting" مراجعه کنید.

Dynamic Model

مدلی که آنلاین و به صورت پیوسته آموزش داده می‌شود.یعنی داده‌ها بطور پیوسته وارد مدل می‌شوند.