C

حرف C

Letter C

کلمات توضیح
۱ Calibration Layer

یک تعدیل پس از پیش‌بینی (post-prediction adjustment) که معمولا برای بررسی سوگیری پیش‌بینی (prediction bias) استفاده می‌شود. پیش‌بینی‌های تعدیل شده و احتمالاتشان باید با توزیع مجموعه‌ی بررسی‌شده‌ای از...

۲ Candidate Generation

مجموعه اولیه‌ای از پیشنهادات که توسط یک سامانه پیشنهادگر انتخاب شده‌اند. به عنوان مثال، کتاب‌فروشی‌ای که ۱۰۰۰۰۰ عنوان کتاب دارد را در نظر بگیرید. در مرحله تولید کاندیدا، مجموعه‌ی بسیار کوچک‌تری (مثلا...

۳ Candidate Sampling

یک بهینه‌سازی در زمان آموزش که در آن احتمال تمامی برچسب‌های مثبت با استفاده از مثلا softmax محاسبه می‌شود؛ اما این کار تنها برای نمونه‌هایی تصادفی از برچسب‌های منفی می‌افتد. به عنوان مثال، برای یک...

۴ Categorical Data

ویژگی‌هایی که تنها می‌توانند مجموعه‌ی گسسته‌ای از مقادیر ممکن را داشته باشند. برای مثال یک داده‌ی رسته‌ای به نام نوع خانه را در نظر بگیرید، که می‌تواند سه مقدار ممکن ویلایی، آپارتمانی و برج را داشته...

۵ Centroid-based Clustering

شاخه‌ای از الگوریتم‌های خوشه‌بندی یا clustering که داده‌ها را در خوشه‌های غیرسلسله‌ مراتبی سازمان‌دهی می‌کند. k-means از پراستفاده‌ترین الگوریتم‌های این شاخه است. متضادها: خوشه‌بندی سلسله مراتبی...

۶ Centroid

مرکز خوشه‌هایی که توسط الگوریتم‌های k-means یا k-median مشخص می‌شوند. به عنوان مثال، اگر k برابر ۳ باشد، الگوریتم‌های ‌k-means یا k-median سه مرکز خوشه یا centroid پیدا خواهند کرد.

۷ Checkpoint

داده‌هایی که وضعیت متغیرهای یک مدل را در یک زمان مشخص ذخیره می‌کنند. با استفاده از این داده‌ها،‌ امکان خروجی گرفتن از وزن‌های مدل را در حالی که در نشست‌های (session) مختلف در حال آموزش است فراهم...

۸ Class-imbalanced Dataset

مشکلی است که در مساله‌های دسته‌بندی دوتایی (binary classification) پیش می‌آید که در آن تعداد برچسب‌های یک دسته با دیگری تفاوت زیادی دارد. به عنوان مثال، مجموعه داده‌ای مربوط به یک بیماری که در آن...

۹ Class

هر کدام از مجموعه مقادیر ذکر شده که یک برچسب می‌تواند بپذیرد. برای مثال، در یک مدل دسته‌بندی دوتایی‌ که هرزنامه‌ها را تشخیص می‌دهد، «هرزنامه» و «غیر هرزنامه» دو دسته هستند. یا در یک مدل دسته‌بندی...

۱۰ Classification Model

نوعی از مدل‌های یادگیری ماشین که برای تمایز قائل شدن میان دو یا چند دسته مجزا استفاده می‌شوند. به عنوان مثال، یک مدل دسته‌بندی پردازش زبان طبیعی می‌تواند تشخیص دهد که جمله ورودی به کدام یک از زبان‌های...

۱۱ Classification Threshold

یک مقدار عددی معیار که بر روی امتیاز خروجی مدل اعمال می‌شود تا دسته مثبت را از دسته منفی جدا کند. از این مقدار زمانی استفاده می‌شود که نیاز است نگاشتی (mapping) بین نتیجه [وایازش آمادی (رگرسیون لجستیک...

۱۲ Clipping

روشی برای رسیدگی به داده‌های پرت است. در این روش، ویژگی‌هایی که مقداری بیش از یک مقدار بیشینه مشخص دارند کاهش پیدا می‌کنند تا به آن مقدار بیشینه برسند. هم‌چنین، ویژگی‌هایی که مقداری کمتر از یک مقدار...

۱۳ Clustering

قرار دادن نمونه‌های مرتبط در یک گروه، به خصوص در حین یادگیری بدون نظارت (unsupervised learning). پس از این که تمامی نمونه‌ها در گروه‌ها قرار گرفتند، انسان‌ها می‌توانند به هر خوشه معنایی اختصاص...

۱۴ Co-adaptation

هنگامی که نورون‌ها الگوهای موجود در داده‌های آموزش (training set) را به جای تکیه کردن بر رفتار شبکه به عنوان یک کل، تنها بر اساس خروجی برخی نورون‌های مشخص پیش‌بینی می‌کنند. اگر الگوهایی که باعث...

۱۵ Collaborative Filtering

پیش‌بینی کردن علاقه‌مندی‌های یک کاربر بر اساس علاقه‌مندی‌های کاربران دیگر. پالایش گروهی معمولا در سامانه‌های پیشنهادگر (recommendation systems) استفاده می‌شود.

۱۶ Confirmation Bias

تمایل به جستجو، تفسیر، تصویب یا به‌ خاطر آوردن اطلاعات به صورتی که باورها یا فرضیه‌های موجود را تایید کند. توسعه‌دهندگان یادگیری ماشین ممکن است ناخواسته در روند جمع‌‌آوری یا برچسب زدن داده‌ها به شکلی...

۱۷ Confusion Matrix

یک ماتریس n×n که میزان موفقیت یک مدل دسته‌بندی در پیش‌بینی را طور مختصر نمایش می‌دهد. برای این کار هم‌بستگی بین برچسب‌ها و دسته‌بندی‌های مدل بررسی می‌شود. یک محور ماتریس درهم‌ریختگی برچسب‌های پیش‌بینی...

۱۸ Continuous Feature

یک ویژگی اعشاری که می‌تواند بازه نامحدودی از اعداد را بپذیرد. متضادها: ویژگی گسسته

۱۹ Convenience Sampling

استفاده از مجموعه داده‌ای که به روش علمی جمع‌آوری نشده است، با هدف اجرای سریع‌تر آزمایش‌ها. در این صورت لازم است که بعدا مجموعه داده‌ای که با روش‌های علمی جمع‌آوری شده جایگزین آن گردد.

۲۰ Convergence

معمولا به وضعیتی در روند آموزش شبکه اشاره دارد که در آن بعد از مدتی مقدار زیان داده‌های آموزش (training loss) و هم‌چنین مقدار زیان داده‌های اعتبارسنجی (validation loss) در هر تکرار (iteration) خیلی کم...

۲۱ Convex Function

تابعی که در آن فضای بالای گراف تابع یک مجموعه محدب باشد. نمونه اولیه تابع محدب شکلی شبیه حرف "U" دارد. به عنوان مثال، توابع زیر نمونه‌هایی از تابع محدب هستند. در مقابل نمودارهای...

۲۲ Convex Optimization

فرآیند استفاده از تکنیک‌های ریاضی مانند گرادیان کاهشی (gradient descent) با هدف پیدا کردن مقدار کمینه یک تایع محدب. تحقیقات زیادی در حوزه یادگیری ماشین با تمرکز بر پیدا کردن قاعده‌ای جهت تبدیل مسائل...

۲۳ Convex Set

زیرمجموعه‌ای از فضای اقلیدسی به‌نحوی‌که هر پاره‌خطی که بین دو نقطه دلخواه از زیرمجموعه رسم شود، کاملاً درون زیرمجموعه باقی بماند. به‌عنوان‌مثال، شکل‌های زیر مجموعه محدب هستند: در مقابل، شکل‌های...

۲۴ Convolution

یکی از توابع ریاضی که دو تابع را با یکدیگر ترکیب می‌کند. در یادگیری ماشین، عملیات کانولوشن فیلتر کانولونشی را با ماتریس ورودی ترکیب می‌کند و از این طریق به آموزش وزن‌ها می‌پردازد. در یادگیری ماشین،...

۲۵ Convolutional Filter

یکی از دو عامل درگیر در عملگر پیچشی (convolutional operation). (عامل دیگر برشی از ماتریس ورودی است.) یک پالایه پیچشی ماتریسی با رتبه‌ای (rank) مشابه ماتریس ورودی است که ابعادی (shape) کوچک‌تر از آن...

۲۶ Convolutional Layer

لایه‌ای از یک شبکه عصبی عمیق که در آن یک پالایه پیچشی (convolutional fliter) از روی ماتریس ورودی گذر می‌کند. به عنوان مثال، پالایه پیچشی ۳ * ۳ زیر را در نظر بگیرید: انیمیشن زیر نشان می‌دهد که چطور...

۲۷ Convolutional Neural Network

شبکه عصبی‌ای که در آن حداقل یک لایه کانولوشنی وجود داشته باشد. یک شبکه عصبی کانولوشنی عادی شامل ترکیبی از لایه‌های زیر است: لایه‌های کانولوشنی یا پیچشی لایه‌های ادغام (pooling layer) لایه‌های چگال...

۲۸ Convolutional Operation

عبارت است از عملگر ریاضی دو مرحله‌ای زیر: ضرب درایه به درایه پالایه کانولوشنی (convolutional fliter) و برشی از ماتریس ورودی. (برش مورد نظر از ماتریس ورودی مرتبه و اندازه‌ای مشابه پالایه کانولوشنی...

۲۹ Cost

مترادفی برای زیان (loss) است.

۳۰ Counterfactual Fairness

یک معیار تساوی (fairness metric) که بررسی می‌کند آیا یک طبقه‌بند (classifier) برای دو موجودیت همسان که تنها در برخی ویژگی‌های حساسیت‌برانگیز (sensitive attributes) با هم تفاوت دارند، نتایج مشابهی...

۳۱ Coverage Bias

سوگیری گزینش (selection bias) را ببینید.

۳۲ Crash Blossom

جمله یا عبارتی با معنای مبهم. این عبارت به یک مساله مهم در درک زبان طبیعی اشاره (natural language understanding) دارد.

۳۳ Critic

مترادف: Q-شبکه عمیق (Deep Q-Network)

۳۴ Cross Entropy

تعمیمی از تابع زیان لگاریتمی (Log Loss) برای مسائل طبقه‌بندی چند دسته‌ای. آنتروپی متقاطع اختلاف بین دو توزیع احتمال را اندازه‌گیری می‌کند. مطالعه بیشتر: سرگشتگی (perplexity)

۳۵ Cross Validation

ساز و کاری برای پیش‌بینی این که مدل چقدر توانایی تعمیم برای داده‌های جدید را دارد. این کار با آزمایش مدل بر یک یا چند زیرمجموعه از داده‌های آموزش که با آن همپوشانی ندارند اتفاق می‌افتد.