Backpropagation

الگوریتمی برای شبکه‌های عصبی با بیش از یک لایه پنهان است، که برای محاسبه دقیق‌تر گرادیان وزن مورد استفاده قرار می‌گیرد. ابتدا مقادیر خروجی هر گره رو به جلو محاسبه می‌شود. سپس مشتقات جزئی خطا با توجه به هر پارامتر با بازگشت به عقب از طریق نمودار محاسبه می شود.

Bag of Words

ارائه ای بدون ترتیب از لغات درون یک عبارت یا متن برای مثال در کیف کلمات سه عبارت زیر یکسان دیده میشوند.

هر کلمه به یک شاخص (index) در بردار پراکنده (sparse vector) متصل میشود، جایی که بردار برای هر کلمه در واژگان یک شاخص در نظر گرفته است.

برای مثال عبارت سگ بالاتر میپرد به یک بردار ویژگی با مقادیر غیر صفر برای سه نمایه‌ی مرتبط به کلمات سگ، بالاتر و میپرد متصل میشود. مقادیر غیرصفر میتواند هریک از موارد زیر باشد:

- 1 تا حضور کلمه را نشان بدهد.

- تعداد دفعاتی که کلمه در کیف مشاهده شده است برای مثال اگر عبارت "سگ قهوه‌ای یک سگ با رنگی قهوه‌ای است." باشد هر دو کلمه سگ و قهوه ای با مقدار۲ نمایش داده میشوند، درحالی که سایر کلمات با ۱ نمایش داده خواهند شد.

- الگوریتم های دیگر مانند لگاریتم تعداد دفعات تکرار کلمه در کیف.

Baseline

مدلی که به عنوان مرجعی برای مقایسه میزان خوب بودن مدلی دیگر (معمولا یک مدل پیچیده تر) استفاده میشود. برای مثال یک logistic regression model ممکن است بتواند به عنوان یک مبنا‌ی خوب برای یک deep model باشد.

Batch

مجموعه مواردی که در یک تکرار (یکبار بروزرسانی گرادیان ) از فرآیند آموزش مدل استفاده می‌شود.

مطالعه بیشتر: اندازه دسته (batch size)

Batch Normalization

نرمال سازی ورودی یا خروجی تابع فعال ساز در یک لایه‌ی مخفی. نرمال سازی دسته میتواند مزایای زیر را داشته باشد:

- شبکه‌های عصبی را به وسیله ی محافظت در برابر وزن داده‌های پرت پایدار تر میکند.

- نرخ یادگیری را بالاتر میبرد.

- بیش برازاندن (overfitting) را کاهش میدهد.

*

Batch Size

تعداد مواردی که در یک دسته حضور دارند. مثلا اندازه دسته SGD عدد یک است، درحالی که اندازه دسته یک mini-batch معمولا عددی بین ۱ تا ۱۰۰۰ است. اندازه دسته معمولا در طول فرآیند آموزش و استنتاج ثابت است اگرچه تنسرفلو اجازه تعریف اندازه دسته پویا را نیز میدهد.

Bayesian Neural Network

یک شبکه عصبی احتمالی متکی به قضیه بیز است که عدم قطعیت در وزن‌ها و خروجی‌های شبکه را به خود اختصاص می‌دهد. بیزین بر خلاف یک مدل رگرسیون (پیش‌بینی یک مقیاس) براساس توزیع مقادیر پیش‌بینی می‌کند. به عنوان مثال ، یک مدل قیمت خانه را 853،000 و بیزین قیمت خانه را 853،000 با انحراف استاندارد 67200 پیش‌بینی می‌کند. با استفاده از بیزین می‌توان کمیت عدم قطعیت را تعیین کرد.(مانند مدل‌های مرتبط با دارو) همچنین از بیش‌برازش جلوگیری کرد.

Bellman Equation

در یادگیری تقویتی (reinforcement learning) اتحاد زیر به وسیله تابع Q زیر بهینه می‌شود.

یادگیری تقویتی با اعمال این اتحاد به یادگیری Q با قاعده به‌روزرسانی زیر منجر می‌شود:

معادله بلمن علاوه بر یادگیری تقویتی کاربردهایی در برنامه‌نویسی پویا نیز دارد.

اطلاعات بیشتر: معادله بلمن در ویکی‌پدیا

Bias (Ethics/Fairness)

۱. کلیشه سازی ، تعصب یا طرفداری از برخی چیزها ، افراد یا گروهها نسبت به دیگران. این سوگیری ها می تواند بر روی جمع آوری و تفسیر داده ها ، طراحی سیستم و نحوه تعامل کاربران با یک سیستم تأثیر بگذارد. انواع این نوع تعصب شامل موارد زیر است:

۲. خطای سیستمیک که توسط یک روش نمونه گیری یا گزارش گیری ارائه شده است. انواع این نوع سوگیری شامل موارد زیر است:

با اصطلاح سوگیری درمدل‌های یادگیری ماشین یا سوگیری پیش بینی اشتباه گرفته نشود.

Bias (Math)

رهگیری یا انحراف از مبدا. در مدل‌های یادگیری ماشین اریبی (همچنین به عنوان مقدار اریبی نیز شناخته می‌شود.) به عنوان b یا w0 ارجاع داده می‌شود.

با سوگیری اخلاق و عدالت و سوگیری پیش بینی اشتباه گرفته نشود.

Bigram

یک N-کلمه‌ای (N-گرم) که در آن N=2 باشد.

Binary Classification

نوعی از طبقه‌بندی که خروجی آن به یکی از دو دسته ناسازگار تعلق داشته باشد. به عنوان مثال، یک مدل یادگیری ماشین که پیام‌های الکترونیک را بررسی می‌کند و آن‌ها را در یکی از دو کلاس «هرزنامه» و «غیر هرزنامه» دسته‌بندی می‌کند یک طبقه‌بند دوتایی ست.

Binning

مترادف: سطل‌بندی کردن (bucketing)

Boosting

یک تکنیک در یادگیری ماشین که به صورت پیاپی مجموعه‌ای از طیقه‌بندهای ساده و نه بسیار دقیق (طبقه‌بندهای ضعیف) را با یک طبقه‌بند با دقت بالا (طبقه‌بند قوی) با دادن وزن بیشتر به نمونه‌هایی که اشتباه طبقه‌بندی می‌شوند ترکیب می‌کند.

Bounding Box

مختصات x و y مستطیلی به دور یک شی در یک تصویر، مانند سگ در تصویر زیر.

Broadcasting

گسترش ابعاد (shape) یک عملوند درگیر با یک عملگر ماتریسی به ابعادی که برای آن عملگر مناسب باشند. به عنوان مثال، در جبر خطی نیاز است که دو عملوند درگیر در یک جمع ماتریسی ابعاد مشابهی داشته باشند. به همین دلیل امکان جمع یک ماتریس با ابعاد (m, n) با یک بردار به طول n وجود ندارد. انتشار همگانی امکان این عملیات را با گسترش مجازی وکتور به طول n و تبدیل آن به ماتریس با ابعاد (m, n) که در هر ستون آن یک مقدار تکرار شده فراهم می‌کند.

به عنوان مثال، با مفروضات زیر، جبر خطی جمع ‌‌A و B را نامجاز می‌داند، چون آن‌ها ابعاد متفاوتی دارند.

A = [[7, 10, 4],
     [13, 5, 9]]
B = [2]

اما انتشار همگانی با افزایش مجازی ابعاد B به ماتریس زیر، محاسبه A+B را ممکن می‌کند.

 [[2, 2, 2],
  [2, 2, 2]]

حال، A+B یک عملیات مجاز است.

[[7, 10, 4],  +  [[2, 2, 2],  =  [[ 9, 12, 6],
 [13, 5, 9]]      [2, 2, 2]]      [15, 7, 11]]

اطلاعات بیشتر: انتشار همگانی در NumPy

Bucketing

تبدیل یک ویژگی (feature) معمولا پیوسته بر اساس بازه مقادیر به چندین ویژگی دودویی که سطل (bucket) یا پیاله (bin) نامیده می‌شوند. به عنوان مثال، به جای بیان دما به عنوان یک ویژگی اعشاری پیوسته می‌توان آن را در چندین دسته گسسته با بازه‌های مشخص قرار داد. اگر داده‌های دما با حساسیت ۰.۱ درجه را داشته باشیم، داده‌هایی که دمایی بین ۰.۰ تا ۱۵.۰ درجه دارند می‌توانند در یک دسته قرار بگیرند، دماهای بین ۱۵.۱ تا ۳۰.۰ درجه در دسته دوم، و داده‌های با دمای بین ۳۰.۱ تا ۵۰.۰ در دسته سوم قرار می‌گیرند.