i.i.d.

مخفف توزیع شده به صورت مستقل و یکسان.

Image Recognition

پروسه ای که طی ان شی (اشیا), الگو(ها) یا مفهوم(مفاهیم) موجود در یک عکس طبقه بندی می شوند.تشخیص تصویر به عنوان طبقه بندی تصویر نیز شناخته می شود.

برای اطلاعات بیشتر این لینک را مشاهده کنید.

Imbalanced Dataset

مترادفی برای مجموعه‌داده دسته نامتوازن است.

Implicit Bias

فرد براساس الگوی فکری و خاطراتش ارتباط یا گمانی به طور غیرارادی فرض می کند.سوگیری ضمنی می تواند بر موارد زیر تاییر بگذارد:

برای مثال در طراحی یک سیستم تشخیص عکس مراسم عروسی, یک مهندس ممکن است وجود لباس سفید در عکس را به عنوان یک ویژگی در نظر بگیرد درحالیکه لباس سفید فقط در دوره های زمانی و فرهنگ های مشخصی به عنوان عرف بوده است. مطالعه بیشتر: سوگیری تاییدی

In-group Bias

طرفداری یا تعصب نشان دادن برای گروه یا مشخصات خود.اگر ازمونگر ها و ارزیاب ها (یک پروژه یادگیری ماشین) دوستان, خانواده یا همکاران توسعه دهنده یادگیری ماشین باشند, سوگیری بین گروهی می تواند ازمایش محصول یا دیتاست را بی اعتبار کند.

سوگیری بین گروهی نوعی از انتساب گروهی مقدار پیش فرض می باشد.

مطالعه بیشتر: سوگیری همگنی خارج از گروهی

Incompatibility Of Fairness Metrics

این گمان که برخی از مفاهیم عدالت با یکدیگر ناسازگارند و نمی توانند به طور همزمان ارضا شوند.در نتیجه این گمان, یک معیار جهانی برای کمی سازی عدالت که در همه مسائل یادگیری ماشین قابل پیاده سازی باشد وجود ندارد.

با اینکه این گمان ممکن است دلسردکننده به نظر برسد بدین معنی نیست که تلاشها برای برقراری عدالت (در مسائل یادگیری ماشین) بی نتیجه می باشند در عوض پیشنهاد می دهد که عدالت باید با توجه به مفاد و محتوای (مسئله یادگیری ماشین) برای مسئله یادگیری ماشین داده شده با هدف جلوگیری از اسیب زدن به موارد استفاده از ان تعریف شود.

برای اطلاعات بیشتر این مقاله را مطالعه کنید.

Independently and Identically Distributed (i.i.d)

داه ای که از توزیعی گرفته شده است که تغییر نمی کند و هر مقدار گرفته شده در این داده ارتباطی با مقداری که از قبل گرفته شده است ندارد.یک i.i.d گاز ایده ال یادگیری ماشین است - یک ساختار ریاضی مفید که تقریبا اصلا در دنیای واقعی اتفاق نمی افتد.برای مثال توزیع بازدیدکنندگان یک صفحه وب می تواند در یک بازه ی کوتاهی از زمان یک i.i.d باشد زیرا توزیع ان در این بازه کوتاه تغییر نمی کند و بازدید یک فرد از ان صفحه از بازدید فرد دیگر از ان صفحه مستقل می باشد. با اینحال اگر این بازه را بسط بدهیم در (توزیع) بازدیدکنندگان ممکن است تفاوت هایی پدیدار شود.

Individual Fairness

معیار تساوی که بررسی می کند ایا افراد مشابه یکسان طبقه بندی شده اند یا خیر.برای مثال یک دانشگاه برای برقرار کردن تساوی و انصاف ممکن است اطمینان حاصل کند که حتما دو دانش اموز با نمرات یکسان و نمرات ازمون استاندارد یکسان شانس پذیرش یکسانی دارند.

درنظر داشته باشید که تساوی فردی بسیار وابسته به این هست که شما شباهت را چگونه تعریف می کنید (در مورد بالا نمرات ازمون) و این ریسک وجود دارد که مشکلات تساوی و انصاف جدیدی بوجود بیایند اگر این معیار های شباهت درست انتخاب نشده و اطلاعات مهم را در نظر نگیرند (برای مثال در مثال بالا درجه سختی برنامه درسی داش اموز).

برای اطلاعات بیشتر می توانید این مقاله را مطالعه کنید.

Inference

در یادگیری ماشین, معمولا به فرایند پیش بینی کردن از طریق اجرا کردن نمونه های بدون برچسب روی مدل اموزش دیده گفته می شود.در امار, به فرایند برازاندن مولفه های یک توزیع براساس برخی از داده های مشاهده شده گفته می شود.

برای اطلاعات بیشتر این مقاله را در ویکی پدیا مطالعه کنید.

Input Layer

اولین لایه در یک شبکه عصبی (که داده ی ورودی را دریافت می کند.)

Instance

هم معنی نمونه.

Inter-rater Agreement

سنجش میزان توافق بین ارزیابان در هنگام انجام یک کار.(یک نمره که درجه ی همگونی و توافق را در ارزیابی های داده شده توسط چندین کارشناس معین می کند.).اگر ارزیابان (هنگام انجام یک کار) یا یکدیگر مخالف کنند, دستورالعمل های ان کار ممکن است نیاز به بهبود داشته باشد.این توافق گاهی توافق بین حاشیه نویسان و یا پایایی بین ارزیابان هم نامیده می شود.

می توانید این مقاله در مورد کاپای کوهن را در ویکی پدیا مطالعه کنید که یکی از پرطرفدارترین معیار های اندازه گیری توافق بین ارزیابان می باشد.

Interpretability

درجه سختی توضیح پیش بینی های یک مدل.مدل های عمیق معمولا غیرقابل تفسیر می باشند بدین معنی که لایه های مختلف یک مدل عمیق به سختی قابل رمزگشایی می باشند.در مقابل ان مدل های رگرسیون خطی و مدل های گسترده معمولا بسیار قابل تفسیرتر می باشند.

Intersection Over Union (iou)

اشتراک دو مجموعه تقسیم بر اجتماعشان.در یادگیری ماشین در کارهای تشخیص در تصویر اشتراک بر اجتماع برای اندازه گیری دقت کادر محصورکننده پیش بینی شده توسط مدل در مقایسه با کادر محصورکننده حقیقی استفاده می شود.در این مورد, اشتراک بر اجتماع دو کادر برابر است با نسبت مساحت همپوشانی به مساحت کل و مقدار این نسبت بین ۰(هیچ همپوشانی بین کادر محصورکننده پیش بینی شده توسط مدل و کادر محصورکننده حقیقی وجود ندارد) تا ۱(مختصات کادر محصورکننده پیش بینی شده توسط مدل و کادرمحصورکننده حقیقی دقیقا یکسان است) تغییر می کند.

برای مثال در تصویر زیر:

در تصویر زیر اشتراک کادر محصورکننده پیش بینی شده توسط مدل با کادر محصورکننده حقیقی ۱ و اجتماع انها (تصویر اخر) ۷ می باشد پس میزان اشتراک بر اجتماعشان ۱/۷ می باشد.

IoU

مخفف اشتراک بر اجتماع یا Intersection Over Union است.

Item Matrix

ماتریسی که در سیستم‌های توصیه‌گر از ویژگی‌های ساخته شده توسط عامل‌بندی ماتریس که سیگنال‌های نهفته درباره هر آیتم را نگهداری می‌کند ایجاد می‌شود. هر ردیف از ماتریس آیتم، مقدار یک ویژگی نهفته را برای همه موارد نشان می‌دهد. به عنوان مثال، یک سیستم توصیه‌گر درباره فیلم‌ها را در نظر بگیرید. هر ستون در ماتریس آیتم نشان‌دهنده یک فیلم است. سیگنال‌های نهفته ممکن است نشان‌دهنده‌ی ژانرها باشند، یا ممکن است سیگنال‌های سخت-تفسیری باشند که ارتباطات پیچیده‌ای بین سبک فیلم، امتیاز، سال ساخت یا عوامل دیگر را شامل شود.

ماتریس آیتم همان تعداد ستون دارد که ماتریس عامل‌بندی هدف باید داشته باشد. به عنوان مثال، ماتریس آیتم یک سیستم توصیه‌گر فیلم که ۱۰۰۰۰ فیلم را ارزیابی می‌کند، ۱۰۰۰۰ ستون خواهد داشت.

Items

اقلامی که یک سیستم توصیه‌گر از بین آن‌ها پیشنهاد می‌دهد. به عنوان مثال، برای یک سیستم توصیه‌گر در یک کتاب‌فروشی، کتاب‌ها آیتم حساب می‌شوند.

Iteration

هر بروزرسانی بر روی وزن‌های مدل در حین فرآیند آموزش. یک تکرار شامل محاسبه گرادیان‌های پارامترهای شبکه با در نظر گرفتن مقدار زیان شبکه بر روی یک دسته (batch) از داده‌ها است.