ابزار کاربر

ابزار سایت

ترجمه‌های این صفحه:

علمی:دوره_کوتاه_درسی:هسته_های_مثبت_معین:دانشنامه

هسته‌های مثبت معین

ارائه‌دهنده امیررضا معمار‌زاده

توضیحات

به طور کلاسیک، الگوریتم‌‌ها و نظریه‌های یادگیری ماشین و آمار برای حالت خطی بسیار خوب توسعه یافته‌اند. در مقابل، داده‌های دنیای واقعی، برای یافتن انواع وابستگی‌هایی که برای پیشبینی مفید هستند، نیاز به روش‌های غیرخطی دارند. با استفاده از یک هسته مثبت معین، گاهی می‌توان از الگوریتم‌های خطی برای حالات غیر خطی استفاده کرد. هسته عبارت است از ضرب داخلی در یک فضای ویژگی که معمولا ابعاد بالایی دارد. در این فضا، می‌توان از روش‌های تخمین خطی استفاده کرد. اگر عبارت های به کار گرفته شده همه بر اساس محاسبه هسته در نقاط مختلف باشد، نیازی به محاسبه صریح فضای با ابعاد بالا نیست. بهترین استفاده از هسته‌ها به طور سنتی در قضیه‌ای موسوم به قضیه نمایش دهنده (Representer Theorem) است که پایه نظری استفاده از SVMهاست، نمود دارد. اما در سال‌های اخیر مشخص شده است که استفاده بیشتری از هسته‌ها با محاسبه خطی آماره‌های در ابعاد بالاتر وجود دارد که این کار به کمک نگاشت توزیع ها به یک فضای هیلبرت با هسته بازآفرین(Reproducing Kernel Hilbert Space=RKHS) امکان پذیر است و فضای ویژگی چنین فضایی است. در این دوره درسی قرار است در چند جلسه به مبانی هسته ها و RKHS ها و هموارسازی آن‌ها؛ الگوریتم‌های خطی در RKHS و استفاده‌ای که در SVM ها دارند، نشاندن توزیع‌ها در فضای RKHS و معرفی نوعی فاصله میان توزیع‌ها بر مبنای آن و در نهایت کاربردهایی که در شبکه‌های مولد تخاصمی (GAN=Generative adversarial networks) دارند، بپردازیم.

جلسات

/opt/bitnami/dokuwiki/data/pages/علمی/دوره_کوتاه_درسی/هسته_های_مثبت_معین/دانشنامه.txt · آخرین ویرایش: 2022/09/07 10:45 توسط 127.0.0.1