پروژه یادگیری قابل انطباق پذیر قابل تغییر است، مدل های یادگیری ماشین را دوباره طراحی میکنیم تا انسانها بتوانند درک کنند که کامپیوتر چگونه فکر میکند.
برنامه های کاربردی نرم افزاری به افرادی که بسیاری از تصمیمات خودکار را میگیرند، مانند شناسایی خطرات اعتبار فردی، اطلاع رسانی به یک استخدام کننده از نامزد شغلی برای استخدام، یا تعیین اینکه آیا کسی تهدیدی برای عموم است یا خیر. در سال های اخیر، سرفصل های اخبار هشداری هستند در مورد آیندهی تصمیم گیری در مورد زندگی انسانها که در آن ماشین آلات در پس زمینه جامعه با استفاده از منطق غیر قابل اعتماد کار میکنند.
بخشی از این ترس به شیوه مبهمی است که بسیاری از مدل های یادگیری ماشین بر اساس آن کار میکنند. مدل های در حال حاضر جعبه سیاهی هستند که به عنوان سیستم هایی تعریف میشوند که در آن از ورودی تا خروجی حتی برای توسعه دهندگان آن را قابل درک نمیباشد.
همانطور که یادگیری ماشین پیشرفته تر میشود، برنامه های کاربردی با عواقب جدی تری روبرو میشود، نیاز به درک مردم از این که این پیش بینیها چگونه انجام میشوند روز به روز پر رنگتر میگردد.
در حال حاضر، محققان یا از تکنیک های پسا یا یک مدل قابل تفسیر مانند درخت تصمیم برای توضیح اینکه چگونه یک مدل جعبه سیاه به نتیجه گیری خود میرسد استفاده میکنند. با استفاده از تکنیک های تصمیم گیری، محققان ورودیها و خروجی های الگوریتمی را مشاهده میکنند و سپس سعی میکنند توضیحی تقریبی برای آنچه در جعبه سیاه اتفاق افتاده است، بسازند. مسئله این روش این است که محققان تنها میتوانند در کارهای درونی حدس بزنند و توضیحات اغلب میتوانند اشتباه باشند. درخت تصمیم گیری که انتخاب نقشهها و پیامدهای بالقوه آن در یک ساختار مشابه درخت است، به خوبی برای داده های طبقه بندی شدهای که ویژگی های آنها معنی دار است، کار میکنند، اما این درختها در حوزه های مهم مانند دید کامپیوتر و دیگر مشکلات داده پیچیده، قابل تفسیر نیستند.
سو رهبری یک تیم در آزمایشگاه است که با پروفسور سینتیا رادین در دانشگاه دوک با دانش آموزان دوک Chaofan Chen، Oscar Li و Alina Barnett همکاری میکند تا روش هایی را برای جایگزینی مدل های جعبه سیاه با روش های پیش بینی شده شفاف تر نشان دهند. پروژه آنها، به نام یادگیری قابل تعویض پذیری قابل تعویض (AIM)، بر دو رویکرد تمرکز دارد: شبکه های عصبی قابل تفسیر و همچنین لیست های قانون بیزی قابل پذیرش و قابل تفسیر (BRLs).
یک شبکه عصبی یک سیستم محاسباتی است که به بسیاری از عناصر پردازش متصل است. این شبکهها به طور معمول برای تحلیل تصویر و تشخیص شی مورد استفاده قرار میگیرند. به عنوان مثال، یک الگوریتم میتواند یاد بگیرد تا تشخیص دهد آیا یک عکس شامل یک سگ است که ابتدا تصاویر سگها را نشان میدهد. محققان میگویند مشکل با این شبکه های عصبی این است که توابع آنها غیر خطی و بازگشتی است، و همچنین پیچیده و گیج کننده برای انسان، و نتیجه نهایی این است که دقیقا مشخص است که شبکه به عنوان dogness در عکسها چه چیزی مشخص است.
برای حل این مشکل، تیم در حال توسعه شبکه های عصبی اش میباشد. اینها از شبکه های عصبی سنتی متفاوت است، زیرا آنها به طور طبیعی با توضیحاتی برای هر یک از پیش بینی های خود، با ایجاد نمونه های اولیه، که به ویژه قسمت های نمایشی تصویر ورودی. این شبکهها پیش بینی های خود را بر اساس شباهت بخش هایی از تصویر ورودی به هر نمونه اولیه انجام میدهند.
به عنوان مثال، اگر یک شبکه به شناسایی اینکه آیا تصویر یک سگ، گربه یا اسب است وظیفه دارد، بخشی از تصویر را به نمونه اولیه بخش های مهم هر حیوانی مقایسه میکند و از این اطلاعات برای پیش بینی استفاده میکند. یک مقاله در این کار: این به نظر میرسد که: یادگیری عمیق برای تشخیص تصویر قابل تفسیر، اخیرا در یک بخش از Science Data در Homepodcast برجسته شده است. یک مقاله قبلی، آموزش عمیق برای استدلال مبتنی بر مورد با استفاده از نمونه های اولیه: یک شبکه عصبی که پیش بینی های آن را توضیح میدهد، تصاویر کل را به عنوان نمونه های اولیه، به جای قطعات استفاده میکند.
محدوده دیگری که تیم تحقیقاتی تحقیق میکند، BRL است که درخت تصمیم گیری یکپارچه بدون پیچیدگی، مناسب برای داده های جدولی است و اغلب به همان اندازه که مدل های دیگر. BRLs از یک دنبالهای از اظهارات شرطی ساخته شده است که به طور طبیعی یک مدل قابل تفسیر را تشکیل میدهند. به عنوان مثال، اگر فشار خون بالا باشد، خطر ابتلا به بیماری های قلبی بالا است. سو و همکاران از خواص BRLها استفاده میکنند تا کاربران را قادر سازد که کدام ویژگیها برای پیش بینی اهمیت دارند. آنها همچنین در حال توسعه BRL های تعاملی هستند که میتوانند بلافاصله هنگامی که داده های جدید وارد میشوند، به جای تنظیم مجدد از ابتدا در یک مجموعه داده های در حال رشد استفاده کنند.
استفانی کارنل، دانشجوی کارشناسی ارشد دانشگاه فلوریدا و کارشناس تابستانی گروه پشتیبانی اطلاعات و تصمیم گیری، BRL های تعاملی را از برنامه AIM به یک پروژه برای کمک به دانشجویان پزشکی در مصاحبه و تشخیص بیماران استفاده میکند. در حال حاضر، دانشجویان پزشکی با مصاحبه با بیماران مجازی، این مهارتها را انجام میدهند و نمرهای در مورد میزان اطلاعات مهم تشخیصی که آنها قادر به کشف شدن بودند را دریافت میکنند. اما نمره شامل توضیحات دقیق در مصاحبهای نیست که دانش آموزان برای رسیدن به نمره خود انجام دادند. پروژه AIM امیدوار است که این روند را تغییر دهد.
من میتوانم تصور کنم که اکثر دانشجویان پزشکی برای دریافت پیش بینی در مورد موفقیت بدون هیچ دلیل خاصی ناامید میشوند، چرا که کارنل میگوید. لیست قوانین تولید شده توسط AIM باید یک روش ایده آل برای دادن دانش آموزان مبتنی بر اطلاعات و بازخورد قابل درک باشد.
برنامه AIM بخشی از تحقیقات در حال انجام در آزمایشگاه در مهندسی سیستم های انسانی است - یا تمرین طراحی سیستم هایی که سازگار با چگونگی فکر و عملکرد مردم هستند، مانند الگوریتم های قابل فهم، نه مبهم.
هیللی رینولدز، معاون رهبر گروه اطلاع رسانی و تصمیم گیری، میگوید که آزمایشگاه فرصتی برای رهبری جهانی در زمینه آوردن انسانها و فناوریها است. ما در حال پیشرفت های بزرگ هستیم.
Melva James یکی دیگر از اعضای فنی فنی در گروه اطلاع رسانی و تصمیم گیری در پروژه AIM میگوید ما در آزمایشگاه پیاده سازی های Python از BRL و BRL های تعاملی را توسعه داده ایم. ما همزمان به آزمایش خروجی BRL و تعامل BRL پیاده سازی در سیستم عامل های مختلف و سخت افزار برای ایجاد قابلیت حمل و قابل بازیابی و همچنین کاربرد عملیات اضافی این الگوریتمها را شناسایی میکنیم.
سو توضیح میدهد: ما امیدواریم که یک استراتژی جدید برای الگوریتم های آزمایشگاهی تولید کنیم که مردم چون آنها را درک میکنند به آن الگوریتمها اعتماد کنند.
لطفاً در مورد مطلب فوق ستاره بدهید :
طراحی سایت پروژه یادگیری ماشین از جعبه سیاه فکرکردن بیرون می آید Rated 4.9 / 5 based on 8 reviews.
آیا این مقاله برای شما مفید بود؟