حتما بارها و بارها در گوشه و کنار شنیده اید که شرکتها و افراد صاحب نام چطور با ترس و وحشت از قدرت گرفتن رباتها در برابر انسان سخن میگویند و روزی را به تصویر میکشند که در آن انسان تحت تسلط دست سازه هایش قرار میگیرد. در مقابل این گروه هم همواره افرادی وجود دارند که مدعی میشوند تمام تلاش خود را برای حفاظت از بشر در مقابل هوش مصنوعی به خدمت میگیرند.
ساتیا نادلا مدیرعامل مایکروسافت هم یکی از این افراد است که اخیرا قوانین و مقررات اختصاصی خود را برای تحقق این مهم مطرح نموده و در ادامه توجه شما را به خلاصهای از مباحث مطرح شده از زبان وی جلب میکنیم.
آنطور که در نشریه Slate به نقل از نادلا آمده:
1- «هوش مصنوعی باید برای کمک به بشریت طراحی گردد»: که البته این اصل مورد توافق خیلی هاست.
2- «هوش مصنوعی باید شفاف باشد»: این ایده در نوع خود بسیار خوب به نظر میآید هرچند که نادلا در گفته هایش اشاره کرده بود «فناوری در مورد انسان چیزهایی خواهد دانست، اما انسانها باید در مورد ماشینها یاد بگیرند» و این جمله را به نوعی میتوان ناقض عبارت نخست دانست.
3- «هوش مصنوعی باید بیشترین بهره وری را با خود به ارمغان بیاورد و در عین حال نباید کرامت انسانی را جریحه دار کند». او اضافه کرد که این یعنی: «صنعت فناوری نباید ارزش های آینده را دیکته کند». اما اتفاقی که نادلا نسبت به وقوعش هشدار داده، به شیوهای دیگر قبلا رخ داده؛ این روزها همه در تلاشند تا کد نویسی یاد بگیرند.
4- «هوش مصنوعی باید برای حریم خصوصی هوشمند طراحی گردد»: حریم خصوصی «هوشمند» چیست؟ آیا منظور این است که مثلا تنظیمات حریم خصوصی فیسبوک آنقدر پیچیده هستند که تنها خوره های تکنولوژی میدانند چطور باید چشم های کنجکاو را از عکس های خود دور نگه دارند؟
5- «هوش مصنوعی باید مسئولیت الگوریتم داشته باشد تا انسان بتواند خسارات ناخواستهای که ممکن است از طریق آن به بار میآید را از میان ببرد». باید دید نظر او در مورد دکمه «غیرفعالسازی هوش مصنوعی» گوگل چیست؟ (منظور در واقع سندی است که شرکت DeepMind، از کمپانی های وابسته به گوگل که در زمینه هوش مصنوعی فعالیت دارد، درخصوص راهکارهای مناسب برای پیشگیری از امور ناخواسته توسط رباتها منتشر کرد).
6- «هوش مصنوعی باید از هر نوع تعصب به دور باشد تا تحقیقات در این زمینه به کامل ترین شیوه صورت بگیرد و از اکتشافات غلط برای ایجاد تمایز در آن استفاده نشود». این گزینه را بی شک میتوان عقلانی ترین و پرمعناترین جمله مطرح شده از سوی نادلا قلمداد کرد. اگر خاطرتان باشد چندی پیش در آمریکا هوش مصنوعی به خدمت گرفته شده توسط یکی از نهادهای قضایی این کشور اینطور استدلال کرده بود که احتمال ارتکاب به جرم توسط افراد سیاه پوست به مراتب بیشتر است.
نادلا دست آخر صحبت هایش را با گفتن این عبارت ساده که «سعی کنید به مردم آسیب نزنید» به پایان برد و به بهترین شیوه ممکن جان کلام را به مخاطبانش انتقال داد.