گزارش محفل هجدهم ایوان هماندیشی
اولین محفل دور دوم و هجدهمین محفل ایوان هم اندیشی، با موضوع اخلاق هوش مصنوعی و با هدایت دکتر سید محمدباقر جعفری استاد دانشکده مدیریت و حسابداری دانشکدگان فارابی دانشگاه تهران، روز یکشنبه اول اسفند ۱۴۰۰ در محل ایوان مسجد امام علی علیه السلام دانشکدگان فارابی دانشگاه تهران برگزار شد.
دکتر جعفری با بیان عصرهای مختلفی که بشر از عصر حجر تا کنون پشت سر گذاشته، به این اشاره کرد که تا سال 1800 میلادی عصر کشاورزی بوده و پیشرفتهترین ابزار بشر، در حد داس و کمان و ابزار جنگی متعارف مانند شمشیر و تیروکمان بوده است. اما از رنسانس به بعد بشر به تسخیر طبیعت و مثلاً تولید ماشین بخار روی آورد. از نیمه دوم قرن ۲۰ یعنی حدودا از ۱۹۵۰ به بعد وارد عصر اطلاعات شدیم و در دهه اخیر وارد عصری به نام عصر فوق هوشمندی شده ایم. این هوشمندی، در واقع تقلید از ذهن بشر و وارد کردن آن در نرم افزار و سخت افزار به این صورت است که این هوش خودمختار شود و این آسیب را به دنبال دارد که بشر قدرت خود را به ماشین واگذار کند. استفان هاوکینگ، فیزیکدان انگلیسی پیشبینی کرد که اگر علم با این شدت جلو برود ماشین بر بشر غالب میشود. لذا باید با چارچوب های مناسب جلو برویم. این، خطر و چالش اصلی ماست. شهر هوشمند، صنعت هوشمند، شرکت هوشمند، حتی قضاوت هوشمند و استفاده از دستیار هوش مصنوعی در پرونده های قضایی، نمونه هایی است که در جلسات قبل ایوان نیز مطرح شده است. الآن کتابی در کتابخانه دانشکدگان، با عنوان کاربردهای قضائی هوش مصنوعی ترجمه دکتر اباذری است. در پزشکی، مسواک هوشمند که از طریق بوی دندان و دهان تشخیص بیماری را می دهد ساخته شده است و حتی سخنرانی هوشمند در دانشگاه آکسفورد با استفاده از هوش مصنوعی انجام شده است.
ما در روش هاسی معمول خود، معمولا از روش قیاسی برای توسعه نرم افزارها استفاده میکنیم. مثل برنامه های بانکداری همراه در گوشی تلفن. اما هوش مصنوعی از داده استفاده می کند و از طریق استقراء و کنار هم قرار دادن شواهد به قواعد و قوانین کلی رسیده و به آن قواعد عمل می کند. این قواعد البته میتواند بر اساس سوگیری های موجود در داده ها مانند سوگیری نژادی، جنسیتی، سنی، قومی قبیلهای و همه رفتارهای خوب و بد انسان باشد؛ یعنی خطاهای انسان را هم تکرار کند و بر اساس آن عمل کند. در واقع با ماشینی مواجهیم که خودش کلیات را میسازد؛ آن هم بر اساس رفتار انسان هایی که احیانا پر از حس نژادپرستی و ... هستند.
از این رو خیلی باید مواظب باشیم. مثل اینکه خانه ای بزرگ را داریم با پایههای سست می سازیم، که اگر خراب شود روی ما آوار میشود. بنابراین نیازمند چهارچوبهای حمایتی در زمینه هایی مثل امنیت، رعایت مساوات، حریم خصوصی و رعایت شأن انسان هستیم. به طور کلی پنج دسته از چالشهای اخلاقی در مواجهه با هوش مصنوعی می توان تقریر کرد:
۱. حریم خصوصی: داده های من و شما در فضای مجازی بدون اجازه ما در حال استفاده اند. در انتخابات ۲۰۱۶ علت رای آوری ترامپ تقلب و هک انسان بود. دادههای فیس بوک را خریده بودند و بر اساس تیپ شخصیت افراد خوراک تبلیغاتی میدادند و مهندسی و دستکاری غیرمستقیم ذهن افراد صورت می گرفت. شخصیت شما را حتی از طریق لایک های خبری یا میزان مکث روی اخبار به گونهای میشناسند که از همسر، پدر و مادر و حتی از خود فرد، بهتر میشناسند.
۲. مالکیت فکری: اینکه افکار و ایدههای ناملموسی که قابل ثبت و سند نیستند؛ چه تکلیفی دارند؟
۳. مسئولیت پذیری: اینکه در این سیستم ها، چه کسی مسئولیت را به عهده میگیرد و آیا امکان مداخله در فرآیند سیستم توسط غیرمسئول وجود دارد؟ آیا ممکن است در بیمارستان کسی برای انتقام، در سیستم بیمارستان گروه خونی فردی و یا نتیجه آزمایش او را جابجا کند و در نتیجه تجویز غلطی صورت گیرد؟ یا میزان دسترسی رئیس دانشگاه و کارشناس به سامانه های دانشگاه تا چه حد تفاوت دارد؟ مثلا در پرواز بارسلونا به آلمان، به خاطر خودکشی کمک خلبان، ۱۵۰ نفر کشته شدند.
۴. کیفیت سیستم: اعتماد به سیستم تا کجا باید باشد؟ تا چه حد سیستم ها درست عمل می کنند؟ مثلاً پلیس اسرائیل یک فلسطینی را که عکس سلفی با تراکتور گرفته بود دستگیر کرد به دلیل ترجمه اشتباه مترجم آنلاین فیسبوک از زبان عربی به عبری که به صورت ناصحیحی، مثلا یصبح را به یذبح، ترجمه کرده بود و می توانست منجر به مرگ یک انسان شود.
۵. کیفیت زندگی: هوش مصنوعی مرز کار و زندگی و تفریح انسان را به هم ریخته است. بیماری اعتیاد به بازی های کامپیوتری توسط سازمان بهداشت جهانی به عنوان بیماری ثبت شده است. نزدیک بینی، آرتروز مچ دست و گردن، بیماری های روحی روانی به خصوص بخاطر مواجه با محتوای گوناگون در شبکه های اجتماعی و مشکلات این گونه، تشدید شده و سلامتی بشر را تهدید می کند.
برای جلسات آینده میتوان در مورد دستورالعمل های اخلاقی در مواجهه با هوش مصنوعی صحبت کرد.
این جلسه با مشارکت و ورود استادان از جمله آقای دکتر محمدی، دکتر کاشانی پور و آقای شکوه ادامه پیدا کرد.
نظر شما :