گروه فناوری:در دهه های اخیر یکی از مهمترین موضوعها که همواره جنجال زیادی بر سر آن مطرح بوده است و حتی تبدیل به سوژۀ فیلم ها و رمان ها هم شده است، قضیۀ هوش مصنوعی است.
مانند هر فناوری جدید دیگر، بحث از خطرها و جنبه های تاریک هوش مصنوعی هم همواره توجه ها را به خود جلب کرده است؛ از جمله در آخرین نشست «انجمن امریکایی برای پیشرفت علم» (AAAS) که در آن دانشمندان علم کامپیوتر و اخلاق را به دور هم جمع کرد.
به عنوان مثال، شکی در تأثیر ربات ها در اقتصاد امروز ما نیست. آن ها بازدهی و دقت را به شدت بالا میبرند؛ اما نبایستی روی دیگر این سکه را نادیده گرفت. این روبوت ها همچنین ارتباط میان توسعه و رونق اقتصادی با اشتغال را هم تضعیف کردهاند. دیگر مانند زمان گذشته با رونق اقتصادی، این وضعیت میان افراد جویای کار به خوبی حس نمیشود. این نکتهای است که «موشه واردی» (Moshe Vardi) به آن اشاره میکند.
به گفتۀ این استاد مهندسی محاسبات دانشگاه، این فناوری اشتغال را نابود کرده است. شما تنها لازم است تا یک روبوت بخرید تا مثل یک اسب باری تمام وقت برای شما کار کند و بر خلاف گذشته به نظارت انسانی هم نیاز نداشته باشد. در حقیقت، روبوت ها به سمتی پیش میروند که تقریباً هر چیزی را بهتر از انسانها انجام میدهند. به نظر او، با افزایش نفوذ روبوتها این احتمال وجود دارد که اتفاقی که برای اقتصاد روم باستان به دلیل وابسته بود به بردهها افتاد، برای ما هم به دلیل وابسته بودن به روبوتها بیفتد.
به گفتۀ یکی دیگر از حاظران در این نشست، «وندال والاش» (Wendell Wallach) استاد اخلاق دانشگاه ییل، یک موضوع مهم در مورد روبوتها پیامدهای اخلاقی آن است. به تظر او، شرکتها بایستی بخشی از بودجۀ پژوهشی خود را صرف تحقیق در مورد دلالتهای اخلاقی، قانونی و پیامدهای اجتماعی (ELSI) این فناوری کنند؛ مانند آنچه که در زمینۀ علم ژنتیک صورت پذیرفته است و بنا بر قانون فدرال امریکا، شرکتهای مربوطه موظف هستند 5 درصد از بودجۀ خود را در حوزۀ ELSI هزینه کنند.
به اعتقاد والاش، ما بایستی به یک مجموعه راه حل منسجم و هماهنگ در این مورد برسیم تا مانع از این شویم که فناوریهای پیش رو خود به یک خطر عمده تبدیل شوند. قضیۀ خودرانها مثال خوبی را در مورد این مشکل فراهم میکند. در مورد این قضیه، یک پرسش جدی توسط «کوبایاشی مارو» (Kobayashi Maru) مطرح شده است و به قضیۀ «مشکل گاری بارکش» (Trolley Problem) مشهور است. بر این اساس، خودرانها یک مشکل عمده در برابر دو برونداد نامناسب همزمان هستند؛ مثلا انتخاب میان برخورد با یک گروه کودک در خیابان و نجات سرنشینان و یا کوبیدن به یک درخت و نجات و کودکان و فدا کردن سرنشینان.
در هر حال، به نظر والاش این یک مسئلۀ کمیاب است و هیچ راه حل اخلاقی سرراستی برای آن وجود ندارد. با این وجود، این مشکل وجود دارد و به گفتۀ متخصصان خودروساز، هدایت هوشمند هنوز یک فناوری جدید است و نمیتواند میان یک اتوبوس مدرسۀ بچهها و یک تراکتور تفاوتی قائل شود و همۀ آنها را به عنوان «مانع» به شمار میآورد. بنابراین، نظر والاش این یک ضرورت است که پژوهشگران و تئوریسینهای علوم اجتماعی هم در برنامه های هوش مصنوعی جای داده شوند و به همراه مهندسان، این قضیه را مورد ملاحظه قرار دهند که اگر اشکالی در سیستمهای طراحی شدۀ آنها پدید بیاید چه اتفاقی میافتد.
یک مشکل مهم دیگر که والاش به آن اشاره و تأکید دارد در مورد واگذاری اختیار به دستگاههای ساخت بشر برای کشتن آدمهاست. این دغدغۀ بسیار مهم که در مورد استفاده از رباتهای هوشمند در جنگها و واگذاریِ اختیار انتخاب اهداف به خود آنها مطرح شده است، یک بحث کلیدی است. در حقیقت، بر خلاف مشکلی که در خودرانها وجود دارد، در اینجا مشکل اصلی تواناییِ انتخاب است و نه عدم توانایی آن. به اعتقاد والاش، روبوتها به طور کامل قابل کنترل نبوده و پیشبینی ناپذیرند.
همچنین، بار کردن مسؤولت بر آنها اگر نه غیرممکن، بسیار دشوار است. چرا که کارگزاران انسانی حداقلی از اخلاقیت و مسؤلیت انسانی دارند. روبوتها این اصول اخلاقی را تضعیف میکنند و ورود آنها به یک صحنۀ کشتار مانند جنگ پیامدهای فوقالعاده خطرناکی به بار میآورد.