به روز شده در ۱۴۰۳/۰۹/۰۷ - ۰۰:۳۸
 
۰
تاریخ انتشار : ۱۴۰۳/۰۲/۲۰ ساعت ۲۲:۱۷
کد مطلب : ۴۶۹۷۲۴

حرف زدن با اموات به کمک هوش‌ مصنوعی

حرف زدن با اموات به کمک هوش‌ مصنوعی
گروه گوناگون: دو جامعه‌شناس به نام Tomasz Hollanek و Katarzyna Nowaczyk-Basińska، نگرانی خود را در مورد زندگی پس از مرگ دیجیتال ابراز کرده‌اند. آن‌ها بر این باورند که چت‌بات‌هایی که از افراد متوفی تقلید می‌کنند و گاهی اوقات ربات‌های مرده، ربات‌های‌غم‌انگیز یا روح‌ربات نامیده می‌شوند، چندین سوال کلیدی اجتماعی و اخلاقی را مطرح می‌کنند.
به گزارش خبرآنلاین، مثلاً چه کسی پس ازمرگ صاحب داده‌های یک فرد است؟ تأثیر روانی بر بازماندگان چیست؟ از روح‌ربات برای چه کاری می‌توان استفاده کرد؟ و چه کسی می‌تواند ربات را برای همیشه خاموش کند؟ چنین سوالاتی زمانی الهام بخش یک قسمت ترسناک از سریال علمی تخیلی Black Mirror بود، اگرچه بنظر نمی‌رسد چنین آینده‌ای داشته باشیم.
با این حال سناریویی وجود دارد که Hollanek و Nowaczyk-Basińska در مقاله تحقیقاتی اخیر خود مطرح کردند و بنظر می‌رسد که نباید آن را نادیده گرفت. به عنوان مثال، مادربزرگ یک زن ۲۸ ساله تصمیم می‌گیرد که عکس، فیلم و اطلاعات مادربزرگش را در یک برنامه آپلود کند. این برنامه به زن این امکان را نمی‌دهد که با مادر بزرگ خود صحبت کند. اما اتفاقی عجیب رخ می‌دهد؛ مادربزرگ دیجیتالی در این آزمایش، در حالی که با نوه‌اش حرف می‌زند، شروع به فروش وسایل خود می‌کند.
به گفته کارشناسان، افراد ممکن است با چنین شبیه‌سازی‌هایی پیوند‌های عاطفی قوی ایجاد کنند، اما آن‌ها باید توجه داشته باشند که در عین حال آسیب‌پذیرتر می‌شوند؛ بنابراین به نظر می‌رسد حتی تشریفات در روح‌ربات باید به روشی آبرومندانه انجام شود، چراکه به معنای نوعی تشییع جنازه دیجیتال است. اگرچه چنین توجهی به یک ربات چت هوش مصنوعی ممکن است در ابتدا پوچ به نظر برسد، اما در سال ۲۰۱۸، برخی از اخلاق‌شناسان استدلال کردند که بقایای دیجیتالی یک فرد ارزشمند است و باید به عنوان چیزی فراتر و به عنوان موجودی دارای ارزش ذاتی تلقی شود. این منطق با منشور اخلاق حرفه‌ای شورای بین‌المللی موزه‌ها مطابقت دارد، که الزام می‌کند با بقایای انسان‌ها با احترام و کرامت انسانی رفتار شود.
با این حال این دو اخلاق‌شناس بر این باورند که نمی‌توان این ربات‌ها را ممنوع کرد، اما می‌توان کاری کرد که با داده‌های افراد محترمانه رفتار کنند. همچنین نباید در فضا‌هایی عمومی استفاده شوند و فقط باید برای شخصیت‌های مهم تاریخی باشد.
در سال ۲۰۲۲، فردی استدلال کرد که روح‌ربات‌ها را می‌توان به عنوان کمک‌های پزشکی استفاده کرد. به عنوان مثال کودکی که یکی از عزیزانتش را از دست می‌دهد ممکن است گیج شود و اگر چنین رباتی وجود داشته باشد می‌تواند کمی به این کودک کمک کند. اما باز هم Hollanek و Nowaczyk-Basińska استدلال می‌کنند که این ایده بیش از حد محدود و محدودکننده است، زیرا به طور خاص به ربات‌هایی اشاره می‌کند که فقط برای پردازش غم و اندوه طراحی شده‌اند.
در عوض، آن‌ها معتقدند، این سیستم‌ها باید به طور معناداری شفاف‌سازی شود تا کاربران به بهترین شکل ممکن بدانند برای چه چیزی به برنامه اطلاعات می‌دهند. همچنین متوجه شوند که چه خطراتن احتمالی در مورد این ربات‌ها وجو دارد. همچنین باید بدانیم که روح‌ربات چگونه غیر فعال می‌شود. به عنوان مثال، اگر فردی روح‌ربات را به فرزند خود هدیه دهد، آیا شخص مجاز به انصراف است؟ یا اینکه قرار است روح‌ربات برای هنمیشه در زنگی فرد وجود داشته باشد؟
بنابراین این دو کارشناس معتقدند برای هدایت توسعه چنین رباتی، داشتن نوعی نرده محافظ ضروری است و این تفکر انتقادی در مورد جاودانگی کاربران به طراحی تعامل هوش مصنوعی انسانی و تحقیقات اخلاقی AI کمک کند.
برچسب ها: هوش‌ مصنوعی
پربيننده‎ترين مطالب و خبرها