گروه علم و فناوری: سازمان ملل متحد خواستار توقف موقت فعالیت دستهای از سیستمهای مبتنی بر هوش مصنوعی شد که به باور کارشناسان تا زمانی که محدوده حفاظت از حقوق بشر در برابر این سیستمها تعریف نشده، تهدیدی برای این حقوق به شمار میروند.
کمیسر عالی حقوق بشر سازمان ملل متحد هشدار میدهد که "فناوری هوش مصنوعی اگر بدون توجه کافی به تأثیر این فناوری بر حقوق بشر مورد استفاده قرار گیرد، میتواند تأثیرات منفی و حتی فاجعهباری به همراه داشته باشد."
میشل باچله خواستار ارزیابی خطرات فناوریهای هوش مصنوعی در عرصههای مختلفی چون حریم خصوصی، آزادی بیان و آزادی جابهجایی شد.
وی گفت:کشورها باید مواردی از این سیستمها را که بیشترین تهدید را ایجاد میکنند، ممنوع یا به شدت تنظیم کنند. به گفته باچله تا زمانی که چنین ارزیابیهایی کامل نشدهاند، کشورها باید توقف موقت برای به کارگیری فناوریهای با پتانسیل ریسک بالا وضع کنند.کمیسر عالی حقوق بشر سازمان ملل متحد در حالی که گزارش جدیدی در اینباره را ارائه میکرد، به استفاده از فناوریهای پروفایلینگ و تصمیمگیری خودکار اشاره کرد و گفت: "قدرت هوش مصنوعی برای خدمت به انسان غیرقابل انکار است". کمیسر عالی حقوق بشر سازمان ملل اما همزمان نسبت به "قابلیت هوش مصنوعی در نقض حقوق بشر در مقیاسی عظیم و عملا نامریی" هشدار داد. او بر ضرورت اقداماتی در جهت تعیین گاردریلها (حفاظهای) حقوق بشری برای استفاده از هوش مصنوعی تأکید کرد؛ اقداماتی که به گفته او "به نفع همه ما خواهد بود."این گزارش که به درخواست شورای حقوق بشر سازمان ملل متحد تهیه شده، به بررسی این موضوع میپردازد که کشورها و شرکتها چگونه اغلب فناوریهای مبتنی بر هوش مصنوعی را بدون ارزیابی صحیح نحوه عملکرد و تأثیرات آنها بسیار شتابزده به کار گرفتهاند.
این گزارش همچنین به اشکالاتی در این سیستمها اشاره میکند که به طور ناعادلانه یا به اشتباه منجر به محرومیت افراد از مزایای اجتماعی یا دستگیری افراد به دلیل نقص در سیستم تشخیص چهره شده است.باچله میگوید: «خطر تبعیض ناشی از تصمیمات مبتنی بر هوش مصنوعی بسیار واقعی است: تصمیماتی که میتوانند زندگی انسانها را به خطر بیندازد، تغییر دهند یا [مسیر آن را] تعیین کنند.»گزارش سازمان ملل متحد نشان میدهد که سیستمهای هوش مصنوعی چگونه به مجموعه دادههای بزرگی متکی هستند که در آنها اطلاعات در مورد کاربران اغلب از روشهایی مبهم و غیرشفاف جمعآوری شده، به اشتراک گذاشته، منتقل و در پایان تجزیه و تحلیل شدهاند.گردآورندگان این گزارش هشدار میدهند که این مجموعه دادهها ممکن است ناقص، تبعیضآمیز یا قدیمی باشند و به این ترتیب خود سهمی در نقض حقوق بشر بازی کنند. برای نمونه به این امکان اشاره شده که نتیجهگیری این دادهها به اشتباه و بر بستری از دادههای اشتباه و ناقص، تشخیص فردی به عنوان تروریست باشد.گردآورندگان این گزارش همچنین نگرانی ویژه خود را از افزایش استفاده از هوش مصنوعی توسط نهادهای مجری قانون از جمله به عنوان ابزاری برای پیشبینی/پیشگیری [جرم] ابراز کردهاند.در این گزارش آمده، هنگامی که هوش مصنوعی و الگوریتمها برای مثال از دادههای جانبدارانهای استفاده میکنند، پروفایلینگ پیشبینی آنها هم بازتابدهنده همین دادهها خواهد بود. به این ترتیب برای مثال این سیستمها به طور فزایندهای دستور اعزام به مناطقی را صادر میکنند که پیشتر – به غلط یا به درستی- به عنوان جوامعی با نرخ جرم و جنایت بالا شناخته شدهاند.
بنا بر این گزارش، امکان تشخیص چهره از راه دور به صورت "ریل تایم" در سراسر جهان به طور فزایندهای از سوی نهادها و دستگاههای مختلف مورد استفاده قرار میگیرد که امکان تعقیب و پیگرد بدون محدودیت افراد در سراسر جهان را ممکن میسازد. این گزارش تأکید میکند، چنین سیستمهای تشخیص چهره بیومتریک از راه دور نباید در فضاها و اماکن عمومی مورد استفاده قرار گیرند تا زمانی که دستگاههای مربوطه ثابت نکردهاند که این سیستمها مطابق استانداردهای حفظ حریم خصوصی و همچنین حفاظت از دادهها عمل میکنند و حاوی موارد تبعیضآمیز یا دقت بسیار بالا نیستند.
کمیسر عالی حقوق بشر معتقد است که در مورد هوش مصنوعی نمیتوانیم به خودمان اجازه دهیم که همچنان در پی جبران عقبافتادگیها باشیم به این ترتیب که ابتدا اجازه استفاده از هوش مصنوعی را بدون کنترل و محدودیت یا با محدودیت ممکن سازیم و تازه پس از آن با پیامدهای تقریبا اجتناب ناپذیر آن برای حقوق بشربرخورد کنیم .