گروه علمی: یک الگوریتم جدید با قابلیت استنباط اهداف و برنامههای انسان میتواند به ساخت دستگاههایی کمک کند که با ماهیت ناقص برنامهریزی انسانی سازگار باشند.به گزارش ایسنا ، در آزمایشی حول محور هوش اجتماعی انسان که توسط دو روانشناس به نامهای فلیکس وارنکن(Felix Warneken) و مایکل توماسلو (Michael Tomasello) انجام شد، یک کودک ۱۸ ماهه مردی را تماشا میکند که به همراه یک دسته کتاب به سمت کمدی در بسته میرود. هنگامی که به کمد میرسد با کلافگی چندین بار کتابها را به آن میکوبد و سپس صدایی عحیب از خود در میآورد.پس از آن اتفاقی قابل توجهی رخ داد کودک. با استنباط هدف مرد به سمت کمد رفته و درهای آن را باز کرد تا مرد بتواند کتابهای خود را در آن قرار دهد اما یک کودک نوپا با تجربهای محدود در زندگی چگونه قادر به فهم چنین موضوعی است؟اخیرا دانشمندان حوزه کامپیوتر به دنبال یافتن راهی هستند که این توانایی را در دستگاهها نیز ایجاد کنند. مولفه اصلی ایجاد چنین درکی چیزی است که ما را تبدیل به انسان کرده یعنی "اشتباهاتمان".همانطور که یک کودک نوپا هدف مرد را از شکست در کاری که میخواسته انجام دهد میفهمد، دستگاهها نیز برای فهمیدن اهداف ما باید اشتباهات ما را در نظر بگیرند.محققان آزمایشگاه علوم رایانهای و هوش مصنوعی در موسسه فناوری ماساچوست(MIT) و موسسه مغز و علوم شناختی، برای ایجاد این هوش اجتماعی در ماشین آلات الگوریتمی را ایجاد کردند که میتواند اهداف و برنامهها را استنباط کند، حتی اگر این اهداف و برنامهها در نهایت منجر به شکست شوند. این تحقیقات میتواند به بهبود بسیاری از فناوریهای کمکی مثل رباتهای مراقبتی و یا دستیارهای دیجیتالی مثل سیری و الکسا کمک کند.
تن ژی ژوان(Tan Zhi-Xuan) دانشجوی دکترای گروه مهندسی برق و علوم کامپیوتر موسسه فناوری ماساچوست که نویسندهی اصلی این مقاله است میگوید: توانایی تشخیص اشتباهات برای دستگاههایی که منافع ما را استنتاج میکنند و در جهت آن عمل میکنند بسیار اهمیت دارد. در غیر این صورت سیستمهای هوش مصنوعی ممکن است به اشتباه فکر کنند. از آنجا که ما در رسیدن به یک هدف شکست خوردهایم دیگر رسیدن به آن هدف برایمان اهمیتی ندارد.همه ما دیدهایم که چگونه این الگوریتمها از استفادهی بدون برنامهریزی ما از شبکههای مجازی استفاده میکنند و ما را به سمت وابستگی و تضاد میکشانند. در شرایط ایدهآل الگوریتمها در آینده اشتباهات، عادات بد و رفتارهای غیرمنطقی ما را شناسایی میکنند و از آنها جلوگیری میکنند.این گروه برای ایجاد یک مدل از جین(Gen) که پلتفرم جدید برنامهنویسی هوش مصنوعی است استفاده کرد تا هوش مصنوعی با قدرت استنباط تولید کند. مدل ساخته شده از مدلهای قبلی دقت و سرعت بیشتری داشت.استورات راسل(Stuart Russell) استاد مهندسی در دانشگاه کالیفرنیا میگوید: هوش مصنوعی در حال دور شدن از مدل استاندارد سابق است که در آن هدفی مشخص و ثابت به دستگاه داده میشد و هوش مصنوعی نمیدانست که ما چه میخواهیم، این بدان معنی است که تحقیق در مورد استنباط اهداف و ترجیحات از رفتار انسان به یک موضوع اصلی در هوش مصنوعی تبدیل می شود. این مقاله این هدف را جدی گرفته است. و این یک گام به سوی مدلسازی است. فرآیندی که با آن انسان رفتار و اهداف و ترجیحات خود را ایجاد میکند.
این تیم از یک روش معمول برنامهریزی توسط انسان الهام گرفته است و آن برنامهریزیهای کوتاه مدت به جای یک برنامهریزی کلی از پیش تعیین شده است. گرچه این نوع برنامهریزی ممکن است به اشتباه ختم شود اما بار کمتری بر دوش حافظه کوتاه مدت میگذارد.به عنوان مثال اگر دوست شما در حال پختن غذا باشد و شما بخواهید غذا را حدس بزنید با توجه به مراحلی که طی میکند مانند روشن کردن فر چندین مورد را در نظر میگیرید و کمی قبل از انجام قدم بعدی پیشبینی میکنید که چه اتفاقی خواهد افتاد و گزینههای نامربوط را قدم به قدم حذف میکنید و هنگامی که از حدس خود مطمئن شدید به کمک دوستتان میروید.الگوریتم این گروه نیز هر حرکت را پیش از اتفاق افتادن پیشبینی میکند و امیدوار است بتواند از این مدل برای تولید دستگاههایی بهتر استفاده کند. بررسی استنتاجهای سادهتر که کودکان و حتی نوزادان ۱۰ ماهه در مورد اهداف دیگران انجام میدهند، میتواند به مدلسازی کمک کند.ژوان میگوید: "اگرچه این کار فقط یک گام اولیه کوچک در این جهت است، اما امید من این است که این تحقیقات زمینههای فلسفی و مفهومی لازم برای ساخت دستگاههایی را فراهم کند که اهداف، برنامه ها و ارزشهای انسانی را به درستی درک کنند.