دریافت لینک صفحه با کد QR
گروه علم وفناوری: چت جی پی تی (Chat GPT) چت بات وایرالی از استارت آپ هوش مصنوعی Open AI جرقه جنگی دوباره برای برتری هوش مصنوعی را زده است جنگی که در آن غولهای فناوری گوگل و مایکروسافت برای استفاده از این فناوری برای تغییر نحوه استفاده جهان از موتورهای جستجو با یکدیگر رقابت میکنند.
به گزارش فرارو به نقل از ویک، چت بات تازه متولد شده چت جی پی تی از زمان آغاز به کار خود در ماه دسامبر به پدیدهای جهانی تبدیل شده است. تنها پنج روز پس از انتشار آن ادعا میشود که یک میلیون نفر برای آزمایش این چت بات که میتواند به سرعت و به طور یکپارچه محتوای پیشرفتهای مانند مقاله، شعر و داستان تولید کند ثبت نام کرده بودند. روزنامه "نیویورک تایمز" گزارش داده که تا ماه ژانویه چت جی پی تی ماهانه ۱۰۰ میلیون کاربر فعال داشته که همین موضوع آن را به یکی از " سریعترین محصولات نرم افزاری در حال رشد در حوزه حافظه" تبدیل کرد.
در مقایسه با آن در مورد "تیک تاک" ۹ ماه به طول انجامید تا تعداد کاربران آن اپلیکیشن به ۱۰۰ میلیون کاربر رسید و برای اینستاگرام این تعداد کاربر ظرف مدت دو سال حاصل شد.
چگونه چت جی پی تی جنگهای جستجوی اینترنتی را دوباره شعله ور ساخته است؟
روزنامه "نیویورک تایمز" مینویسد که محبوبیت این نرم افزار باعث شده تا سرمایه گذارانی که تلاش میکنند وارد موج بعدی رونق هوش مصنوعی شوند تحرک بیشتری داشته باشند. برای مثال، Open AI اخیرا قراردادی ۱۰ میلیارد دلاری با مایکروسافت امضا کرده است. هم چنین آن شرکت با Buzz Feed نیز قراردادی امضا کرده که قصد دارد از فناوری Open AI برای ایجاد فهرستها و آزمونها استفاده کند و در نتیجه با آن شرکت شریک خواهد شد. اعلام این خبر سبب شد تا ارزش سهام Buzz Feed بیش از دو برابر افزایش یابد.
در میان شیفتگی فزاینده در مورد چت جی پی تی سایر شرکتهای فناوری معرفی چت باتهای رقیب کار خود را آغاز کردهاند. مدیران گوگل در پاسخ به نرمافزار Open AI "کد قرمز" را اعلام کردند و توسعه بسیاری از محصولات هوش مصنوعی را به سرعت ردیابی کردند تا شکاف بین خود و رقبای نوظهورشان را کاهش دهند.
مدت کوتاهی پس از آن این شرکت اعلام کرد که بهتر است کاربراناش نگاهی به چت بات بارد (Bard) داشته باشند که مشابه چت جی پی تی است و از اطلاعات اینترنت برای ایجاد پاسخهای متنی به پرسشهای کاربران استفاده میکند.
سپس در ماه فوریه مایکروسافت اعلام کرد که چت جی پی تی را در "بینگ" (Bing) موتور جستجوی خود و سایر محصولات ادغام خواهد کرد و گوگل در پاسخ اعلام کرد که هوش مصنوعی مولد را نیز در قابلیتهای جستجوی خود ادغام خواهد کرد.
"ریچارد واترز" از "فایننشال تایمز" میگوید: "جنگهای جستجوی اینترنتی بازگشتهاند. هوش مصنوعی مولد اولین جبهه جدید را از زمانی که گوگل بیش از یک دهه پیش با چالش هماهنگ بینگ ساخته مایکروسافت مقابله کرد در نبرد برای تسلط بر جستجو گشوده است. به طور خاص، برای گوگل این مسابقه تسلیحاتی میتواند تهدیدی جدی برای کسب و کار اصلی آن شرکت در عرصه جستجو باشد عرصهای که به شدت بر تبلیغات دیجیتال متکی است".
"عمرو عوادالله" کارمند سابق گوگل که اکنون Vectara یک پلتفرم جستجوی مبتنی بر LLM را اداره میکند به "نیویورک تایمز" میگوید:" گوگل یک مشکل در مدل کسب و کار دارد. اگر گوگل به شما پاسخ کاملی برای هر پرسش بدهد روی هیچ آگهیای کلیک نخواهید کرد".
چرا گوگل خود را در مخمصه قرار داده است؟
شبکه خبری "سی ان بی سی" اشاره کرده این واقعیت که گوگل در موقعیتی قرار گرفته که قصد دارد به نوعی عقب ماندگیاش در این عرصه را برطرف سازد قدری طعنهآمیز است به ویژه آن که آن شرکت فناوری از اولین مراحل بازی هوش مصنوعی مکالمهای پیشرفته در این عرصه حضور داشته است.
در واقع، مدیر عامل گوگل در سال ۲۰۱۶ میلادی در تلاش بود تا با انجام تغییر جهت گوگل را به عنوان اولین شرکت هوش مصنوعی معرفی کند. در سال ۲۰۱۸ میلادی گوگل Duplex را معرفی کرد "یک سرویس هوش مصنوعی با شباهت خیره کننده شبیه صدای انسان" که برای تقلید از کلام انسان حین برقراری تماسهای خودکار با رستورانهایی که امکان رزرو آنلاین را ندارند طراحی شده بود. نشریه "فوربس" گزارش داده بود در حالی که بسیاری از این برنامه شگفت زده شده بودند برخی دیگر قدری آشفته و بیقرار بودند. رسانهها نسبت به اخلاقی بودن یا نبودن برنامهای که به شکل عمدی کارکنان را فریب میدهد ابزار نگرانی کرده بودند.
در آن زمان "گری مارکوس" و "ارنست دیویس" استادان دانشگاه نیویورک در مقالهای در روزنامه "نیویورک تایمز" آن را تا حدی "ترسناک" خواندند. "زینب توفکچی" جامعه شناس و نویسنده در توئیتی درباره آن برنامه نوشته بود:"سیلیکون، ولی از نظر اخلاقی در وضعیتی گمشده و بی سکان به سر میبرد و هیچ چیزی نیاموخته است".
"فوربس" خاطر نشان میسازد اگرچه گوگل در مورد عینک هوشمند گوگل گلس خود که در سال ۲۰۱۲ میلادی معرفی شد با انتقادات مشابهی مواجه شده بود انتشار برنامه Duplex یک "افتضاح کامل" بود. گوگل به جای آن که محور جدید خود را به سمت هوش مصنوعی تحت رهبری "ساندار پینچای" تغییر دهد به یادگاری از بی خبر بودن سیلیکون، ولی تبدیل شد: فناوری جالبی که به فقدان آینده نگری انسانی وابسته است.
دو مدیر سابق آن شرکت به "فوربس" میگویند که منفی بودن راه اندازی Duplex یکی از چندین عاملی بود که سبب شد تا گوگل در معرفی محصولات مبتنی بر هوش مصنوعی کُند شود. هم چنین، ممکن است مدل زبان گوگل یا LaMDA را برای اپلیکیشنهای گفتگو به خاطر آورید که پس از ادعای یک از مهندسان آن شرکت که مبنی بر آن که اپلیکیشن دستخوش احساسات است درگیر بحث و جدل شد. ادعاهای او سپس از سوی اعضای جامعه هوش مصنوعی محکوم شد (LaMDA مسئول فناوری پشتیبانی در قلب بارد است).
مناقشات در میان کارکنان هوش مصنوعی گوگل نیز در جریان بوده است. پس از امضای قرارداد گوگل با وزارت دفاع ایالات متحده (پنتاگون) در سال ۲۰۱۸ میلادی به منظور ایجاد فناوری برای پروژه Maven که تلاشی برای استفاده از هوش مصنوعی به منظور بهبود حملات پهپادی بود با انتقاد پرسنل آن شرکت مواجه شد. گوگل پس از عقب نشینی از قرارداد از تایید آن خودداری ورزید و یک راهنمای اخلاقی برای توسعه فناوری هوش مصنوعی تحت عنوان "اصول هوش مصنوعی" را منتشر کرد.
در سال ۲۰۲۰ میلادی "تیمنیت گبرو" و "مارگارت میچل" از پیشتازان عرصه اخلاق در عرصه هوش مصنوعی و از کارکنان گوگل با انتشار مقالهای از وجود "تعصبات در فناوری هوش مصنوعی مورد استفاده در موتور جستجوی گوگل" انتقاد کردند. آنان پس از انتشار این مقاله از گوگل اخراج شدند. "جف دین" رئیس تحقیقات گوگل بعدا اعتراف کرد که واحد هوش مصنوعی به شدت بدنام شده است.
میچل به "فوربس" گفته بود: "بسیار واضح است که گوگل در مسیری قرار داشت که به طور بالقوه میتوانست بر عرصه انواع مکالماتی که اکنون با چت جی پی تی داریم تسلط داشته باشد. با این وجود، مجموعهای از تصمیمات کوته نگرانه آن شرکت را در جایگاهی قرار داد که اکنون نگرانی زیادی در مورد هر نوع پس زده شدن دارد".
مفاهیم اخلاقی و قانونی موتورهای جستجوی یکپارچه هوش مصنوعی چه هستند؟
"الیور دارسی" تحلیلگر شبکه خبری "سی ان ان" مینویسد: "علیرغم محبوبیت وایرال چت جی پی تی پرسش پیرامون درجه اخلاق حاکم بر این تولید کننده متن به صورت پرسش و موضوعی قوی باقی میماند به طور خاص از آنجایی که با سرعتی سرسام آور در حال ورود به بازار است".
او میافزاید: "ما در حال ایجاد دوران رسانههای اجتماعی هستیم. اگر اقدامات احتیاطی جدی انجام نشود چت باتهای هوش مصنوعی باعث ایجاد پیامدهای ناخواستهای خواهند شد. میتوان ظهور سریع یکپارچه سازی هوش مصنوعی را معادل ساخت پارک ژوراسیک، گذاشتن برخی علائم خطر روی نرده ها، اما باز گذاشتن همه دروازهها دانست".
او اشاره میکند که دانشمندان هنوز نتوانستهاند مسائل مرتبط با مرتبط با سوگیری و تعصب در هوش مصنوعی را حل کنند و این فناوری کماکان مستعد ادغام اطلاعات نادرست به عنوان واقعیت است.
چالش مدلهای زبانی جدید این است که واقعیت و داستان را با هم ترکیب میکنند. این وضعیت باعث انتشار اطلاعات نادرست میشود. هم چنین مدلهای زبانی جدید قادر به درک محتوا نیست. بنابراین، مدلهای زبانی جدید قادر هستند محتوای کاملا منطقی، اما نادرست را منتشر کنند و آن را با اطمینان کامل ارائه دهند.
یک نمونه موردی برای این موضوع "بارد" است. در یک ویدئوی تبلیغاتی معرفی آن که به طور گسترده به اشتراک گذاشته شده "بارد" به اشتباه به درخواست جستجو پاسخ داد. این پاسخ نادرست باعث کاهش ۱۰۰ میلیارد دلاری ارزش بازار "آلفابت" شرکت مادر گوگل شد. کارکنان گوگل نیز از این موضوع انتقاد کرده و در یک نشست داخلی آن را نتیجه معرفی "عجولانه" محصول، وجود "مشکلات" و رخدادی "غیر گوگلی" دانستند.
دارسی میگوید: "گوگل و مایکروسافت با ادراکات متقابل خود به خوبی دریافتهاند که فناوری هوش مصنوعی این قدرت را دارد که جهان را آن گونه که ما میشناسیم تغییر دهد. با این وجود، با توجه به پیچیدگیهای زیادی که هنوز برطرف نشده باید دید که آیا آنان از اصل "سریع حرکت کن و چیزها را بشکن" سیلیکون، ولی پیروی خواهند کرد یا خیر اصلی که درگذشته باعث ایجاد آشفتگی زیادی شده بود".
جان لوفلر در مقالهای در Tech Radar اشاره میکند که مشکل احتمالی اطلاعات نادرست نیز میتواند به یک مسئولیت برای گوگل و مایکروسافت تبدیل شود، زیرا در نحوه ارائه نتایج موتورهای جستجو تاثیر میگذارد چرا که موتورهای جستجو با استفاده از هوش مصنوعی برای بازنویسی پاسخ به پرسشها در نهایت ناشر آن محتوا میشوند حتی اگر کار شخص دیگری را به عنوان منبع ذکر کنند.
در ادغام ابزارهای هوش مصنوعی و بر عهده گرفتن نقش ناشر شرکتهای فناوری مسئولیت قانونی ناشی از انتشار اطلاعات نادرست احتمالی را بر عهده میگیرند.
"لوفلر" میافزاید: "مضرات قانونی ناشر بودن به همان اندازه بی نهایت و زیاد است که افترا زدن به یک فرد یا انتشار سخنان خطرناک و محافظت نشده مضر میباشد. بنابراین، نمیتوان پیشبینی کرد که یکپارچه سازی هوش مصنوعی تا چه اندازه آسیب رسان خواهد بود".