دریافت لینک صفحه با کد QR
مغز چگونه صداها را از یکدیگر تفکیک میکند؟
ایسنا , 30 مهر 1398 ساعت 16:13
گروه علمی: پژوهشگران "موسسه زوکرمن دانشگاه کلمبیا" (The Zuckerman Institute at Columbia University) در پروژهای با حضور "نیما مسگرانی" پژوهشگر ایرانی اخیرا اظهار کردهاند، مغز ما توانایی چشمگیری در شناسایی یک صدا از میان چند صدا دارد.
پژوهشگران دانشگاه کلمبیا با کمک نیما مسگرانی پژوهشگر ایرانی اخیرا دریافتهاند مغز این قابلیت را دارد که یک صدا را از دیگر صداها تفکیک کند. اکتشاف پژوهشگران به حل یک سؤال علمی دیرینه کمک میکند که چگونه مرکز گوش دادن به مغز میتواند یک صدا را از صدای دیگر رمزگشایی و تفکیک کند و کاری کند که یک صدای خاص تقویت شده و شنیده شود. یافتههای این مطالعه میتواند به توسعه فناوریهای کمک به شنوایی و رابطهای مغز و رایانه که بیشتر به مغز شباهت دارند، کمک کند.دکتر"نیما مسگرانی"(Nima Mesgarani) استاد مهندسی برق دانشگاه کلمبیا و نویسنده ارشد این مطالعه گفت: این مطالعه درک ما را از ساختار مغز افزایش میدهد و به ما در توسعه فنآوری گفتاری و شنوایی کمک میکند."قشر شنوایی اولیه"(auditory cortex) قطب شنوایی مغز است.گوش داخلی به این ناحیه مغز سیگنالهای الکتریکی ارسال میکند که این موضوع نشان دهنده جهشی از امواج صوتی از دنیای خارجی است. قشر شنوایی اولیه پس از آن باید صداهای معنی دار را از دیگر صداها در شلوغی شناسایی کند.
قشر شنوایی اولیه که بر روی لوب گیجگاهی و در کنار هر یک از نیمکرههای مغز قرار دارد، در تحلیل کردن پیامهای شنیداری پیچیده به ویژه در زمانبندی صدا مانند پیشی و پسی در اصوات گفتار انسان نقش دارد. اطلاعات وارد شده به هر دو گوش، در قشرهای شنوایی، روی هر دو طرف قشر کدگذاری میشود.دکتر مسگرانی در ادامه افزود: بررسی چگونگی عملکرد قشر شنوایی در تفکیک صداهای مختلف، مانند تلاش برای کشف آنچه در یک دریاچه بزرگ رخ میدهد است.مقاله امروز براساس تحقیقات تیم سال ۲۰۱۲ نشان میدهد که مغز انسان در مورد صداهایی که میشنود انتخابی عمل میکند. این مطالعه نشان داد وقتی شخصی به فردی که در حال صحبت است، گوش میدهد امواج مغزی آنها تغییر میکند تا ویژگیهای صدای گوینده را شناسایی کند و صداهای دیگر را متوقف کند. محققان طی این مطالعه قصد داشتند دریابند چطور در آناتومی قشر شنوایی اولیه این اتفاق رخ میدهد.دکتر "جیمز او سولیوان"(James O'Sullivan) یکی دیگر از پژوهشگران این مطالعه گفت: ما از مدتها قبل میدانستیم که مناطقی از قشر شنوایی اولیه در یک سلسله مراتب مرتب میشوند و رمزگشایی به طور فزایندهای در هر مرحله اتفاق میافتد، اما ما متوجه نشده بودیم که چگونه یک صدای خاص در این مسیر پردازش میشود. برای درک این روند، ما نیاز به ثبت فعالیت عصبی از مغز به طور مستقیم داشتیم.
محققان طی این مطالعه دو بخش قشر شنوایی اولیه به نامهایHeschl's gyrus)HG) و Superior temporal gyrus)STG) را مورد بررسی قرار دادند. آنها دریافتند اطلاعات از گوش ابتدا به HG میرسد، از آن میگذرد و بعداً به STG میرسد.طی این مطالعه آنها صحبتهای چند فرد را که در حال شنیدن صحبتهای ضبط شده افراد بودند مورد بررسی قرار دادند. مسگرانی و او سولیوان امواج مغزی آنها را از طریق الکترودهای کاشته شده در مناطق HG یا STG افراد نظارت کردند.الکترودها پژوهشگران را قادر ساختند تا تمایز واضحی را در بین نقشهای دو ناحیه مغز در تفسیر صداها مشاهده کنند. دادهها نشان داد که HG نمایانگر غنی و چند بعدی از مخلوط صدا را ایجاد میکند، در نتیجه هر صدا به دلیل داشتن فرکانس مختلف از دیگری جدا میشود. پژوهشگران با بررسی دادههای جمع آوری شده از STG متوجه موارد جدید شدند.
دکتر او سولیوان گفت: ما دریافتیم که میتوان صدای یک بلندگو یا دیگری را با وزنی صحیح سیگنال خروجی از HG تقویت کرد. براساس صداهای ضبط شده این احتمال وجود دارد که منطقه STG آن تنظیم وزن را انجام دهد. ما دریافتیم تقسیم واضح و مشخصی از وظایف بین این دو حوزه قشر شنوایی وجود دارد به طوری که HG نماینده است، در حالی که STG انتخاب میکند. این اتفاقات در حدود ۱۵۰ میلی ثانیه رخ میدهد که برای شنونده فوری به نظر میرسد. از اطلاعات این مطالعه میتوان به عنوان پایهای برای توسعه الگوریتم هایی که این فرایند بیولوژیکی را به صورت مصنوعی همانند سمعکها تکرار میکنند، استفاده شود.مسگرانی در انتها افزود: هدف نهایی ما درک بهتر این است که چگونه مغز ما را قادر میسازد تا آنقدر خوب بشنویم و همچنین فناوریهایی را ایجاد کنیم که به مردم کمک کند.در اوایل سال جاری، دکتر مسگرانی و تیم وی اعلام کردند که موفق به توسعه یک سیستم هوش مصنوعی پیشرفته شدهاند که قادر به تبدیل سیگنالهای مغز به گفتار است.مهندسان مغز و اعصاب مدتها بود در فکر توسعه چنین دستگاهی بودند و برای آن تلاش میکردند. آنها در فکر توسعه سیستمی بودند که توسط آن بتوانند سیگنالهای تولید شده توسط مغز را به کلمات و تصاویر تبدیل کنند. در ابتدا این ایده یک ایده علمی تخیلی محسوب میشد اما اکنون با تلاش پژهشگران این رؤیا تحقق یافت.
در این مطالعه یک تیم از مهندسان مغز و اعصاب آمریکایی به سرپرستی پژوهشگر ایرانی، یک الگوریتم رایانهای را توسعه دادند که این الگوریتم میتواند سیگنالهای ضبط شده از قشر شنوایی انسان را رمزگشایی کند و آنها را به گفتار قابل فهم تبدیل کند.در این مطالعه پوهشگران دادههای پنج بیمار را در حالی که آنها تحت عمل جراحی مغز و اعصاب برای صرع قرار گرفته بودند، جمع آوری نمودند.الکترودهای مختلفی درون مغز این بیماران ایمپلنت شده بود و این دانشمندان را قادر میساخت تا در حالیکه بیماران به داستانهای کوتاه که توسط چهار فرد مختلف گفته میشد، گوش میدادند، دادههای الکتروکورتیکوگرافی جامعی را ثبت کند.آنها سپس به جملاتی که توسط افراد مختلف گفته میشدند، گوش دادند و در همان زمان نیز الگوهای فعالیت مغز آنها را اندازه گرفتند.مسگرانی طی آن مطالعه گفت: ما متوجه شدیم که افراد میتوانند صداها را در حدود ۷۵ درصد از موارد، فهمیده و درک کنند. این "دستگاه تبدیل سخن به امواج و بالعکس"(vocoder) حساس و شبکههای عصبی قدرتمند نشان دهنده صدایی بود که بیماران در ابتدا با دقت شگفتآور گوش دادند.یافتههای این مطالعه در مجله "Neuron" منتشر شد.
کد مطلب: 190605
بهار نیوز
https://www.baharnews.ir