رايانهها هم احساساتي ميشوند!
روزنامه اطلاعات
تاريخ خبر: يكشنبه 7 خرداد 1391 ـ 5 رجب 1433ـ 27 مه 2012ـ شماره 25322
http://www.ettelaat.com/new/index.asp?fname=2012%5C05%5C05-27%5C12-08-23.htm&storytitle=%D1%C7%ED%C7%E4%E5%9D%E5%C7%20%E5%E3%20%C7%CD%D3%C7%D3%C7%CA%ED%20%E3%ED%9D%D4%E6%E4%CF!%FE
10 سال پس از اين که «آرتور کلارک» در رمان «اوديسه فضايي 2001» خود ابررايانهاي به نام 9000 HAL را به تصوير کشيد که در شاتل فضايي «ديسکاوري- وان» نصب شده بود و ميتوانست واژگان انسان را بخواند، اين توانايي به واقعيت بدل شد. در اين رمان که «استنلي کوپريک» نيز فيلم جاودانه خود را بر اساس آن ساخت زماني که کادر فضاپيما که به سمت سياره مشتري در حرکت بود، به دليل خرابي سيستم اتصال در کابين خود زنداني شدند، ابررايانه 9000 HAL توانست با دوربينهايش حرکت لبهاي آنها را بخواند و به فرمانده ارشد «ديسکاوري- وان» تبديل شود. در واقع تعامل انسان و رايانه در سالهاي آينده وارد مرحلهاي خواهد شد که هم به انسان و هم به رايانه اجازه ميدهد با درک صداهاي کلامي طبيعي و مصنوعي هم بتوانند احساسات يکديگر را درک و به روشي مؤثرتر با هم تعامل کنند.
VIDAS؛ سيستم درک افسردگي
در طول دهههاي اخير، سيستمهاي رايانهاي پيشرفتهاي ساخته شدهاند که ميتوانند واژگان و حتي احساسات انسان را درک کنند. يکي از تازهترين اين سيستمها VIDAS (سيستم آناليز ديجيتالي يک پارچه با صدا) نام دارد که قادر است حالت روحي افراد با زبان مادري انگليسي و اسپانيايي (دو زبان بسيار رايج در آمريکا) را با دقت 79 درصد درک کند و حتي با دقت کمتري احساسات افرادي را هم که اسپانيايي و انگليسي زبان دوم آنها است، تشخيص دهد. در پژوهشهاي اين سيستم که نتايج آن در مجله علمي Voice & Emotion (صدا و احساس) منتشر شده است، پژوهشگران موسسه Seguro Social در مکزيک اعلام كردند که اين سيستم توانايي پردازش رايانهاي تشخيص صدا را دارد و ميتواند با سرعت بالايي بيماران افسرده را نسبت به بيماران غير افسرده در بدو ورود به بيمارستان شناسايي کند. به گفته اين پژوهشگران، به کمک اين سيستم ميتوان بيماران را به روشي صحيح به بخشهاي تخصصي مناسب هدايت کرد.
اثر «مک- گرک» و توانايي انسان در درک صداهاي رايانهاي
اثر «مک- گرک»، اصطلاحي است که عنوان خود را از نام «هري مک- کرگ» گرفته است. اين دانشمند انگليسي دانشگاه «سوري» همراه «جان مک دونالد» در پژوهشي با عنوان «شنيدن لبها و ديدن صدا» که در مجله «نيچر» منتشر کرد، براي اولين بار نشان داد که قدرت بينايي چگونه در درک ما از صدا اثر ميگذارد. اين اثر بيان ميدارد كه اگر ما به لب کسي که دو هجاي «با- با» را تلفظ ميکند، نگاه کنيم به نظرمان ميرسد که دو هجاي «گا- گا» را تلفظ ميکند، اما آن را به صورت دو هجاي «دا- دا» ميشنويم. در واقع اين اثر نشان ميدهد که تحريکات ديداري و شنيداري در درک يک واژه با هم در درگيري مداوم هستند. بنابراين، اگر بدون تماشاي يک فيلم فقط به صداي آن گوش دهيم، هجاي «با» را ميشنويم در حالي که اگر فقط فيلم را بدون صدا کنيم، هجا را به صورت «گا» درک ميکنيم.
رمزگذاري صدا (vocoding)
در ادامه ميتوان موقعيت متضادي را هم متصور شد. در حقيقت، ما در درک صداي سنتزي و مصنوعي بايد از عملکردي استفاده کنيم که در اصطلاح فني به آن «رمزگذاري صدا» (vocoding) گفته ميشود. در اين مورد، تنها درک ويژگيهاي صدا کافي نيست، بلکه به توانايي تشخيص يک ساختمان قابل فهم از صدا هم نياز است. گروهي بين المللي که نتايج يافتههاي خود را در مجله «بيو مد سنترال نوروساينس» منتشر کردند در پژوهشهاي خود نشان دادند که فضاي گيجگاهي مغز ما که توانايي تمايز دادن ميان زبان قابل فهم، زبان غيرمفهوم و اصوات محيطي را دارد، چگونه در مواجهه با صداي مصنوعي رايانهاي فعال ميشود تا بتواند پيام شنيده شده را درک کند. اين بررسيها نشان داد اگر جمله رايانهاي مفهوم باشد، فقط فضاهاي گيجگاهي عقبي و کناري مغز فعال ميشوند. اين نواحي زماني که زبان مفهوم نباشد (براي مثال در مورد زباني که با آن آشنايي نداريم) فعال نميشوند. در عوض زماني که ما به اصوات پيچيدهاي که ويژگيهاي يک پيام کلامي را ندارند (اصوات محيطي) گوش ميدهيم، نواحي گيجگاهي قدامي روشن ميشوند.
صداي رايانهها بخش احساسي ندارد
بخش احساسي که در انتقال يک پيام کلامي نقشي بنيادي ايفا ميکند، مسئلهاي است که در مورد صداي يک رايانه وجود ندارد. به همين علت، معلولاني که براي مثال از بيماري فلج مغزي رنج ميبرند و از سيستمهاي ارتباطات صداي سنتزي استفاده ميکنند با قبول اين مسئله که چرا با گوش دادن به اين صدا ردپاي احساسي آن درک نميشود مشکل دارند، حتي اگر اين صداي مصنوعي به طور مطلوبي قابل درک باشد. يکي از بهترين راه حلهايي که براي رفع اين مشکل ارائه شده سيستمي به نام EDVOX است. در اين سيستم به راحتي ميتوان صدا را به بيش از 30 شخصيت کلامي ممکن مناسب و براساس سن، جنسيت و غيره مختلف تغيير داد. دو پژوهشگر اسکاتلندي به نامهاي «يان موراي» و «جان آرنو» از دانشگاه کامپيوتر دوندي در پژوهشهايي که نتايج آن را در «ژورنال انجمن آکوسيتال آمريکا» منتشر کردند، ارتباط ميان نوع صدا و حالت روحي انسان را نشان دادند و کشف کردند که هر يک از ما هر بار که به حرف زدن کسي گوش ميدهيم در اندازههاي متغيري آن را درک ميکنيم. بنابراين نه فقط هر يک از ما کارشناسان بزرگ صدا هستيم و آن را توليد و درک ميکنيم بلکه ميتوانيم يک سري از اطلاعاتي را که از نظر اجتماعي، محتواهاي عميق تري از بخشهاي غير زباني را ارائه ميکنند از لايههاي صداي گفتاري استخراج کنيم. کاري که ابررايانه معروف HAL 9000 فضاپيماي ديسکاوري- وان اوديسه فضايي 2001 هرگز توانايي انجام آن را به دست نياورد.
KINECTC 2؛ فناوري غول نرم افزاري دنيا
«کينکت» (Kinect) عنوان فن آوري است که مايکروسافت در نوامبر 2010 ويژه کنسول بازي «ايکس باکس 360» ارائه کرد. اين فناوري به بازيکن اجازه ميدهد که حرکات بدن خود را به شخصيتهاي بازي ويديويي منتقل کند و از راه دور فقط با حرکت دستها و بدن، عملکردهاي «ايکس باکس» را کنترل کند. نسخه آينده «کينکت» که قرار است روي نسل جديد کنسول «ايکس باکس» نصب شود نه فقط قادر است حرکات دست را تشخيص دهد، بلکه ميتواند با دقت بسيار بالايي لب خواني کرده و حرکات لبهاي بازيکن را براي دريافت فرامين کنترل درک کند. علاوه بر اين، «کينکت 2» قادر است لحن صداي کاربر را درک و حالات مختلف چهره را براي اندازهگيري حالت روحي تجزيه و تحليل کند.
تلاش براي احساساتي کردن رايانهها
تيم پژوهشي پروفسور «پيتر رابينستون» از دانشگاه کمبريج از سال گذشته تلاشهايي را آغاز کردهاند تا بتوانند احساسات انسان را براي روباتها و رايانهها تعريف کنند. به اين ترتيب، انسان در آينده ميتواند با ماشينهاي «طبيعيتري» تعامل کند. اين دانشمندان با تحقيقات خود قصد دارند به سه پرسش جواب دهند: آيا رايانهها ميتوانند احساسات را درک کنند؟ آيا ميتوانند احساسات خود را بيان کنند؟ آيا ميتوانند احساسات را حس کنند؟ شدت نگاه، لحن صدا و تغيير حالت صورت علائمي هستند که ميتوانند حالت روحي ما را نشان دهند و به ما کمک کنند که با افراد تعامل کنيم.
به گفته اين پژوهشگران، اگر روباتها و رايانهها نيز موفق شوند اين علائم را درک کنند ميتوانند گام بلندي را براي ارائه يک زندگي بهتر به انسانها بردارند. در اين راستا، پيتر رابينسون و تيم تحقيقاتي اش يک سر روباتيک به نام «چارلز» را ساختند که به يک «جي. پي. اس» در داخل يک دستگاه شبيه ساز مجهز بود. در فيلمي که از تعامل احساسي ميان رابينسون و چارلز تهيه شده است اين دانشمند کمبريج به راحتي با روبات در هدايت خودرو و پيدا کردن مسير ارتباط برقرار ميکند. رابينسون در اين خصوص اظهار داشت: «روشي که از طريق آن من و چارلز ميتوانيم با هم ارتباط برقرار کنيم به ما نشان ميدهد که افراد در آينده چگونه با روباتها تعامل خواهند کرد. ما در حال ساخت رايانههاي هوشمند احساساتي هستيم که ميتوانند ذهن من را بخوانند و بفهمند من چطور احساس ميکنم. رايانهها واقعاً براي درک اينکه چه کسي در حال تايپ کردن يا در حال حرف زدن است خوب هستند، اما آنها نياز دارند بفهمند که فقط کافي نيست بدانند من چه ميگويم بلکه بايد درک کنند که من چگونه حرف خود را ميگويم.»