Quantcast
Channel: گارنی GARNI
Viewing all articles
Browse latest Browse all 9374

رايانه‌ها هم احساساتي مي‌شوند!‏

$
0
0

رايانه‌ها هم احساساتي مي‌شوند!‏

روزنامه اطلاعات

تاريخ خبر: يكشنبه 7 خرداد 1391 ـ 5 رجب 1433ـ 27 مه 2012ـ شماره 25322

http://www.ettelaat.com/new/index.asp?fname=2012%5C05%5C05-27%5C12-08-23.htm&storytitle=%D1%C7%ED%C7%E4%E5%9D%E5%C7%20%E5%E3%20%C7%CD%D3%C7%D3%C7%CA%ED%20%E3%ED%9D%D4%E6%E4%CF!%FE

 

 

‏10 سال پس از اين که «آرتور کلارک» در رمان «اوديسه فضايي 2001» خود ابررايانه‌اي به نام 9000‏ ‏HAL را به تصوير کشيد که در شاتل فضايي «ديسکاوري- وان» نصب شده بود و مي‌توانست واژگان انسان را بخواند، اين توانايي به واقعيت بدل شد. در اين رمان که «استنلي کوپريک» نيز فيلم جاودانه خود را بر اساس آن ساخت زماني که کادر فضاپيما که به سمت سياره مشتري در حرکت بود، به دليل خرابي سيستم اتصال در کابين خود زنداني شدند، ابررايانه 9000‏ ‏HAL توانست با دوربين‌هايش حرکت لب‌هاي آنها را بخواند و به فرمانده ارشد «ديسکاوري- وان» تبديل شود. در واقع تعامل انسان و رايانه در سال‌هاي آينده وارد مرحله‌اي خواهد شد که هم به انسان و هم به رايانه اجازه مي‌دهد با درک صداهاي کلامي طبيعي و مصنوعي هم بتوانند احساسات يکديگر را درک و به روشي مؤثرتر با هم تعامل کنند. ‏

 

 

VIDAS؛ سيستم درک افسردگي ‏

در طول دهه‌هاي اخير، سيستم‌هاي رايانه‌اي پيشرفته‌اي ساخته شده‌اند که مي‌توانند واژگان و حتي احساسات انسان را درک کنند. يکي از تازه‌ترين اين سيستم‌ها ‏VIDAS‏ (سيستم آناليز ديجيتالي يک پارچه با صدا) نام دارد که قادر است حالت روحي افراد با زبان مادري انگليسي و اسپانيايي (دو زبان بسيار رايج در آمريکا) را با دقت 79 درصد درک کند و حتي با دقت کمتري احساسات افرادي را هم که اسپانيايي و انگليسي زبان دوم آنها است، تشخيص دهد. در پژوهش‌هاي اين سيستم که نتايج آن در مجله علمي ‏Voice & Emotion‏ (صدا و احساس) منتشر شده است، پژوهشگران موسسه ‏Seguro Social‏ در مکزيک اعلام كردند که اين سيستم توانايي پردازش رايانه‌اي تشخيص صدا را دارد و مي‌تواند با سرعت بالايي بيماران افسرده را نسبت به بيماران غير افسرده در بدو ورود به بيمارستان شناسايي کند. به گفته اين پژوهشگران، به کمک اين سيستم مي‌توان بيماران را به روشي صحيح به بخش‌هاي تخصصي مناسب هدايت کرد.‏

 

اثر «مک- گرک» و توانايي انسان در درک صداهاي رايانه‌اي ‏

اثر «مک- گرک»، اصطلاحي است که عنوان خود را از نام «هري مک- کرگ» گرفته است. اين دانشمند انگليسي دانشگاه «سوري» همراه «جان مک دونالد» در پژوهشي با عنوان «شنيدن لب‌ها و ديدن صدا» که در مجله «نيچر» منتشر کرد، براي اولين بار نشان داد که قدرت بينايي چگونه در درک ما از صدا اثر مي‌گذارد. اين اثر بيان مي‌دارد كه اگر ما به لب کسي که دو هجاي «با- با» را تلفظ مي‌کند، نگاه کنيم به نظرمان مي‌رسد که دو هجاي «گا- گا» را تلفظ مي‌کند، اما آن را به صورت دو هجاي «دا- دا» مي‌شنويم. در واقع اين اثر نشان مي‌دهد که تحريکات ديداري و شنيداري در درک يک واژه با هم در درگيري مداوم هستند. بنابراين، اگر بدون تماشاي يک فيلم فقط به صداي آن گوش دهيم، هجاي «با» را مي‌شنويم در حالي که اگر فقط فيلم را بدون صدا کنيم، هجا را به صورت «گا» درک مي‌کنيم.‏

 

 

رمزگذاري صدا (‏vocoding‏)‏

در ادامه مي‌توان موقعيت متضادي را هم متصور شد. در حقيقت، ما در درک صداي سنتزي و مصنوعي بايد از عملکردي استفاده کنيم که در اصطلاح فني به آن «رمزگذاري صدا» (‏vocoding‏) گفته مي‌شود. در اين مورد، تنها درک ويژگي‌هاي صدا کافي نيست، بلکه به توانايي تشخيص يک ساختمان قابل فهم از صدا هم نياز است. گروهي بين المللي که نتايج يافته‌هاي خود را در مجله «بيو مد سنترال نوروساينس» منتشر کردند در پژوهش‌هاي خود نشان دادند که فضاي گيجگاهي مغز ما که توانايي تمايز دادن ميان زبان قابل فهم، زبان غيرمفهوم و اصوات محيطي را دارد، چگونه در مواجهه با صداي مصنوعي رايانه‌اي فعال مي‌شود تا بتواند پيام شنيده شده را درک کند. اين بررسي‌ها نشان داد اگر جمله رايانه‌اي مفهوم باشد، فقط فضاهاي گيجگاهي عقبي و کناري مغز فعال مي‌شوند. اين نواحي زماني که زبان مفهوم نباشد (براي مثال در مورد زباني که با آن آشنايي نداريم) فعال نمي‌شوند. در عوض زماني که ما به اصوات پيچيده‌اي که ويژگي‌هاي يک پيام کلامي را ندارند (اصوات محيطي) گوش مي‌دهيم، نواحي گيجگاهي قدامي روشن مي‌شوند.‏

 

‏ ‏

صداي رايانه‌ها بخش احساسي ندارد

بخش احساسي که در انتقال يک پيام کلامي نقشي بنيادي ايفا مي‌کند، مسئله‌اي است که در مورد صداي يک رايانه وجود ندارد. به همين علت، معلولاني که براي مثال از بيماري فلج مغزي رنج مي‌برند و از سيستم‌هاي ارتباطات صداي سنتزي استفاده مي‌کنند با قبول اين مسئله که چرا با گوش دادن به اين صدا ردپاي احساسي آن درک نمي‌شود مشکل دارند، حتي اگر اين صداي مصنوعي به طور مطلوبي قابل درک باشد. يکي از بهترين راه حل‌هايي که براي رفع اين مشکل ارائه شده سيستمي به نام ‏EDVOX‏ است. در اين سيستم به راحتي مي‌توان صدا را به بيش از 30 شخصيت کلامي ممکن مناسب و براساس سن، جنسيت و غيره مختلف تغيير داد. دو پژوهشگر اسکاتلندي به نام‌هاي «يان موراي» و «جان آرنو» از دانشگاه کامپيوتر دوندي در پژوهش‌هايي که نتايج آن را در «ژورنال انجمن آکوسيتال آمريکا» منتشر کردند، ارتباط ميان نوع صدا و حالت روحي انسان را نشان دادند و کشف کردند که هر يک از ما هر بار که به حرف زدن کسي گوش مي‌دهيم در اندازه‌هاي متغيري آن را درک مي‌کنيم. بنابراين نه فقط هر يک از ما کارشناسان بزرگ صدا هستيم و آن را توليد و درک مي‌کنيم بلکه مي‌توانيم يک سري از اطلاعاتي را که از نظر اجتماعي، محتواهاي عميق تري از بخش‌هاي غير زباني را ارائه مي‌کنند از لايه‌هاي صداي گفتاري استخراج کنيم. کاري که ابررايانه معروف ‏HAL 9000‎‏ فضاپيماي ديسکاوري- وان اوديسه فضايي 2001 هرگز توانايي انجام آن را به دست نياورد.‏

 

‏ ‏

KINECTC 2‎؛ فناوري غول نرم افزاري دنيا

‏«کينکت» (‏Kinect‏) عنوان فن آوري است که مايکروسافت در نوامبر 2010 ويژه کنسول بازي «ايکس باکس 360» ارائه کرد. اين فناوري به بازيکن اجازه مي‌دهد که حرکات بدن خود را به شخصيت‌هاي بازي ويديويي منتقل کند و از راه دور فقط با حرکت دست‌ها و بدن، عملکردهاي «ايکس باکس» را کنترل کند. نسخه آينده «کينکت» که قرار است روي نسل جديد کنسول «ايکس باکس» نصب شود نه فقط قادر است حرکات دست را تشخيص دهد، بلکه مي‌تواند با دقت بسيار بالايي لب خواني کرده و حرکات لب‌هاي بازيکن را براي دريافت فرامين کنترل درک کند. علاوه بر اين، «کينکت 2» قادر است لحن صداي کاربر را درک و حالات مختلف چهره را براي اندازه‌گيري حالت روحي تجزيه و تحليل کند.‏

 

تلاش براي احساساتي کردن رايانه‌ها ‏

تيم پژوهشي پروفسور «پيتر رابينستون» از دانشگاه کمبريج از سال گذشته تلاش‌هايي را آغاز کرده‌اند تا بتوانند احساسات انسان را براي روبات‌ها و رايانه‌ها تعريف کنند. به اين ترتيب، انسان در آينده مي‌تواند با ماشين‌هاي «طبيعي‌تري» تعامل کند. اين دانشمندان با تحقيقات خود قصد دارند به سه پرسش جواب دهند: آيا رايانه‌ها مي‌توانند احساسات را درک کنند؟ آيا مي‌توانند احساسات خود را بيان کنند؟ آيا مي‌توانند احساسات را حس کنند؟ شدت نگاه، لحن صدا و تغيير حالت صورت علائمي هستند که مي‌توانند حالت روحي ما را نشان دهند و به ما کمک کنند که با افراد تعامل کنيم.

به گفته اين پژوهشگران، اگر روبات‌ها و رايانه‌ها نيز موفق شوند اين علائم را درک کنند مي‌توانند گام بلندي را براي ارائه يک زندگي بهتر به انسان‌ها بردارند. در اين راستا، پيتر رابينسون و تيم تحقيقاتي اش يک سر روباتيک به نام «چارلز» را ساختند که به يک «جي. پي. اس» در داخل يک دستگاه شبيه ساز مجهز بود. در فيلمي که از تعامل احساسي ميان رابينسون و چارلز تهيه شده است اين دانشمند کمبريج به راحتي با روبات در هدايت خودرو و پيدا کردن مسير ارتباط برقرار مي‌کند. رابينسون در اين خصوص اظهار داشت: «روشي که از طريق آن من و چارلز مي‌توانيم با هم ارتباط برقرار کنيم به ما نشان مي‌دهد که افراد در آينده چگونه با روبات‌ها تعامل خواهند کرد. ما در حال ساخت رايانه‌هاي هوشمند احساساتي هستيم که مي‌توانند ذهن من را بخوانند و بفهمند من چطور احساس مي‌کنم. رايانه‌ها واقعاً براي درک اينکه چه کسي در حال تايپ کردن يا در حال حرف زدن است خوب هستند، اما آنها نياز دارند بفهمند که فقط کافي نيست بدانند من چه مي‌گويم بلکه بايد درک کنند که من چگونه حرف خود را مي‌گويم.»

 

 


Viewing all articles
Browse latest Browse all 9374

Trending Articles



<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>