ADVERTISEMENT

ADVERTISEMENT

चेहरे के भाव, आवाज कैसे समझता है दिमाग, वैज्ञानिक केशव शर्मा ने किया खुलासा

ये रिसर्च जर्नल ऑफ न्यूरोसाइंस में छपी है। ये दिखाती है कि वेंट्रोलेटरल प्रीफ्रंटल कॉर्टेक्स ( VLPFC) चेहरे के हाव-भाव, आवाज और दूसरे सामाजिक संकेतों को कैसे मिलाता है, उन्हें कैसे जोड़ता है। 

भारतीय मूल के न्यूरोसाइंटिस्ट केशव शर्मा ने एक स्टडी की अगुवाई की है। / keshovsharma.com

भारतीय मूल के न्यूरोसाइंटिस्ट केशव शर्मा ने एक स्टडी की अगुवाई की है। इस स्टडी में पता चला है कि दिमाग का एक खास हिस्सा सोशल क्यूज (सामाजिक संकेतों ) को कैसे प्रोसेस करता है। ये रिसर्च जर्नल ऑफ न्यूरोसाइंस में छपी है। ये दिखाती है कि वेंट्रोलेटरल प्रीफ्रंटल कॉर्टेक्स ( VLPFC) चेहरे के हाव-भाव, आवाज और दूसरे सामाजिक संकेतों को कैसे मिलाता है, उन्हें कैसे जोड़ता है। 

रोचेस्टर यूनिवर्सिटी के डेल मोंटे इंस्टिट्यूट फॉर न्यूरोसाइंस में पोस्टडॉक्टोरल रिसर्चर केशव शर्मा ने इस स्टडी को आगे बढ़ाया। इसमें एक प्रकार के बंदर (rhesus macaques) का इस्तेमाल करके न्यूरल रिस्पॉन्स का विश्लेषण किया गया। टीम ने 400 से ज्यादा न्यूरॉन्स की एक्टिविटी VLPFC में रिकॉर्ड की। ये सब तब हुआ जब जानवर बंदर के वीडियो देख रहे थे। इन वीडियोज में बंदर दोस्ताना, आक्रामक या फिर नॉर्मल आवाज और चेहरे के भाव दिखा रहे थे। 

अलग-अलग न्यूरॉन्स ने सामाजिक उत्तेजनाओं के प्रति अलग-अलग और जटिल प्रतिक्रियाएं दिखाईं। इस वजह से शुरू में डेटा को समझना मुश्किल था। लेकिन, शर्मा की टीम ने मशीन लर्निंग टेक्निक्स की मदद ली ताकि तंत्रिका आबादी की सामूहिक गतिविधि का अध्ययन कर सकें। इस मॉडल ने वीडियो में बंदर के भाव और पहचान को सफलतापूर्वक डिकोड किया। इससे साबित हुआ कि न्यूरॉन्स मिलकर सामाजिक संकेतों को प्रोसेस करते हैं। 

शर्मा ने कहा, 'हमने अपनी स्टडी में डायनामिक और ज्यादा जानकारी वाले स्टिमुली का इस्तेमाल किया और हमें सिंगल न्यूरॉन्स से जो रिस्पॉन्स मिले वो बहुत कॉम्प्लेक्स थे। शुरुआत में, डेटा को समझना मुश्किल था। हमें तब समझ आया जब हमने देखा कि पॉपुलेशन एक्टिविटी (जनसंख्या गतिविधि) हमारे स्टिमुली में मौजूद सोशल इन्फॉर्मेशन से कैसे जुड़ी हुई हैं। हमारे लिए, यह पेड़ों की एक भीड़ के बजाय आखिरकार जंगल को देखने जैसा था'

इस खोज से पता चलता है कि VLPFC दिमाग के सामाजिक संचार नेटवर्क का एक अहम हिस्सा है। ये रोमांस्की लैब के पहले के रिसर्च को और आगे बढ़ाता है। उस रिसर्च में इसी हिस्से की भूमिका चेहरे और आवाज की जानकारी को मिलाने में बताई गई थी।

इस रिसर्च को नेशनल इंस्टिट्यूट्स ऑफ हेल्थ (NIH) और श्मिट प्रोग्राम फॉर इंटीग्रेटिव न्यूरोसाइंस ने सपोर्ट किया था। इसके दूसरे ऑथर्स रोचेस्टर यूनिवर्सिटी मेडिकल सेंटर से मार्क डिल्ट्ज, एस्ट्रोबॉटिक टेक्नोलॉजी से थियोडोर लिंकन और मियामी यूनिवर्सिटी के स्कूल ऑफ मेडिसिन एरिक अल्बुकर्क हैं।

 

 

Comments

Related

To continue...

Already have an account? Log in

Create your free account or log in