ADVERTISEMENT

ADVERTISEMENT

चेहरे के भाव, आवाज कैसे समझता है दिमाग, वैज्ञानिक केशव शर्मा ने किया खुलासा

ये रिसर्च जर्नल ऑफ न्यूरोसाइंस में छपी है। ये दिखाती है कि वेंट्रोलेटरल प्रीफ्रंटल कॉर्टेक्स ( VLPFC) चेहरे के हाव-भाव, आवाज और दूसरे सामाजिक संकेतों को कैसे मिलाता है, उन्हें कैसे जोड़ता है। 

भारतीय मूल के न्यूरोसाइंटिस्ट केशव शर्मा ने एक स्टडी की अगुवाई की है। / keshovsharma.com

भारतीय मूल के न्यूरोसाइंटिस्ट केशव शर्मा ने एक स्टडी की अगुवाई की है। इस स्टडी में पता चला है कि दिमाग का एक खास हिस्सा सोशल क्यूज (सामाजिक संकेतों ) को कैसे प्रोसेस करता है। ये रिसर्च जर्नल ऑफ न्यूरोसाइंस में छपी है। ये दिखाती है कि वेंट्रोलेटरल प्रीफ्रंटल कॉर्टेक्स ( VLPFC) चेहरे के हाव-भाव, आवाज और दूसरे सामाजिक संकेतों को कैसे मिलाता है, उन्हें कैसे जोड़ता है। 

रोचेस्टर यूनिवर्सिटी के डेल मोंटे इंस्टिट्यूट फॉर न्यूरोसाइंस में पोस्टडॉक्टोरल रिसर्चर केशव शर्मा ने इस स्टडी को आगे बढ़ाया। इसमें एक प्रकार के बंदर (rhesus macaques) का इस्तेमाल करके न्यूरल रिस्पॉन्स का विश्लेषण किया गया। टीम ने 400 से ज्यादा न्यूरॉन्स की एक्टिविटी VLPFC में रिकॉर्ड की। ये सब तब हुआ जब जानवर बंदर के वीडियो देख रहे थे। इन वीडियोज में बंदर दोस्ताना, आक्रामक या फिर नॉर्मल आवाज और चेहरे के भाव दिखा रहे थे। 

अलग-अलग न्यूरॉन्स ने सामाजिक उत्तेजनाओं के प्रति अलग-अलग और जटिल प्रतिक्रियाएं दिखाईं। इस वजह से शुरू में डेटा को समझना मुश्किल था। लेकिन, शर्मा की टीम ने मशीन लर्निंग टेक्निक्स की मदद ली ताकि तंत्रिका आबादी की सामूहिक गतिविधि का अध्ययन कर सकें। इस मॉडल ने वीडियो में बंदर के भाव और पहचान को सफलतापूर्वक डिकोड किया। इससे साबित हुआ कि न्यूरॉन्स मिलकर सामाजिक संकेतों को प्रोसेस करते हैं। 

शर्मा ने कहा, 'हमने अपनी स्टडी में डायनामिक और ज्यादा जानकारी वाले स्टिमुली का इस्तेमाल किया और हमें सिंगल न्यूरॉन्स से जो रिस्पॉन्स मिले वो बहुत कॉम्प्लेक्स थे। शुरुआत में, डेटा को समझना मुश्किल था। हमें तब समझ आया जब हमने देखा कि पॉपुलेशन एक्टिविटी (जनसंख्या गतिविधि) हमारे स्टिमुली में मौजूद सोशल इन्फॉर्मेशन से कैसे जुड़ी हुई हैं। हमारे लिए, यह पेड़ों की एक भीड़ के बजाय आखिरकार जंगल को देखने जैसा था'

इस खोज से पता चलता है कि VLPFC दिमाग के सामाजिक संचार नेटवर्क का एक अहम हिस्सा है। ये रोमांस्की लैब के पहले के रिसर्च को और आगे बढ़ाता है। उस रिसर्च में इसी हिस्से की भूमिका चेहरे और आवाज की जानकारी को मिलाने में बताई गई थी।

इस रिसर्च को नेशनल इंस्टिट्यूट्स ऑफ हेल्थ (NIH) और श्मिट प्रोग्राम फॉर इंटीग्रेटिव न्यूरोसाइंस ने सपोर्ट किया था। इसके दूसरे ऑथर्स रोचेस्टर यूनिवर्सिटी मेडिकल सेंटर से मार्क डिल्ट्ज, एस्ट्रोबॉटिक टेक्नोलॉजी से थियोडोर लिंकन और मियामी यूनिवर्सिटी के स्कूल ऑफ मेडिसिन एरिक अल्बुकर्क हैं।

 

 

Comments

Related

ADVERTISEMENT

 

 

 

ADVERTISEMENT

 

 

E Paper

 

 

 

Video