Brain Dynamics Lab @MEF

  • Eda Yazar

Beynimiz Konuşmamızı Nasıl Takip Eder?

İnsanlar dünyaya geldiği ilk andan itibaren ihtiyaçları gereği diğer insanlarla başta belirli bir dile bağlı kalmadan, sonradan sistematize ettikleri konuşma eylemi ile beraber yaşar. İnsanlar zahmetsizce doğal sesleri tanıyabilir ve bunlara tepki verebilir. Araştırmalar, insanlarda konuşma işlemi için zamana bağlı bir kodlama mekanizmasının (bknz; time-locked encoding mechanism) evrimleşmiş olabileceğini öne sürüyor. Erken gelişim sırasında dil ortamına yoğun şekilde maruz kalmanın bir sonucu olarak işleme mekanizmasının ana dile ayarlanmış olduğu görülmektedir.

Beynin konuşmaya özgü kısımlarını lokalize etmeyi ve anlamayı amaçlayan birkaç çalışma yapılmıştır, ancak aynı beyin bölgeleri çoğunlukla tüm sesler için aktif olduğundan, beynin konuşma işlemesi için benzersiz süreçlere sahip olup olmadığı ve bu süreçleri nasıl gerçekleştirdiği belirsizliğini koruyor. Başlıca zorluklardan biri, beynin, ikisi arasında bire bir yazışma olmadığında, oldukça değişken akustik sinyalleri dilbilimsel temsillerle nasıl eşleştirdiğini açıklamak olmuştur, örneğin beynin aynı kelimeleri çok farklı konuşmacılar ve lehçeler tarafından aynı şekilde nasıl tanımladığı buna örnek gösterilebilir.

Profesör Riitta Salmelin liderliğindeki bu son çalışma için araştırmacılar, 16 sağlıklı Fin (Finlandiyalı) gönüllüde milisaniye ölçekli beyin kayıtlarından konuşulan kelimeleri çözmüş ve yeniden oluşturmuşlardır.

Çok çeşitli seslerin (farklı konuşmacılar tarafından söylenen kelimeler, birçok kategoriden çevresel sesler) doğal akustik değişkenliğini kullanma ve bunları fizyolojik olarak ilham alan makine öğrenme modellerini kullanarak manyetoensefalografi (MEG) verileriyle eşleştirme gibi yeni bir yaklaşımı benimsemişler. Seslerin zamana bağlı ve zaman ortalamalı gösterimlerine sahip bu tür modeller, daha önce beyin araştırmalarında kullanılmıştır.

Ortak yazar Ali Faisal'ın yeni, ölçeklenebilir formülasyonu, bu tür modellerin tüm beyin kayıtlarına uygulanmasına izin verdi ve bu çalışma, konuşma ve diğer sesler için aynı modelleri karşılaştıran ilk çalışmadır.

Aalto araştırmacısı ve başyazarı Anni Nora, 'Kortikal aktivasyonun ortaya çıkan konuşma girdisine zaman kilitlemesinin konuşmanın kodlanması için çok önemli olduğunu keşfettik. Bir kelime duyduğumuzda, örneğin "Kedi", beynimizin anlamını anlayabilmek için zamanında çok doğru bir şekilde takip etmesi gerekir.’ İfadelerini kullanmıştır. Bunun aksine, müzik veya kahkaha gibi konuşulan sözcüklerle aynı anlamları taşıyan konuşma dışı çevresel seslerin kortikal işlenmesinde zaman kilitleme vurgulanmadı. Bunun yerine, zaman ortalamalı analiz, anlamlarına ulaşmak için yeterlidir. Bu, aynı temsillere beyin tarafından erişildiği anlamına gelir. (Bir kedinin nasıl göründüğü, ne yaptığı, nasıl hissettiği vb.) Beyin aktivasyonunun benzer zaman kilitlemesi bir kedinin miyavlamasını duyduğunuzda da beyin tarafından erişildiği, ancak sesin kendisinin bir bütün olarak analiz edilmesine gerek kalmadan analiz edildiği anlamına gelir.

Anlamsız yeni kelimeler için zaman kilitli kodlama da gözlemlendi. Bununla birlikte, gülme gibi insan yapımı, konuşma dışı seslere verilen yanıtlar bile, dinamik zaman kilitli mekanizma ile gelişmiş kod çözme göstermedi ve zaman ortalamalı bir model kullanılarak daha iyi şekilde yeniden yapılandırıldı; bu, zaman kilitli kodlamanın tanımlanan sesler için özel olduğunu düşündürmüştür.

Sonuçlar, beyin tepkilerinin özellikle yüksek zamansal sadakatle konuşmayı takip ettiğini gösteriyor. Mevcut sonuçlar, insanlarda konuşma için özel bir zaman kilitli kodlama mekanizmasının evrimleşmiş olabileceğini gösteriyor. Diğer çalışmalara dayanarak, bu işleme mekanizması, erken gelişim sırasında dil ortamına kapsamlı bir şekilde maruz kalacak şekilde ana dile ayarlanmış gibi görünmektedir.

Özellikle konuşma için zaman kilitli kodlamanın mevcut bulgusu, akustik ve dilbilimsel temsiller (seslerden kelimelere) arasında eşleştirme için gerekli hesaplamaların anlaşılmasını derinleştirir. Bu bulgular, beynin bu özel kodlama modunu kullanması için seslerdeki hangi belirli yönlerin çok önemli olduğu sorusunu gündeme getiriyor. Bunu daha fazla araştırmak için araştırmacılar, üst üste binen çevresel sesler ve konuşma gibi, gerçek hayat gibi işitsel ortamları -örneğin müzisyenlerin enstrümantal sesleri- kullanmayı hedefliyor. 'Gelecekteki çalışmalar, benzer bir zaman kilitlemesinin deneyim yoluyla diğer sesleri işlemede uzmanlaşmada gözlemlenip gözlemlenmeyeceğini de belirlemelidir.

Gelecekteki çalışmalar, konuşma akustiğindeki farklı özelliklerin katkısını ve deneysel bir görevin ses işlemede zamana bağlı veya zaman ortalamalı modun kullanımını artırmak için olası etkisini araştırabilir. Bu makine öğrenimi modelleri, konuşma işleme bozukluğu olan bireylerin araştırılması gibi klinik gruplara uygulandığında da çok yararlı olabilir.

KAYNAKÇA

Nora, A., Faisal, A., Seol, J., Renvall, H., Formisano, E., Salmelin, R., (2020). Dynamic Time-Locking Mechanism in the Cortical Representation of Spoken Words, eNeuro, 7, 1-18. doi: https://doi.org/10.1523/ENEURO.0475-19.2020

36 görüntüleme0 yorum

Son Paylaşımlar

Hepsini Gör