Makine Öğrenimi Modeli, Beynin İletişim Seslerini Nasıl Tanıdığına Işık Tutuyor

Benzer İçerikler

Communications Biology‘de yayınlanan bir makalede, Pittsburgh Üniversitesindeki işitsel nörobilimciler, beynin hayvan sesleri veya konuşulan kelimeler gibi iletişim seslerinin anlamını nasıl tanıdığını açıklamaya yardımcı olan bir makine öğrenimi modelini tanımlamaktadır.

Çalışmada açıklanan algoritma, marmoset maymunları ve kobaylar da dahil olmak üzere sosyal hayvanların; çiftleşme, yiyecek veya tehlike çağrıları gibi ses kategorileri arasında ayrım yapmak ve bunlara göre hareket etmek için beyinlerindeki ses işleme ağlarını nasıl kullandıklarını modellemektedir.

Bu çalışma, ses tanımanın altında yatan nöronal işlemenin inceliklerini ve karmaşıklıklarını anlamaya yönelik önemli bir adımdır. Bu çalışmadan elde edilen bilgiler, konuşma tanımayı etkileyen bozuklukları anlamanın ve nihayetinde tedavi etmenin ve işitme cihazlarını geliştirmenin yolunu açıyor.

“Aşağı yukarı tanıdığımız herkes, yaşlanma ya da gürültüye maruz kalma sonucunda hayatlarının bir noktasında işitme duyularının bir kısmını kaybedecek. Ses tanıma biyolojisini anlamak ve bunu geliştirmenin yollarını bulmak önemli” diyen araştırmanın kıdemli yazarı ve Pitt nörobiyoloji yardımcı doçenti Srivatsun Sadagopan, sözlerini şöyle sürdürdü: “Ancak sesli iletişim süreci başlı başına büyüleyici. Beyinlerimizin birbirleriyle etkileşime girme ve fikirleri alıp ses yoluyla iletme yolları büyüleyicidir.”

İnsanlar ve hayvanlar, ormanın kakofonisinden kalabalık bir restoranın uğultusuna kadar her gün şaşırtıcı çeşitlilikte seslerle karşılaşırlar. Bizi çevreleyen dünyadaki ses kirliliği ne olursa olsun, insanlar ve diğer hayvanlar, seslerinin tonu veya aksanları da dahil olmak üzere birbirleriyle iletişim kurabilir ve birbirlerini anlayabilirler.

Örneğin “hello” kelimesini duyduğumuzda, Amerikan ya da İngiliz aksanıyla söylenmiş olmasına, konuşanın kadın ya da erkek olmasına, sessiz bir odada ya da kalabalık bir kavşakta bulunmamıza bakmaksızın anlamını kavrarız.

Ekip, insan beyninin iletişim seslerini tanıma ve anlamını yakalama şeklinin, diğer nesnelerle karşılaştırıldığında yüzleri tanıma şekline benzer olabileceği sezgisiyle işe başladı. Yüzler çok çeşitlidir ancak bazı ortak özelliklere sahiptir.

Beynimiz, karşılaştığımız her yüzü mükemmel bir “şablon” yüzle eşleştirmek yerine, gözler, burun ve ağız gibi yararlı özellikleri ve bunların göreceli konumlarını algılar ve bir yüzü tanımlayan bu özelliklerin zihinsel bir haritasını oluşturur.

Ekip, bir dizi çalışmayla iletişim seslerinin de bu tür özelliklerden oluşabileceğini gösterdi. Araştırmacılar ilk olarak, sosyal hayvanlar tarafından çıkarılan farklı sesleri tanımak için bir makine öğrenimi ses işleme modeli oluşturdular.

Beyin tepkilerinin modele uyup uymadığını test etmek için, akrabalarının iletişim seslerini dinleyen kobayların beyin aktivitelerini kaydettiler. Beynin sesleri işlemekten sorumlu bölgelerindeki nöronlar, makine öğrenimi modeline benzer şekilde, bu seslerin belirli türlerinde bulunan özelliklere sahip bir gürültü duyduklarında bir elektriksel aktivite telaşıyla aydınlandı.

Daha sonra modelin performansını hayvanların gerçek hayattaki davranışlarıyla karşılaştırarak kontrol etmek istediler.

Gine domuzları farklı ses kategorilerine maruz bırakıldı – farklı ses sinyalleri olarak kategorize edilen gıcırtılar ve homurtular. Araştırmacılar daha sonra kobayları farklı köşelere doğru yürümeleri ve hangi ses kategorisinin çalındığına bağlı olarak meyve ödülleri almaları için eğitti.

Sonra da görevleri zorlaştırdılar. Araştırmacılar, insanların farklı aksanlara sahip kişiler tarafından söylenen kelimelerin anlamını tanıma şeklini taklit etmek için, kobay çağrılarını ses değiştiren bir yazılımdan geçirerek hızlandırdılar veya yavaşlattılar, ses perdelerini yükselttiler veya alçalttılar ya da gürültü ve yankılar eklediler.

Hayvanlar sadece duydukları çağrılar değişmemiş gibi tutarlı bir şekilde görevi yerine getirmekle kalmadılar, yapay yankılara veya gürültüye rağmen iyi performans göstermeye devam ettiler. Daha da iyisi, makine öğrenimi modeli onların davranışlarını (ve beyindeki ses işleme nöronlarının altta yatan aktivasyonunu) mükemmel bir şekilde tanımladı.

Bir sonraki adım olarak araştırmacılar, modelin doğruluğunu hayvanlardan insan konuşmasına çeviriyorlar.

Pitt’in nörobiyoloji bölümünde doktora sonrası araştırmacı olan baş yazar Satyabrata Parida “Mühendislik açısından bakıldığında, dışarıda çok daha iyi konuşma tanıma modelleri var. Bizim modelimizin benzersiz yanı, davranış ve beyin aktivitesi ile yakın bir ilişki kurarak biyoloji hakkında daha fazla fikir sahibi olmamızı sağlamasıdır. Gelecekte bu bilgiler nörogelişimsel rahatsızlıkları olan insanlara yardım etmek ya da daha iyi işitme cihazları tasarlamak için kullanılabilir.” dedi.

Sadagopan Laboratuvarı’nda öğrenci olan Manaswini Kar, “Pek çok insan konuşmayı tanımalarını zorlaştıran koşullarla mücadele ediyor” dedi. “Nörotipik bir beynin kelimeleri nasıl tanıdığını ve etrafındaki işitsel dünyayı nasıl anlamlandırdığını anlamak, mücadele edenleri anlamayı ve onlara yardım etmeyi mümkün kılacaktır.”[1]Machine learning model sheds light on how brains recognize communication sounds

[cite]

Kaynaklar ve İleri Okuma

Yorumlar

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

Popüler İçerikler

Rastgele İçerikler