Nöronlarda Hesaplama Karışıklığı

Nöronlarda Hesaplama Karışıklığı
Science Photo Library - KTSDESIGN / Getty Images

Duygusal beyinlerimiz, bilgisayar işlemcilerindeki katı silikon çiplerden oldukça farklı görünüyor, ancak bilim adamlarının ikisini karşılaştırma konusunda uzun bir geçmişi var. Alan Turing’in 1952’de söylediği gibi: “Beynin soğuk yulaf lapası kıvamında olması bizi ilgilendirmiyor.” Başka bir deyişle, ortam önemli değil, sadece hesaplama yeteneği. Konumuz oldukça ilginç nörologlar, yapay zeka uzmanları, matematikçiler, fizikçiler bir arada çalışma halinde olabilirler. Öyle konular var ki bir çok disiplini içerisinde barındırıyor.

Nörobilimciler, soldaki piramidal nöron gibi tek bir nöronun hesaplama karmaşıklığının, gelen sinyallerle bombardımana tutulan dendritik ağaç benzeri dallara dayandığını artık biliyorlar. Bunlar, nöron bir “spike” olarak adlandırılan kendi sinyalini gönderip göndermemeye karar vermeden önce, nöronun değişen renkleri (kırmızı yüksek voltaj, mavi düşük voltaj anlamına gelir) ile temsil edilen yerel voltaj değişiklikleri ile sonuçlanır. Bu, renklerin yukarıdan (kırmızı) aşağıya (mavi) doğru dendritlerin konumlarını temsil ettiği sağdaki ayrı dalların izleriyle gösterildiği gibi, üç kez yükselir.

Günümüzde en güçlü yapay zeka sistemleri, derin öğrenme adı verilen bir tür makine öğrenimi kullanır. Yapay zeka sistemlerinin algoritmaları, derin sinir ağları olarak adlandırılan, birbirine bağlı düğümlerin gizli katmanları aracılığıyla büyük miktarda veri işlenerek oluşmaktadır.

Adından da anlaşılacağı gibi, derin sinir ağları, beyindeki gerçek sinir ağlarından ilham aldı.

Düğümler gerçek nöron yapısının anlaşılmasından sonra modellenmiştir.

Sinirbilimcilerin 1950’lerde etkili bir nöron modelini anlamaları üzerine bu modele algılayıcı adı verilmiştir.

O zamandan beri, tek nöronların hesaplama karmaşıklığına ilişkin anlayışımız çarpıcı biçimde genişledi, bu nedenle biyolojik nöronların yapay olanlardan daha karmaşık olduğu biliniyor. Ama ne kadar karışık bunu incelemeye devam edelim.

Bunu bulmak için, Kudüs İbrani Üniversitesi’nden David Beniaguev, Idan Segev ve Michael London, simüle edilmiş bir biyolojik nöronun hesaplamalarını taklit etmek için yapay bir derin sinir ağı oluşturdular.

Derin bir sinir ağının, tek bir biyolojik nöronun karmaşıklığını temsil etmek için beş ila sekiz katman arasında birbirine bağlı “nöron” gerektirdiğini gösterdiler.

Araştırmacılar bile böyle bir karmaşıklığı beklemiyorlardı. Beniaguev, “Daha basit ve daha küçük olacağını düşündüm” dedi. Hücre içinde yapılan hesaplamaları yakalamak için üç veya dört katmanın yeterli olacağını umuyordu.

Google’ın sahip olduğu yapay zeka şirketi DeepMind’de karar verme algoritmaları tasarlayan Timothy Lillicrap, yeni sonucun, makine öğrenimi bağlamında beyindeki bir nöronu bir nöronla gevşek bir şekilde karşılaştırmaya yönelik eski geleneği yeniden düşünmenin gerekli olabileceğini öne sürdüğünü söyledi.

Yapay ve gerçek nöronlar arasındaki en temel benzetme, gelen bilgiyi nasıl ele aldıklarını içerir.

Her iki tür nöron da gelen sinyalleri alır ve bu bilgilere dayanarak kendi sinyallerini diğer nöronlara gönderip göndermemeye karar verir.

Yapay nöronlar bu kararı vermek için basit bir hesaplamaya güvenirken, onlarca yıllık araştırmalar biyolojik nöronlarda sürecin çok daha karmaşık olduğunu göstermiştir.

Hesaplamalı sinirbilimciler, biyolojik bir nöronun dendritler olarak adlandırılan uzun ağaç benzeri dalları tarafından alınan girdiler ile nöronun bir sinyal gönderme kararı arasındaki ilişkiyi modellemek için bir girdi-çıktı işlevi kullandıklarını bilirler.

Bu işlev, yeni çalışmanın yazarlarının karmaşıklığını belirlemek için taklit etmeyi öğrettiği yapay bir derin sinir ağıdır.

Bir farenin korteksinden, piramidal nöron olarak bilinen, üstünde ve altında farklı dendritik dal ağaçları olan bir tür nöronun girdi-çıktı fonksiyonunun devasa bir simülasyonunu oluşturarak başladılar.

Daha sonra simülasyonu, her katmanda 256’ya kadar yapay nöron bulunan derin bir sinir ağı ile beslediler.

Simüle edilen nöronun girişi ve çıkışı arasında milisaniye düzeyinde %99 doğruluk elde edene kadar katman sayısını artırmaya devam ettiler.

Derin sinir ağı, nöronun giriş-çıkış fonksiyonunun davranışını en az beş – ancak sekizden fazla olmayan – yapay katmanlarla başarılı bir şekilde öngördü.

Ağların çoğunda, bu sadece bir biyolojik nöron için yaklaşık 1000 yapay nörona eşitti.

London, “Bir sinir ağında sahip olduğunuz katman sayısı ile ağın karmaşıklığı arasındaki ilişki açık değildir” dedi.

Dolayısıyla, örneğin dört katmandan beşe geçerek ne kadar karmaşıklık kazanıldığını gerçekten söyleyemeyiz.

1000 yapay nörona ihtiyaç duymanın, biyolojik bir nöronun tam olarak 1000 kat daha karmaşık olduğu anlamına geldiğini de söyleyemeyiz. Sonuç olarak, her katmanda katlanarak daha fazla yapay nöron kullanmanın sonunda tek bir katmana sahip derin bir sinir ağına yol açması mümkündür – ancak algoritmanın öğrenmesi için muhtemelen çok daha fazla veri ve zaman gerekecektir.

London, “Birçok derinliğe ve pek çok şeye sahip pek çok mimari denedik ve çoğunlukla başarısız olduk” dedi.

Araştırmacılar diğer araştırmacıları daha az katmanla akıllı bir çözüm bulmaya teşvik etmek için kodlarını paylaştılar.

Ancak, nöronu %99 doğrulukla taklit edebilecek derin bir sinir ağı bulmanın ne kadar zor olduğu göz önüne alındığında, yazarlar sonuçlarının daha sonraki araştırmalar için anlamlı bir karşılaştırma sağladığından eminler.

Lillicrap, genellikle 50’den fazla katman gerektiren görüntü sınıflandırma ağlarını beyinle ilişkilendirmenin yeni bir yolunu sunabileceğini öne sürdü.

Her biyolojik nöron beş katmanlı bir yapay sinir ağı gibiyse, o zaman belki de 50 katmanlı bir görüntü sınıflandırma ağı biyolojik bir ağdaki 10 gerçek nörona eşdeğerdir.

Araştırmacılar ar ayrıca, sonuçlarının yapay zeka uygulamalarında ki mevcut son teknoloji derin ağ mimarisini değiştireceğini umuyorlar. Araştırmacılardan Segev “Bugün derin ağdaki her basit birimi, zaten – kendi başına – derin olan bir nöronu temsil eden bir birim ile değiştirerek, beynin nasıl çalıştığına daha yakın hale getirmek için derin ağ teknolojisinin değiştirilmesini istiyoruz” dedi.

Bu değiştirme senaryosunda, AI araştırmacıları ve mühendisleri, her yapay nöronu değiştirmek için beş katmanlı bir derin ağı “mini ağ” olarak bağlayabilirler.

Ancak bazıları bunun gerçekten yapay zekaya fayda sağlayıp sağlamayacağını merak ediyor. Cold Spring Harbor Laboratuvarı’ndan bir sinirbilimci olan Anthony Zador, “Bunun gerçek bir hesaplama avantajı olup olmadığı açık bir soru olduğunu düşünüyorum” dedi. “Bizim çalışmamız bunu test etmek için temel oluşturuyor.”

Yapay Zeka Uygulamaları ve Nöronlar

Yapay zeka uygulamalarının dışında, yeni makale aynı zamanda dendritik ağaçların ve vekil olarak tek nöronların güçlü hesaplama gücü konusunda büyüyen bir fikir birliğine katkıda bulunuyor.

2003 yılında, bir sinirbilimci üçlüsü, piramidal bir nöronun dendritik ağaçlarının, onu iki katmanlı bir yapay sinir ağı olarak modelleyerek karmaşık hesaplamalar gerçekleştirdiğini gösterdi.

Yeni makalede, yazarlar, piramidal nöronun hangi özelliklerinin, beş ila sekiz katmanlı derin sinir ağlarında çok daha fazla karmaşıklığa ilham verdiğini araştırdı.

Bunun dendritik ağaçlardan ve dendritlerin yüzeyinde kimyasal haberciler alan belirli bir reseptörden geldiği sonucuna vardılar – bu, sahadaki önceki çalışmalarla uyumlu bulgular.

Bazıları, sonucun, sinirbilimcilerin tek nöronların çalışmasını daha büyük bir öncelik haline getirmesi gerektiği anlamına geldiğine inanıyor.

Pennsylvania Üniversitesi’nde hesaplamalı bir sinirbilimci olan Konrad Kording, “Bu makale, dendritler ve bireysel nöronlar hakkında düşünmeyi eskisinden çok daha önemli hale getiriyor” dedi. Lillicrap ve Zador gibi diğerleri, bir devre içindeki nöronlara odaklanmanın, beynin gerçekte tek nöronların hesaplama karmaşıklığını nasıl kullandığını öğrenmek için aynı derecede önemli olacağını öne sürdü.

Ne olursa olsun, yapay sinir ağlarının dili, nöronların ve nihayetinde beynin gücüne yeni bir bakış açısı sağlayabilir.

University College London’da hesaplamalı bir nörobilimci olan Grace Lindsay, “Katmanlar, derinlikler ve genişlikler açısından düşünmek bize sezgisel bir hesaplama karmaşıklığı hissi veriyor” dedi.

Yine de Lindsay, yeni çalışmanın hala yalnızca bir modeli bir modelle karşılaştırdığına dikkat çekiyor.

Ne yazık ki, sinirbilimcilerin gerçek bir nöronun tam girdi-çıktı fonksiyonunu kaydetmesi şu anda imkansız.

Bu nedenle biyolojik bir nöron modelinin çalışma prensibinde bilinmesi gereken çok şey olduğu açık. Başka bir deyişle, gerçek nöronlar daha da karmaşık olabilir.

London, “Beş ile sekizin gerçekten son sayı olduğundan emin değiliz” dedi.

Kaynak: Quantamagazine.com

İlk yorum yapan olun

Bir yanıt bırakın

E-posta hesabınız yayımlanmayacak.


*