Princeton araştırmacılarından oluşan disiplinlerarası bir ekip; vücut parçalarını, herhangi bir fiziksel işaretleyici veya etiket olmadan, yüksek hassasiyetle milyonlarca video karesinde izlemek için birkaç dakika içerisinde eğitilebilen esnek bir hareket yakalama aracı olan LEAP’i yarattı.

Princeton profesörleri Mala Murthy ve Joshua Shaevitz, ortaklaşa yürüttükleri bir çalışma sayesinde; mevcut videodaki hayvanların bireysel vücut bölümlerini otomatik olarak takip etmek için yapay zekanın (AI) en son gelişmelerini kullanarak bir adım daha ileri gitti. Bu yeni araç, LEAP Hayvan Poz Tahminleri (LEAP), herhangi bir fiziksel işaretleyici veya etiket eklemek zorunda kalmadan, bir hayvanın vücut bölümlerini milyonlarca video karesinde yüksek hassasiyetle otomatik olarak izlemek için birkaç dakika içinde eğitilebilir.

Princeton Sinirbilim Enstitüsü (PNI) Moleküler Biyoloji Doçenti Murthy: “Bu yöntem, hayvan modeli sistemlerinde geniş bir şekilde kullanılabilir ve genetik mutasyonlarla veya ilaç tedavisinin ardından hayvanların davranışlarının ölçülmesinde faydalı olacaktır.”

Lewis-Sigler Bütünleştirici Genomik Enstitüsü Fizik Profesörü Shaikitz: ” Araştırmacılar, LEAP’ı laboratuvarlarında geliştirilen diğer niceliksel araçlarla birleştirdiğinde, hayvanların vücut hareketlerindeki kalıpları gözlemleyerek ‘davranış dili’ dedikleri şeyi çalışabilirler.”

PNI’de Yüksek Lisans Öğrencisi Talmo Pereira: “Bu, prensip olarak herhangi bir video verisinde kullanılabilecek esnek bir araçtır. Çalışma şekli; birkaç videodaki birkaç noktayı etiketlemektir ve sonra sinir ağı geri kalanını halleder. Önceden herhangi bir programlama bilgisi olmadan, LEAP’i kendi videolarına uygulayabilen herkes için kullanımı kolay bir arayüz sunuyoruz.”

LEAP’ın, ilk deneklerin çoğunu oluşturan sineklerde ve farelerde olduğu gibi, büyük memelilerde de çalışıp çalışmadığı sorulduğunda; Pereira, Kenya’daki Mpala Araştırma Merkezi’nden canlı yayından alınan bir zürafanın hareket etiketli bir videosunu anında yarattı.

Pereira, “Mpala araştırma istasyonundan yürüyen bir zürafa videosu çektik ve bir saatten az süren 30 video karesinde noktaları etiketledik. LEAP daha sonra videonun geri kalan kısmındaki hareketi (kabaca 500 kare) saniye cinsinden izleyebildi.”

İnsan hareketini izleyebilecek AI araçları geliştirme konusundaki önceki çabalar, el ile açıklamalı büyük veri setlerine dayanıyordu. Bu, çok farklı geçmişlere veya aydınlatma koşullarına sahip, yazılımın çeşitli veri türleri üzerinde sağlam bir şekilde çalışmasına izin verdi.

Murthy: “Bizim durumumuzda, laboratuvar ortamında toplanan veriler üzerinde çalışmak için koşulların kayıtlar arasında tutarlı olduğu benzer yöntemleri optimize ettik. Kullanıcının, diğer araştırmacılar veya şirketler üzerinde çalışmalar ile kısıtlanmak yerine, topladığı veriler için uygun bir sinir ağı seçmesini sağlayan bir sistem kurduk.”

Murthy: “Diego Aldarondo, Princeton’daki bilgisayar bilimleri derslerinden birinde; hayvan davranış verilerini açıklamak için derin sinir ağlarının kullanımını araştırıyordu. Sonuçta, bu yöntemlerin kendi verilerine güçlü bir şekilde uygulanabileceğini fark etti. Diego ve Talmo, bu AI yöntemlerinin ne kadar etkili olabileceğini gösterdi.”

İngiltere’deki Kraliyet Veteriner Fakültesi Yapı ve Hareket Laboratuvarı kıdemli öğretim görevlisi Monica Daley, bu çalışmanın, sinirbilimin dışında da büyük bir potansiyele sahip olduğunu belirtti.

Daley: “Araştırmamın büyük bir kısmı, hayvanların farklı arazi ve çevre koşulları altında nasıl etkili bir şekilde hareket ettiklerini anlamayı amaçlamaktadır. Alandaki devam etmekte olan en büyük zorluklardan biri, hayvan çekimi hakkında anlamlı bir bilgiyi video çekimlerinden çekmektir. Videoları manuel olarak işler, saatlerce süren sıkıcı çalışmayı gerektirir veya otomatikleştirilebilecek çok basit ve sınırlı analizlere odaklanırız. Bu yöntemle sunulan algoritmalar, çalışmamızın emek yoğun bölümünü daha önce mümkün olandan daha fazla otomatik hale getirme potansiyeline sahiptir ve bu da daha çeşitli hayvan lokomotor davranışları çalışmamıza izin verebilir.”

Bir kez hareket ve davranış veritabanına sahip olduklarında, ekipteki sinirbilimciler arkasındaki sinirsel süreçlerle bağlantılar kurabilirler. Bu, araştırmacılara “beynin nasıl davranış geliştirdiğini” daha iyi anlamalarını sağlamakla kalmayacak, aynı zamanda gelecekteki tanılama ve birinin eylemlerini yorumlayan bir bilgisayara dayanan tedavileri keşfetmelerini de sağlayacak.

Murthy: “Bu, şu anda davranış ve sinirsel aktivite çalışmaları için yapay zeka araçlarının geliştirilmesinde çok fazla faaliyet içeren inanılmaz derecede heyecan verici bir alandır.”

Pereira: “Daha küçük, daha yalın ağların hızlı bir şekilde yeni veri kümelerinde uzmanlaşarak yüksek doğruluk elde edebileceği farklı bir yaklaşım kullanıyoruz. Daha önemlisi, AI aracılığıyla hayvan pozu takibi için kullanımı kolay seçeneklerin olduğunu gösterdik ve bunun alanın davranış ölçümüne daha nicel ve kesin yaklaşımlar benimsemeye başlamasını teşvik ettiğini umuyoruz.”

PNI’de Moleküler Biyoloji Profesörü Samuel Wang: “Son beş yılda, sinirbilim, beyin aktivitesini gözlemleyen ve değiştiren teknolojide büyük adımlar attı. Şimdi, davranışın otomatik olarak sınıflandırılması, bu teknolojiye kritik bir tamamlayıcı ekliyor. Princeton, hesaplamalı nöroloji biliminin gelişme çağında bir merkez haline geliyor.”

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

You May Also Like

Blu-ray’in 10.000 Kat Yoğunluk Sunan, 5D Veri Depolama Teknolojisi

 Southampton Üniversitesi’ndeki bilim insanları; son teknoloji lazerler kullanarak ve biraz problem…

Gelecekteki 6G Ağı İçin Bir Şablon Oluşturma

 Geleneksel ağlar; son teknoloji hesaplama, video analizi ve siber güvenlik gibi bant…

Project Taara: Lazerle Nehrin Üzerinden İnternet Işınlamak

Alphabet‘in araştırma ve geliştirme şirketi X’te, Project Taara adlı proje üzerinde çalışan…

Sualtı ve Hava Taşıtı İletişimi Sağlayan Sistem: TARF

MIT araştırmacıları tarafından geliştirilen yeni bir sistemde; sualtı sonar sinyalleri, havada bulunan…