Forskare återskapar suddiga filmklipp ur mösshjärnors synbark
Artificiell intelligens vänder modellen från video till nervsignaler genom att justera en tom film tills aktiviteten matchar mätdata, ser ut som vad musen såg men kan lika gärna vara algoritmens standardgissning när många bilder passar
Bilder
Central to the study is an AI program which predicts how electrical activity in the visual cortex of the mouse brain changes depending on what the animals are seeing. Illustration: Maximilian Buzun/Alamy
theguardian.com
Movie reconstruction from mouse visual cortex activity
theguardian.com
Researchers used AI to reconstruct movie clips from mouse brain activity
theguardian.com
Forskare har återskapat gryniga ”filmsnuttar” ur nervcellers aktivitet i möss när djuren tittade på korta videor, med hjälp av ett system för maskininlärning som tränats att förutsäga mönster i synbarken. Enligt The Guardian mätte experimenten nervcellernas signaler med en infraröd laser medan mössen såg tio sekunder långa klipp, och därefter ändrades en tom video steg för steg tills modellens förutsagda hjärnaktivitet stämde med de uppmätta signalerna.
Den centrala tekniska poängen är inte att systemet ”läser tankar”, utan att det i en hårt kontrollerad situation kan vända på en koppling mellan sinnesintryck och uppmätt nervaktivitet. Studien börjar med en framåtriktad modell: givet en video, förutsäg hur aktiviteten i musens synbark förändras. Återskapandet gör sedan motsatsen: man söker en följd av bilder som rimligen skulle kunna ge upphov till den observerade aktiviteten. Det är här tolkningen blir hal. En rekonstruktion kan spegla själva stimulit, hjärnans inre representation av det, eller helt enkelt modellens egna ”favoritlösningar” – särskilt när många olika bildsekvenser kan ge liknande förutsagd aktivitet.
The Guardian beskriver resultaten som pixliga och med ”nyckelhålsperspektiv”, vilket speglar både musens begränsade synskärpa och inspelningens begränsningar. Forskargruppen räknar med skarpare rekonstruktioner med bättre data och bättre modeller, men den avgörande begränsningen handlar inte bara om upplösning. Det handlar om identifierbarhet: hur mycket information om stimulit som faktiskt finns i den uppmätta nervcellspopulationen, och hur starkt algoritmens inbyggda antaganden styr den slutliga videon när data är tvetydiga.
Det gör kontroll och validering till kärnfrågan. En robust demonstration skulle visa att rekonstruktionerna fungerar även för tidigare osedda klipp, inte bara för den typ av material som modellen tränats på, och att resultaten försämras på förutsägbara sätt när man stör ingången (till exempel genom att blanda om bildrutor, ändra kontrast eller visa kontrollstimuli som skiljer enkla synintryck från mer övergripande betydelseinnehåll). Utan sådana tester utanför träningsmaterialet kan ”ser ut som det musen såg” i praktiken reduceras till ”ser ut som det modellen brukar spotta ur sig när den är osäker”.
Arbetet ligger också i skärningspunkten mellan djurstudier och mänsklig hjärnteknik. Joel Bauer vid University College London säger till The Guardian att tillämpningar på människor väcker integritetsrisker om systemen går från att återskapa perception till att återskapa föreställningar. Tills vidare är musstudien en påminnelse om att den mest övertygande delen i sådana demonstrationer ofta är själva videon – medan det svåraste är att visa vad bildpunkterna faktiskt motsvarar.
De återskapade snuttarna kommer från tio sekunder långa videor av sporter som gymnastik och ridning, och metoden bygger på att matcha den aktivitet modellen förutsäger med signalerna som spelats in från synbarken.