Insegnando a una rete neurale artificiale a imitare il comportamento di un neurone biologico reale, si è scoperto che la capacità di elaborazione dei singoli neuroni è molto più sofisticata di quanto ritenuto finora.

Il nostro cervello molliccio sembra avere ben poco in comune con i robusti chip in silicio nei processori dei computer, eppure il paragone da parte degli scienziati ha una lunga tradizione. Come ebbe a dire Alan Turing nel 1952, “non ci interessa se il cervello ha la consistenza del porridge freddo”. In altre parole, l’importante non è il mezzo, ma solo la capacità computazionale.

Oggi i sistemi di intelligenza artificiale più potenti adottano un tipo di apprendimento automatico detto deep learning. I loro algoritmi imparano elaborando enormi quantità di dati tramite strati nascosti di nodi interconnessi, detti reti neurali profonde. Come lascia intuire il nome, le reti neurali profonde si ispirano alle autentiche reti neurali del cervello: i nodi si rifanno al modello dei neuroni veri e propri, o quanto meno a ciò che ne sapevano i neuroscienziati nei lontani anni cinquanta, quando si ideò il cosiddetto percettrone, un modello di neurone che si è poi affermato. Da allora la nostra conoscenza della complessità computazionale dei singoli neuroni è aumentata in modo straordinario, quindi sappiamo che i neuroni biologici sono più complessi di quelli artificiali. Ma di quanto?

Per scoprirlo, David Beniaguev, Idan Segev e Michael London, tutti della Hebrew University di Gerusalemme, hanno addestrato una rete neurale profonda artificiale a imitare i calcoli di un neurone biologico simulato. Hanno dimostrato che una rete neurale profonda richiede tra cinque e otto strati di “neuroni” interconnessi per rappresentare la complessità di un solo neurone biologico.

Schema dello studio di David Beniaguev e colleghi

Nemmeno gli autori si aspettavano una simile complessità. “Pensavo fosse più semplice e piccola”, ha commentato Beniaguev: si aspettava che per rappresentare i calcoli eseguiti nella cellula bastassero tre o quattro strati.

Secondo Timothy Lillicrap, che progetta algoritmi decisionali presso l’azienda DeepMind, di proprietà di Google, il nuovo risultato fa ipotizzare la necessità di ripensare la vecchia tradizione dei paragoni approssimativi tra un neurone del cervello e uno destinato all’apprendimento automatico. “Questo articolo aiuta davvero a capire l’importanza di considerare la questione più attentamente, chiedendosi fino a che punto abbiano senso queste analogie”, ha commentato.

L’analogia più semplice tra i neuroni autentici e quelli artificiali riguarda il modo di gestire le informazioni in arrivo. Entrambi i tipi di neuroni ricevono i segnali in arrivo e, in base a quell’informazione, decidono se inviare il proprio segnale ad altri neuroni. Per prendere questa decisione i neuroni artificiali si basano su un calcolo semplice, mentre in quelli biologici il processo è molto più complicato, come dimostrano decenni di ricerche. I neuroscienziati computazionali usano una funzione input-output per rappresentare il rapporto tra gli input ricevuti dai dendriti di un neurone biologico – i suoi rami lunghi, simili a quelli di un albero – e la sua decisione di trasmettere un segnale.

Gli autori della nuova ricerca hanno insegnato a imitare questa funzione a una rete neurale profonda artificiale, per determinarne la complessità. Hanno cominciato creando un’enorme simulazione della funzione input-output di un neurone piramidale – un tipo di neurone con alberi dendritici a entrambe le sue estremità – prelevato dalla corteccia di un ratto. Quindi hanno inserito la simulazione in una rete neurale profonda che aveva un massimo di 256 neuroni artificiali in ciascuno strato. Hanno continuato ad aumentare il numero di strati fino a raggiungere un’accuratezza del 99 per cento alla risoluzione temporale dei millisecondi tra l’input e l’output del neurone simulato. La rete neurale profonda è riuscita a prevedere il comportamento della funzione input-output del neurone con almeno cinque – ma non più di otto – strati artificiali. In gran parte delle reti questo equivaleva a circa 1000 neuroni artificiali per uno biologico.

Oggi i neuroscienziati sanno che la complessità computazionale di un singolo neurone, come il neurone piramidale a sinistra, dipende dai rami dendritici, bombardati da segnali in arrivo. Questi determinano cambiamenti di tensione locali, rappresentati dai diversi colori del neurone (rosso = tensione elevata, blu = tensione bassa) prima che questo decida se inviare il proprio segnale, detto anche potenziale d’azione. Questo neurone ne emette tre, come indicato dalle tracce dei singoli rami a destra, dove i colori rappresentano le posizioni dei dendriti corrispondenti, dall’alto (rosso) al basso (blu).

“[Il risultato] crea un ponte tra i neuroni biologici e quelli artificiali”, ha commentato Andreas Tolias, neuroscienziato computazionale al Baylor College of Medicine.

Gli autori dello studio però avvertono che la corrispondenza non è ancora molto chiara. “Il rapporto tra il numero di strati di una rete neurale e la sua complessità non è evidente”, ha aggiunto London. Quindi non possiamo dire con certezza di quanto aumenti la complessità passando, per esempio, da quattro a cinque strati. E nemmeno possiamo dire che la necessità di 1000 neuroni artificiali significhi che un neurone biologico è esattamente 1000 volte più complesso. In ultima analisi, è possibile che l’aumento esponenziale del numero di neuroni artificiali in ciascuno strato possa infine determinare una rete neurale profonda con un solo strato, che però probabilmente avrebbe bisogno di molti più dati e tempo per l’apprendimento dell’algoritmo.

“Abbiamo provato moltissime architetture, con molte profondità e molte cose, e per la maggior parte hanno fallito”, spiega London. Gli autori hanno condiviso il codice per incoraggiare altri ricercatori a trovare una soluzione intelligente con meno strati. Ma visto quanto è stato difficile trovare una rete neurale profonda in grado di imitare il neurone con una precisione del 99 per cento, gli autori sono convinti che il loro risultato offra davvero un termine di paragone significativo per ulteriori ricerche. Lillicrap ha ipotizzato che possa offrire un nuovo modo di collegare al cervello le reti di classificazione delle immagini, che spesso richiedono oltre 50 strati. Se ogni neurone biologico è come una rete neurale artificiale a cinque strati, allora forse una rete di classificazione delle immagini a 50 strati equivale a 10 neuroni reali in una rete biologica.

Gli autori inoltre sperano che il loro risultato modifichi l’architettura delle reti profonde attualmente all’avanguardia nell’IA. “Auspichiamo che si cambi la tecnologia delle reti profonde per avvicinarsi al funzionamento del cervello, sostituendo ogni unità singola nella rete profonda attuale con un’unità che rappresenti un neurone, profondo già di per sé”, spiega Segev. In questo scenario sostitutivo, ricercatori dell’IA e ingegneri potrebbero attivare una rete profonda a cinque strati in qualità di “mini-rete” per sostituire ogni neurone artificiale.

Alcuni però si chiedono se questa possibilità porterà davvero benefici all’IA. “Credo che l’eventualità di un effettivo vantaggio computazionale sia ancora da chiarire”, ha commentato Anthony Zador, neuroscienziato al Cold Spring Harbor Laboratory. “Questa [ricerca] getta le basi per dare una risposta”.

A parte le applicazioni per l’IA, il nuovo articolo va anche a consolidare un sempre maggiore consenso sulla notevole potenza di calcolo degli alberi dendritici e, attraverso essi, dei singoli neuroni. Nel 2003 tre neuroscienziati hanno dimostrato che gli alberi dendritici di un neurone piramidale eseguono calcoli complessi rappresentandolo come una rete neurale artificiale a due strati. Nel nuovo articolo gli autori hanno esaminato quali caratteristiche del neurone piramidale hanno ispirato la complessità molto maggiore nelle loro reti neurali profonde, con un numero di strati tra cinque e otto. Hanno dedotto che abbia avuto origine dagli alberi dendritici e da un recettore specifico che riceve i messaggeri chimici sulla superficie dei dendriti: queste scoperte si allineavano a precedenti ricerche nel settore.

Secondo alcuni questo risultato significa che i neuroscienziati dovrebbero dare la priorità allo studio dei singoli neuroni. “In seguito a questo articolo diventa molto più importante considerare i dendriti e i neuroni individuali”, afferma Konrad Kording, neuroscienziato computazionale all’Università della Pennsylvania. Altri, come Lillicrap e Zador, ipotizzano che dedicarsi ai neuroni all’interno di un circuito sarà altrettanto importante per capire come il cervello sfrutti effettivamente la complessità computazionale dei singoli neuroni.

In ogni caso, il linguaggio delle reti neurali artificiali potrebbe gettare nuova luce sulla potenza dei neuroni e, in ultima analisi, del cervello. “Pensare in termini di strati, profondità e larghezze ci dà un’idea intuitiva della complessità computazionale”, dice Grace Lindsay, neuroscienziata computazionale all’University College di Londra. Lindsay però avverte che la nuova ricerca si limita ancora a confrontare un modello con un altro. Purtroppo, per i neuroscienziati oggi è impossibile registrare l’intera funzione input-output di un neurone vero, è quindi probabile che ci sia anche qualcos’altro che sfugge al modello di un neurone biologico. In altre parole, i neuroni veri potrebbero essere ancora più complessi.

Secondo London, “non sappiamo se quel numero tra cinque e otto sia davvero quello giusto”.

Fonte: Le Scienze

LEGGI TUTTE LE ALTRE NEWS