L’evoluzione dei sistemi di intelligenza artificiale si sta sempre più dirigendo verso le strutture biologiche. D’altronde si tratta di esempi inimitabili di ciò che si vuole simulare con l’aiuto dell’elettronica.
All’inizio (anni ’50) quella che oggi chiamiamo “Intelligenza Artificiale” erano i “Sistemi Esperti”, un campo applicativo dell’informatica che, utilizzando contemporaneamente una base di conoscenza e un metodo inferenziale basato principalmente sulla logica a controllo di programma (if-then-else), si proponeva la risoluzione di problemi complessi utilizzando ampie quantità di risorse computazionali allo stato dell’arte.
Dato che l’intelligenza è una capacità tipica degli esseri biologici (tra cui gli esseri umani), i sistemi esperti, ancorché ispirati al modo di ragionare degli esseri umani (l’esperto), non riproducevano il meccanismo biologico dell’intelligenza umana, innanzitutto “l’autoapprendimento”, “l’adattamento”, “la tolleranza all’incertezza delle informazioni e ai guasti”, e “la capacità di evolvere nel tempo”.
Negli stessi anni in cui si sviluppavano i sistemi esperti per essere applicati in settori come la “finanza”, “la diagnostica sanitaria”, furono eseguiti i primi studi relativi all’Intelligenza Naturale (quella biologica) che avrebbero portato allo sviluppo dell’intelligenza artificiale come oggi la conosciamo (reti neurali e logica fuzzy)
A metà degli anni ’80 fu inventato l’algoritmo che consentiva alle reti neurali di apprendere direttamente dai dati in maniera automatica (back propagation). Ciò consentì di avvicinarsi ulteriormente alla vera essenza dell’intelligenza, ancorché “artificiale”, e furono sviluppate e dimostrate applicazioni come il riconoscimento delle immagini e il riconoscimento del parlato, prima affrontati, con scarso successo, solo con i metodi tipici dell’informatica di segnale (DSP), detti di hard computing e contrapposti ai nascenti metodi del soft computing.
I primi metodi di soft computing per l’intelligenza artificiale (reti neurali + back propagation) definirono un campo di sviluppo dell’intelligenza artificiale detto “connessionista” che, pur conseguendo successi applicativi, era comunque lontana dall’essere paragonabile all’intelligenza naturale”.
Ulteriori studi effettuati verso la fine e nei primi anni del nuovo secolo hanno reso disponibili nuovi modelli computazionali per l’Intelligenza Artificiale bio-inspired, come le reti neurali evolutive neuro-fuzzy (capaci cioè di apprendere dai dati e di ragionare sulla base di regole inferenziali), di apprendere online e di evolvere nel tempo senza perdere la conoscenza pregressa.
Ultima frontiera, sviluppatasi nell’ultimo decennio, sono le reti neurali basate essenzialmente sul modello naturale di rappresentazione dell’informazione nei sistemi neurali biologici (spikes) e di elaborazione dell’informazione (sinapsi e neurone). È a questo punto che l’elettronica – e, soprattutto, la microelettronica – comincia a cambiare paradigma. L’elettronica digitale e la natura data-intensive della nuova generazione di modelli neurali per l’intelligenza artificiale non si sposano bene come in passato in applicazioni di hard computing (elaborazione algoritmica dei dati). L’elettronica digitale, ancorché supportata dalla legge di Moore, non può più soddisfare i requisiti computazionali del soft computing di ultima generazione (parallelismo esecutivo, bassissimo consumo di potenza elettrica, latenza near-to-zero, ecc.). L’elettronica digitale si contamina quindi con l’elettronica analogica per risolvere nodi computazionali complessi come, per esempio, l’emulazione del meccanismo della sinapsi dei neuroni o la memorizzazione dell’informazione sinaptica.
La maggior parte dei sistemi attuali applicano i metodi dell’intelligenza artificiale noti come machine learning e utilizzano architetture di computing tradizionali come le GPU e le RAM statiche. Nell’Intelligenza Naturale memoria ed elaborazione non sono fisicamente distinti, e tali funzioni sono integrate in un meccanismo biologico particolarmente efficiente chiamato Sinapsi. I neuroni, veri e propri elaboratori biologici (analogici) sono interconnessi tramite le sinapsi (anch’essi meccanismi biologici).
In-Memory computing, alla base della nuova intelligenza artificiale
Nelle architetture computazionali tradizionali l’unità centrale di elaborazione (CPU) è fisicamente distinta dalla memoria, imponendo in tal modo un elevatissimo traffico di andata e ritorno dei dati oggetto dell’elaborazione, da cui consegue un crollo dell’efficienza computazionale e un elevato consumo di energia.
IBM Research ha sviluppato un chip basato sulla tecnologia delle phase-change memory (PCM) che consente di memorizzare i pesi delle reti neurali e, quindi, di eseguire i calcoli nella locazione di memorizzazione del dato, evitando in tal modo la duplice operazione di accesso in scrittura (write) e in lettura (read) della CPU verso la memoria. Inoltre, la tecnologia della memoria è di natura non volatile; quindi, non richiede alimentazione elettrica per la ritenzione dei dati. Questa soluzione è nello stesso tempo veloce ed energeticamente efficiente, proprio ciò di cui necessita l’Intelligenza Artificiale di ultima generazione.
Il transistor sinaptico imita la sinapsi dei neuroni
Il transistor tradizionale, inventato e sviluppato all’inizio del secolo scorso, ha consentito lo sviluppo praticamente illimitato dell’elettronica analogica e dell’elettronica digitale, grazie soprattutto alla sua integrabilità, favorendo lo sviluppo della microelettronica, in particolare quella digitale.
Utilizzato principalmente come amplificatore di segnali (analogica) e come commutatore (digitale), il transistor ha consentito di sviluppare architetture di computing ad altissima integrazione e capacità computazionale che hanno portato all’attuale produzione di microcomputer applicati in applicazioni data-intensive come le applicazioni sensoriali basate sulla rete Internet-of-Things (IoT) e i dispositivi SmartPhones.
Lo sviluppo pervasivo dell’intelligenza artificiale e la relativa applicazione in ambiti ove le architetture computazionali dominanti sono quelle basate sul transistor tradizionale (commutatore), ha fatto emergere la necessità di un nuovo tipo di transistor e un nuovo modo di utilizzo di questa funzione elettronica.
Dato che il modello computazionale emergente è quello delle reti neurali artificiali (emulazione di quelle naturali) e il meccanismo connettivista e computazionale è quello della sinapsi, eco dunque apparire sulla scena dell’elettronica un nuovo tipo di transistor, il transistor sinaptico.
La sinapsi è un meccanismo biologico del cervello che consente a questo di creare connessioni (funzioni specializzate del sistema nervoso), memoria, e soprattutto elaborare gli stimoli (per esempio quelli sensoriali) per propagare l’informazione nella rete neurale, con elevatissimo parallelismo esecutivo, con bassissimo impiego di energia ed elevatissima adattabilità.
Il transistor sinaptico, a differenza di quello tradizionale, non è basato sull’elettronica a semiconduttore, ma su materiali organici (nanofibre) che da una parte consentono più facilmente di emulare le proprietà delle fibre nervose del sistema neurale biologico (consumo energetico dell’ordine del femtojoule, cioè 10-15 Joule).
Esperimenti e implementazioni sono state fatte da un gruppo di ricerca composto da Tae-Woo Lee, da Wentao Xu, e Sung-Yong Min dell’Università POSTECH (Corea).
Con un differente approccio relativamente ai materiali presso l’università di Hong Kong e la Northwestern University è stato sviluppato il transistor sinaptico con materiale organico. Quest’ultimo approccio risolve una delle problematiche più importanti dell’elettronica attuale (l’integrazione con i tessuti biologici del corpo umano).