Print
Category: Progetti
Hits: 267

"La coscienza non si identifica con la capacità comunicativa (verbale o motoria)
di un soggetto, benché questa ne sia l’unica testimonianza approcciabile."
Stanziano, Soddu, Papa, Laureys e Noirhomme

 

A fine 2007 alcuni spiacevoli eventi mi hanno portato a vivere vicino ad una persona cara affetta da gravi disabilità, fino a renderla incapace di comunicare con il mondo esterno. Ma io sentivo che dentro quel corpo immobile, che pur seguiva regolarmente i cicli sonno-veglia, c'era una coscienza che comprendeva cosa le stesse accadendo intorno senza riuscire in alcun modo a comunicare, oppure, eravamo noi che non riuscivamo a comprenderla? 

"quella mattina prima di uscire dalla sua stanza, avevo scorto
per la prima volta una lacrima sul suo viso, le avevo detto
di non preoccuparsi perché sarei tornato da Lei non appena
l'infermiera avesse terminato di somministrarle la cura, le avevo asciugato
la lacrima ed ero uscito, pochi minuti più tardi spirò.",
come può una persona in coma piangere? 

L'unica strada possibile era riuscire a tradurre direttamente gli impulsi neurali (dottor Hans Berger, 1929) associandoli, per mezzo di un computer e di un monitor, ad azioni e parole.

Da quel momento ho iniziato a ricercare una tecnologia che potesse "leggere" i pensieri di una persona incapace di comunicare con parole o gesti (anche involontari) ed ho scoperto le soluzione di Brain Computing Interface (BCI), per circa 2 anni ho realizzato su me stesso diversi prototipi, ero molto entusiasta dei risultati e spesso mi capitava di raccontarlo ai miei amici.

E' durante il 2008, in seguito anche al caso Eluana, che avevo messo a punto il primo prototipo: Ema6, in grado di trasformare gli impulsi neurali di un paziente, in azioni riprodotte da un computer. Ema6 era stato realizzato per consentire ad un bambino di soli 6 anni, in stato di minima coscienza, di giocare con il computer. In quei giorni avrei voluto tanto mettere a disposizione questa tecnologia per Eluana, ma non è stato possibile.

Nel 2010 un amica era venuta a conoscenza del mio progetto sperimentale e mi  chiese di aiutare suo marito (e mio caro amico) affetto da SLA da oltre 10 anni: l'Ing. Cesare Scoccimarro. Per lui avevo sviluppato il sistema Ni-Cx-13 in grado di superare i limiti del comunicatore oculare (eyetraking) largamente usato da molti pazienti affetti da SLA. Cesare però era un informatico (come me) ed era anche molto (poco) paziente ed esigente, per questo è stato anche il mio migliore utente pilota ;-)

Nella primavera del 2010, durante una conferenza stampa sugli stati vegetativi (mentre accompagnavo la mamma di Emanuele di 6 anni), presso l'Istituto Besta di Milano, avevo avuto la fortuna di incontrare il Dottor Giambattista Guizzetti ( Responsabile Medico geriatra e Stati Vegetativi al Centro Don Orione di Bergamo ). La prima versione di ELU-1  (si pronuncia ELU.wən) ha visto la luce all'interno del Don Orione di Bergamo, grazie al progetto "SOSTEGNO ALLA COMUNICAZIONE", cosi è partita la prima sperimentazione su oltre 24 pazienti.

"una delle tante cose che mi ha sempre sorpreso delle
persone dichiarate in stato vegetativo è che non stanno
sempre ferme (anzi), seguono i cicli sonno veglia, ed alcuni
di loro riescono a seguirti con lo sguardo; eppure, quando
i medici fanno i test per capire se rispondono
alle sollecitazioni esterne... quasi non reagiscono."

Nello stesso periodo viaggiai in lungo ed in largo tutta l'Italia, ed ebbi modo di incontrare altre famiglie che avevano in cura un familiare (moglie, figlia/figlio o marito) in stato di minima coscienza (o vegetativo) a casa; in alcune occasioni lasciai loro una copia di ELU-1 affinché potessero continuare ad usarlo, anche senza la mia presenza, per spezzare quel silenzio assordante con la persona cara.

Ciascuna di queste famiglie ha lasciato in me la gioia di chi, ogni santo giorno, dedica gran parte della propria vita per amore verso gli altri, ed è soprattutto per questo che oggi posso affermare, d'aver ricevuto da loro, più di quanto io non sia stato in grado di dare/fare per loro.

Nel periodo dal 2011 al 2012 non sono mancate le occasioni in cui è stato possibile presentare i primi risultati della sperimentazione svolta presso il Don Orione di Bergamo con il Dottor Giambattista Guizzetti. Questi eventi sono stati molto importanti, non solo per far conoscere il progetto, ma anche per la raccolta di fondi che hanno contribuito al finanziamento del progetto stesso grazie alla generosità di molte persone.

Nello stesso periodo anche alcuni giornalisti hanno partecipato attivamente alle sessioni di lavoro, con i pazienti ed i loro familiari, raccontando la loro esperienza nel vedere come viene utilizzato ELU-1 quale ausilio tecnologico a supporto della comunicazione. Prima fra tutte è stata la giornalista Lucia Bellaspiga che martedì 5 aprile 2011 raccontò la sua esperienza sul quotidiano Avvenire dal titolo "Stati vegetativi: un casco «dipinge» i loro pensieri".

"Quando incontravo per la prima volta i familiari che curavano queste
persone chiedevo sempre loro: Ha mai avuto la sensazione che capisca
quello che gli accade? la risposta era sempre affermativa.
Ma qualche ora più tardi quando ponevo la stessa domanda alla
persona a cui era collegata ELU-1, anche lei risponde: SI. 
Tutti i presenti scoppiavano a piangere (me compreso) di gioia."

Il progetto ELU-1 ottenne vari riconoscimenti fra cui quello della Camera di Commercio di Milano nel 2011 per l'impegno nella ricerca di nuove soluzioni..Durante la conferenza internazionale AES 2012, svolta nell'aprile del 2012 a Parigi, il gruppo di lavoro composto da
A. FANTI, M. FRANCESCHELLI, P. MAXIA, D. SALPIETRO presentò per la prima volta il progetto sperimentale "ELU-1: EMOTIONS LANGUAGE UNIFIED IS A BCI FOR COMMUNICATION SUPPORT" alla comunità scientifica ed industriale.

La RAI intervistò, durante la trasmissione UNO MATTINA, il sottoscritto ed al Dottor Guizzetti sulle possibilità offerte dal ELU-1 dal titolo "RAI 1 - Progetto ELU.1" e sulle cura delle persone in stato vegetativo e dei familiari.

Nel 2012 il progetto fu presentato all'Università di Firenze, all'interno di un ciclo di incontri dedicati alle neuroscienze (copia della presentazione è disponibile online), in collaborazione con il Prof. Mauro Ceroni ( Responsabile di Struttura Complessa di Neurologia Generale dell'Istituto Neurologico Mondino di Pavia).

"Ancora oggi si parla di Stato Vegetativo, di Minima Coscienza,
di Coma, ancora oggi mancano gli strumenti di diagnosi adeguati,
ancora oggi manca la rivalutazione a medio-lungo termine,
ancora oggi non sono sufficienti le strutture che possano
assistere adeguatamente queste famiglie,
ancora oggi si muore in silenzio, eppure una cosa che ho imparato 
è che loro non perdono mai la capacità di sentire chi gli sta accanto"

Grazie

Daniele Carmelo Salpietro

(www.salpietro.it, This email address is being protected from spambots. You need JavaScript enabled to view it.)

 

"cogito ergo sum",
che significa letteralmente
«penso quindi sono» - Cartesio

 

PRINCIPALI CARATTERISTICHE

L’integrazione del software ELU-1 e Ni-Cx13 con i nuovissimi biosensori nasce dall’esigenza di trovare una modalità interattiva alternativa con l’ambiente in grado di sostituire le azioni fisiche con impulsi neurali.

Il sistema permette di :

(Nota: nella sezione video sono disponibili i filmati che dimostrano le funzionalità del sistema ELU-1).

inoltre:

ASPETTI INNOVATIVI DEL PROGETTO

Il progetto, se solo si consideri che NON esistono ancora strumenti diagnostici economici, semplici da utilizzare ed efficaci, in grado di misurare il livello responsività emotiva, è di per sé fortemente innovativo.

Un progetto multidisciplinare in cui l'informatica (o per meglio la Bioinformatica[2] ) ne rappresenta lo strumento primario unitamente alla matematica applicata, la statistica, nozioni di intelligenza artificiale, la psicologia, la fisiologia, l’elettronica e la neuroingegneria (Brain-computer Interface [3]) .

FUNZIONAMENTO

L’interfaccia uomo-macchina sviluppata con Ni-Cx13 non si basa più su azioni fisiche ma su input neurali.

Ni-Cx13 è costituito da un’unica struttura all’interno della quale sono integrati il sistema periferico di biosensori (neurale, muscolare e oculare), il sistema centrale di correlazione dei dati (ELU-1), gli attuatori (Ni-Cx13 o Ema6), un computer portatile con schermo multi-touch.

Ni-Cx13, inoltre, può essere utilizzato in quei casi in cui gli altri strumenti di comunicazione assistita (switcher, eyes-tracking, face-tracking, etc.) risultino inutilizzabili in seguito alla progressione della malattia.

BIOSENSORI

Monitoraggio delle onde alfa 1 (8-10Hz), alfa 2 (10-12 Hz), alfa 3 (12-14 Hz), beta 1 (13-20 Hz), beta 2 (20-25 Hz), beta 3 (25-30 Hz)  prodotte dal cervello (biofeedback[1] elettroencefalograficiritmi cerebrali) segnali ricavati dagli stimoli del cervello derivanti da un’eccitazione che produce adrenalina dal sistema simpatico e acetilcolina da quello parasimpatico.

Monitoraggio dei segnali muscolari (biofeedbak elettromiografici), analizzando tutti quei micromovimenti dati dall’attivazione del sistema sanguigno della fronte e dal tendersi dei muscoli facciali.

Monitoraggio degli spostamenti del bulbo oculare ( biofeedback elettro-oculografici ).

Monitoraggio dei canali: AF3,F7,F3,FC5,T7,P7,O1,O2,P8,T8,FC6,F4,F8,AF4, più riferimenti MS/DRL e P3/P4 (disponibile solo con la versione a 16 sensori).

La rete di biosensori registra allo stesso istante tutti segnali, che tradotti digitalmente, vengono inviati al software ELU-1® che si occuperà dell’elaborazione e correlazione, per poi essere inviati ai dispositivi di output ed essere trasformati in comandi (Cx13) tastiera, mouse, azioni(domotica), immaginie/suoni (Ema6).