Un assistente virtuale utile a promuovere una reale accessibilità per tutti i cittadini. Come? Attraverso la LIS che approda ufficialmente come linguaggio che un Virtual Human, primo in Italia, riesce a comprendere a produrre grazie all’intelligenza artificiale. Dietro alla realizzazione di questo assistente virtuale avveniristico c’è QuestIT, company nata come spin-off dell’Università di Siena, che per l’occasione ha stretto una partnership strategica proprio con il Santa Chiara Fab Lab dell’Ateneo toscano e con il Consiglio Nazionale delle Ricerche.

“Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta – afferma Ernesto Di Iorio, CEO di QuestIT Per questo motivo abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un avatar di ultima generazione che conosce alla perfezione la Lingua dei Segni Italiana. Grazie ad esso, potenziamo la digital accessibility e diamo l’opportunità ai cittadini sordi di accedere autonomamente ad informazioni e servizi offerti da enti e realtà del territorio come la Pubblica Amministrazione e le banche, ma i potenziali campi d’applicazione sono innumerevoli: dall’organizzazione degli appuntamenti negli ospedali alla spiegazione di mostre o eventi culturali nei musei fino al chiarimento di materie o singoli concetti nelle scuole o nelle aule universitarie”.

Attualmente il virtual assistant può essere inserito all’interno di siti web, applicazioni, sistemi proprietari e persino totem interattivi. Una volta che la persona in questione si presenta dinanzi allo schermo e inizia ad interagire a suon di segni, l’invenzione analizza le espressioni facciali del singolo, oltre ai suoi movimenti, e risponde utilizzando la LIS. In questo modo è in grado di offrire consulenze mirate ed efficaci, a seconda del contesto di riferimento, ai clienti sordi.

Ma non finisce qui, infatti, sono previste a breve una serie di lavorazioni utili a perfezionare lo stesso umanoide. “Stiamo già lavorando su quello che può essere l’evoluzione della tecnologia – aggiunge Di Iorio – L’obiettivo è quello di offrire un avatar capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training, è in grado di gestire le richieste della clientela in totale autonomia e offrire così l’assistenza di cui le persone necessitano. Per l’organizzazione di questo progetto così ambizioso non potevamo che coinvolgere il Dipartimento di Scienze Sociali, Politiche e Cognitive dell’Università di Siena oltre all’Istituto di Scienze e Tecnologie della Cognizione del Consiglio Nazionale delle Ricerche e al Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana”.

Licenza Creative Commons
Cittadini di Twitter è distribuito con Licenza Creative Commons Attribuzione - Non commerciale - Non opere derivate 4.0 Internazionale.

La Redazione del Giornale Cittadini di Twitter!

Leave A Reply


*