Un progetto di DeepMind con la Oxford dimostra la possibilità che gli algoritmi imparino a distinguere parole e frasi, analizzando le labbra dell’uomo
Quante volte si comunica con l’altro solo mimando una frase con le labbra senza mai dirla? Pensavate che nel futuro, quando saremo circondati dai robot, questo sarà un buon metodo per non far sapere nulla alle intelligenze superiori? La teoria farebbe propendere per il si, ma la pratica è molto diversa. Da uno studio di DeepMind, azienda del circuito Google, e dell’Università di Oxford, è scaturito un interessante software in grado di leggere il labiale delle persone e di capire con precisione quello che (non) si sono dette. Nel 93,4% dei casi, l’algoritmo di comprensione ha correttamente interpretato la comunicazione, andando ben oltre la media del 52,3% raggiunta da chi ha un deficit uditivo.
Come funziona
Si chiama LipNet ed è il risultato del lavoro svolto dal know-how di DeepMind e dagli studi dei ricercatori universitari, che hanno “mostrato” al programma 30.000 esempi di movimenti delle labbra, affiancandoli a parole e frasi compiute, imparate e integrate assieme ai suoni. Tramite un sistema avanzato di Intelligenza Artificiale, LipNet può associare labiale, significato e audio della frase, per dare un senso compiuto al discorso, di fatto interpretando anche ciò che l’uomo non dice. Rispetto ai predecessori, la differenza è che Lipnet può recepire discorsi complessi al primo colpo, cioè senza aver prima memorizzato le singole parole. Ciò lo rende maggiormente versatile, funzionale e incredibilmente intelligente. Tale che i detrattori già parlano della possibilità di inserire algoritmi del genere nelle videocamere di sorveglianza, per monitorare non solo gli spostamenti ma anche le intenzioni delle persone.