Ecco perchè Alexa e Siri non sono pronte ad essere i tuoi assistenti personali

0
47
Ecco perchè Alexa e Siri non sono pronte ad essere i tuoi assistenti personali

“Alexa, sei pronta ad avere un corpo?”

I costanti progressi nell’intelligenza artificiale e nell’elaborazione del linguaggio naturale hanno reso gli assistenti digitali come Alexa di Amazon sempre più capaci di eseguire complessi comandi vocali in diverse circostanze.

Questo significa che i nostri assistenti digitali sono pronti a fuggire dai confini di smartphone, altoparlanti e computer (e un mucchio di strani gadget)?

“L’unico modo per rendere gli assistenti intelligenti davvero intelligenti è quello di dargli occhi e fargli esplorare il mondo”, ha dichiarato Rohit Prasad, capo scienziato del gruppo di intelligenza artificiale Alexa di Amazon, ha recentemente dichiarato alla conferenza EmTech Digital del MIT Technology Review.

Prasad non ha detto esplicitamente cosa significa “dare occhi [Alexa] e lasciare che esplori il mondo”, la dichiarazione suggerisce fortemente un robot alimentato da Alexa (almeno questo è come la MIT Tech Review ha interpretato le sue parole). Mentre l’idea di mettere un volto sulle voci di Alexa, Siri e Cortana suona attraente, la verità è che con l’odierna tecnologia AI, una tale idea è destinata a fallire.

Il fallimento dei progetti robot

Jibo, il “primo social robot per la casa”, recentemente chiuso. Mayfield Robotics, il produttore del robot domestico Kuri, ha chiuso in agosto. In ottobre, la Rethink Robotics di Boston ha dovuto chiudere i battenti perché non riuscivano a trovare un modello di business funzionante per i loro famosi robot Baxtor e Sawyer.

Boston Dynamics, l’azienda che è diventata famosa per i video su YouTube dei suoi robot che compiono imprese incredibili, raramente mostra gli operatori umani che controllano e guidano i suoi robot. Google ha acquisito Boston Dynamics nel 2013, ma poi l’ha venduta al gigante tecnologico giapponese SoftBank nel 2017 perché non rientrava nella sua strategia. Boston Dynamics sta ancora lottando per trovare problemi del mondo reale da risolvere con i suoi robot.

Questi sono solo alcuni di una serie di progetti di robot falliti, e probabilmente ce ne saranno altri in futuro. Per essere chiari, Alexa è sostenuta da una delle più grandi e ricche aziende tecnologiche del mondo. Amazon si basa su una ricchezza di dati, denaro ed esperienza nella creazione di prodotti tecnologici. Ma le risorse praticamente illimitate di Amazon saranno sufficienti per superare le sfide della creazione di un robot con il supporto di Alexa?

Le sfide di navigazione dei robot

Insegnare ai robot a navigare in ambienti aperti è molto difficile, anche se dotati delle più avanzate tecnologie AI. Può succedere di tutto, e a meno che l’IA che alimenta il robot non abbia una conoscenza astratta e di alto livello del mondo, non sarà in grado di svolgere i suoi compiti senza l’aiuto degli umani.

Questo è esattamente ciò che manca all’IA contemporanea.

I robot e le auto che si autoguidano usano la computer vision per analizzare l’ambiente circostante e navigare nel mondo. La computer vision è la scienza che cerca di replicare il funzionamento del sistema di visione umana e aiuta il software a dare un senso al contenuto di immagini e video.

Al momento, la tecnica di intelligenza artificiale più popolare usata nella visione artificiale è l’apprendimento profondo. Algoritmi di apprendimento profondo ingerire un gran numero di esempi per sviluppare il loro comportamento.

Per esempio, un modello di apprendimento profondo che vuole aiutare un robot a navigare nelle case dovrà vedere video e immagini di diversi tipi di stanze, diverse decorazioni, mobili, tavoli, tappeti.. per sapere come trovare la sua strada intorno a diversi ostacoli.

Anche se addestrato con milioni di campioni, un modello di apprendimento profondo non avrà una comprensione generale di cosa è una stanza, perché c’è un tavolo in cucina, perché ci sono sedie intorno ai tavoli, ecc. Avrà solo una conoscenza statistica del tipo di immagini che dovrebbe vedere in giro per la casa, quali possono essere analizzate, quali devono essere evitate, e così via.

Se il robot affronta un nuovo ambiente, o un nuovo oggetto o una nuova composizione di colori che non ha mai visto prima, la sua intelligenza artificiale non saprà cosa fare e agirà in modo erratico. Una soluzione a breve termine è semplicemente lanciare più dati al problema e continuare ad addestrare i modelli di IA con tutti i tipi di nuovi tipi di campioni.

Amazon si trova su un vasto mare di dati che potrebbero aiutare ad addestrare gli algoritmi di IA del robot Alexa. Può anche attingere alle vaste risorse della sua piattaforma Mechanical Turk per affollare parte del lavoro di formazione. Ma questo non risolverà il problema di dare all’intelligenza artificiale una comprensione generale del mondo, degli oggetti e delle relazioni tra loro.

Senza questa comprensione generale, anche il modello di IA più sofisticato si imbatterà in “casi limite”, scenari per i quali l’IA non è stata addestrata. Questo è il motivo per cui è così difficile progettare robot e autoguida in grado di navigare in ambienti aperti.

Alcune aziende utilizzano tecnologie complementari come sensori, radar e lidar per consentire ai robot di mappare l’ambiente circostante. Queste aggiunte hardware riducono i tassi di errore (e aumentano i costi). Ma anche una perfetta mappatura 3D dell’ambiente circostante può causare errori se l’IA non ha una comprensione logica del suo ambiente.

Alexa si troverà ad affrontare un problema ancora più grande se vuole gestire oggetti e navigare negli ambienti. I robot sono stati storicamente pessimi nel maneggiare gli oggetti, a meno che non si trovassero in un ambiente molto controllato. Negli ultimi anni, le aziende hanno utilizzato tecniche di intelligenza artificiale avanzate, come il rinforzo, imparando ad addestrare le mani dei robot per svolgere da soli diversi compiti. Ma tali metodi richiedono enormi quantità di dati e risorse di calcolo (ancora una volta qualcosa che Amazon ha in abbondanza) e devono ancora soddisfare casi d’uso nel mondo reale.

Le sfide dell’interazione con gli assistenti AI

Ora diciamo che Amazon riesca a creare un robot Alexa che può “esplorare il mondo” e ha un’intelligenza artificiale che può navigare in ambienti diversi con una precisione accettabile la maggior parte del tempo, e commette solo errori stupidi di tanto in tanto.

La prossima domanda sarà: cosa deve fare questo robot?

Al momento Alexa ha decine di migliaia di abilità, ma la maggior parte di esse sono compiti semplici come suonare musica, rispondere alle domande e interagire con i dispositivi domestici intelligenti. Questo è il tipo di cose che ci si potrebbe aspettare da un oggetto inanimato seduto sul tavolo.

Ma le nostre aspettative cambieranno certamente quando Alexa sfuggirà al guscio dell’altoparlante intelligente Echo e troverà il proprio corpo. Ci aspettiamo che il nostro assistente AI manifesti un comportamento umano e l’intelligenza. Ci aspettiamo che abbiano molte delle abilità cognitive che diamo per scontate.

Per essere chiari, gli assistenti AI stanno già lottando per eseguire compiti che richiedono passi multipli. Alcuni di questi problemi sono dovuti ai limiti di un’interfaccia solo voce. Ad esempio, gli altoparlanti intelligenti sono molto limitati nell’aiutare gli utenti a navigare e scegliere tra diverse opzioni quando si effettua una scelta. Inoltre, non sono molto bravi ad andare avanti e indietro tra più passi. Ecco perché compiti come la riproduzione di musica e l’impostazione dei timer rimangono i casi d’uso più popolari per gli altoparlanti intelligenti.

Ma il problema più grande degli assistenti digitali sono i limiti dell’intelligenza artificiale contemporanea nella comprensione e nell’elaborazione del linguaggio umano. I progressi nell’apprendimento profondo e le reti neurali hanno creato progressi nel riconoscimento automatico del parlato e nell’elaborazione del linguaggio naturale. L’intelligenza artificiale è ora meglio che mai nel trasformare il parlato in testo e la mappatura del testo in comandi.

LASCIA UN COMMENTO

Inserisci il commento!
Inserisci il tuo nome