Le nuove sfide dell’Artificial Intelligence

IBM's Watson Computing System

Negli ultimi anni il focus dei ricercatori sull’Artificial Intelligence è cambiato: dagli algoritmi per emulare il “ragionamento” umano, attualmente si punta al “data training

Nonostante venga considerata una tecnologia di stampo futuristico, come siamo stati abituati a pensare da libri e film di fantascienza, l’intelligenza artificiale mette le sue radici ai tempi delle grandi teorie dei calcolatori: da Turing a Babbage. Nel corso degli ultimi anni, numerosi gruppi di ricerca si sono dedicati allo studio di algoritmi di apprendimento e sistemi che fossero in grado di emulare la facoltà di ragionamento degli umani, come nel caso di Cleverbot (tentativo di risponditore automatico aperto al pubblico, che cerca di apprendere tramite le conversazioni con gli utenti), dove però l’”intelligenza” dell’automa risiede solo nell’archivio di conversazioni salvate e le risposte (spesso senza senso) sono fornite in base a tecniche di matching delle parole che non rendono quindi il sistema in grado di comprendere davvero il significato delle sue informazioni.

Ciò che vediamo ora è invece un movimento verso l’uso pratico delle soluzioni di Artificial Intelligence, che ha portato a una svolta nel modo di pensare allo scopo stesso delle funzioni di AI.

Non solo i colossi come Google, che recentemente ha acquistato il gruppo di ricerca DeepMind o il laboratorio di ricerca AI da più di 50 persone di Facebook dedicano forze e risorse allo studio di questa tecnologia: circa un sesto delle startup finanziate da YCombinator, infatti, sembra utilizzino “machine learning” nelle più recenti indagini statistiche. Emblematico è il caso di IBM, che ha investito miliardi di dollari nel successo di  Watson  (il super computer che ha vinto una sfida Jeopardy concorrendo con umani): la direzione è quella di apprendere ed interpretare, per supportare i processi decisionali in base a previsioni ed analisi dei dati.

Migliaia di aziende, infatti, stanno traendo vantaggio dall’infrastruttura messa a disposizione da IBM per gestire ed estrarre insights da enormi dataset. Le infrastrutture lavorano per predire risultati o raccomandare/eseguire azioni basate sull’analisi dei dati digitali disponibili.

La sfida principale risiede nel feeding dei dati e nella creazione di una struttura che permetta la ricezione e gestione di diverse fonti. Il vero fossato da attraversare per le startup è costituito appunto dalla ricerca di fonti di dati strutturati che possano aiutare a costruire i migliori modelli possibili, dove per “migliori” si intende: larghi abbastanza da garantire l’apprendimento del sistema e variati abbastanza da potersi estendere a un range di customers piuttosto che un singolo.

Detto questo, ottenere l’accesso a un pool di dataset utili e consistenti è solo un inizio: un sistema ha bisogno di estrarre metadati dai dati stessi ed usarli come input per migliorare l’accuratezza della macchina. Prendendo come esempio Unbabel, una startup concentrata sullo sviluppo di traduzioni ad intelligenza artificiale aumentata: la compagnia ha creato un sistema scalabile di metodi per i traduttori di annotare, rifinire e rifiutare le traduzioni della macchina. Invece che un semplice sistema di valutazione Si/No/Forse, vengono giudicate 15-20 misure di accuratezza, suggerendo inoltre un’alternativa; la macchina usa questo feedback per auto-migliorarsi.

Questo è un approccio corretto e ben gestito al miglioramento dei modelli, fornendo soluzioni per qualità e adattamento (non solo per efficienza);  questa combinazione di data training e accuratezza della macchina sta alla base di ciò per cui molte startups stanno attualmente lavorando.

 

Per approfondimenti:

http://techcrunch.com/2015/10/15/machine-learning-its-the-hard-problems-that-are-valuable/