Intelligenza Artificiale: una ricerca IBM

AI Intelligenza artificiale

Un anno di AI: evidenze e previsioni secondo la ricerca IBM

Da oltre settant’anni, IBM Research inventa, esplora e immagina il futuro. Siamo stati pionieri nel campo dell’intelligenza artificiale (AI) sin dagli albori. Eravamo lì quando fu lanciata nella famosa conferenza di Dartmouth nel 1956. Solo tre anni dopo, un ricercatore IBM pioniere informatico, Arthur Samuel, coniò il termine “machine learning” ovvero apprendimento delle macchine. E da allora, il nostro sguardo si è sempre spinto verso il futuro del settore e su come metterlo in pratica. In questi giorni è stata pubblicata una retrospettiva del 2018 che offre un’anteprima sul futuro dell’AI. Ecco alcuni dei progressi di quest’anno in tre aree chiave – nuovi metodi, scalabilità e affidabilità dell’AI – e, visto che ci concentriamo sul futuro, anche alcune previsioni su ciò che verrà.

Un’AI che comprende realmente ciò che dici: IBM Research ha presentato nuovi metodi di Machine Listening Comprehension per argomentare e dibattere su determinati contenuti.

Se ne hai visto uno, li hai visti tutti: gli attuali metodi di AI richiedono spesso migliaia o milioni di immagini classificate per addestrare con precisione un modello di riconoscimento visivo.
La precisione a 8 bit accelera l’addestramento: i modelli di “deep learning” sono estremamente potenti, ma il loro addestramento richiede tipicamente considerevoli risorse computazionali.

Il nuovo approccio alla rete neurale BlockDrop, è un nuovo modo per accelerare le capacità di inferenza in reti neurali a molti livelli. Usando BlockDrop, si ottiene un miglioramento delle capacità inferenziali del 20%, che raggiunge il 36% per alcuni tipi di input, mantenendo la stessa accuratezza su benchmark di riferimento come la scelta della categoria top-1 nel dataset ImageNet. I ricercatori IBM hanno sviluppato un nuovo metodo per ridurre i tempi di disegno di un’architettura di una rete neurale. Il metodo definisce un modello architetturale basato su un pattern di base chiamato “neuro-cells” che viene evoluto e migliorato per passaggi successivi.

Vi è poi la battaglia per bandire i pregiudizi: poiché i sistemi di intelligenza artificiale sono sempre più utilizzati come supporto alle decisioni, è imperativo che essi siano equi e imparziali. Tuttavia, eliminare i pregiudizi è difficile, dal momento che i dati utilizzati per addestrare i sistemi di AI spesso contengono bias e correlazioni intrinseche a livello sociale e istituzionale, elementi che i metodi di apprendimento statistico catturano e riassumono. IBM Research ha delineato un nuovo approccio per ridurre la quantità di bias; secondo questo questo approccio i dati dell’addestramento vengono trasformati in modo da ridurre al minimo la presenza di pregiudizi, in modo tale che qualsiasi algoritmo di intelligenza artificiale che successivamente imparerà da esso perpetui la minore iniquità possibile. Le reti neurali organizzate su molti livelli sono per molti aspetti “scatole nere”; anche quando una rete arriva a una decisione corretta, è spesso difficile capire perché sia stata presa quella decisione. I moderni modelli di machine learning possono raggiungere un’accuratezza di previsione senza precedenti, ma sono anche sorprendentemente vulnerabili a essere ingannati da input dannosi progettati con cura e chiamati “esempi malevoli”. I modelli causali emergono sempre più rispetto a quelli basati su correlazioni: mentre l’intuizione umana è parte integrante delle nostre azioni e dei nostri giudizi quotidiani, lo stesso non si può dire per una macchina. La maggior parte dei nostri metodi di AI oggi sono basati fondamentalmente sulla scoperta di correlazioni e mancano di causalità tra fenomeni. I progressi dell’intelligenza artificiale sono stati rallentati in gran parte perché le persone non si fidano di ciò che percepiscono come un’indecifrabile scatola nera. Quest’anno, un certo numero di organizzazioni ha risposto a questi timori istituendo comitati consultivi sull’etica, applicando l’intelligenza artificiale per il bene sociale e introducendo strumenti e funzionalità che danno alle organizzazioni fiducia nella loro capacità di comprendere e gestire i sistemi di intelligenza artificiale. Nel 2019, inizieremo a vedere il frutto di queste prime iniziative, mentre esse diventeranno centrali nel modo in cui le aziende costruiscono, addestrano e implementano le tecnologie AI. Si prevede che venga prestata particolare attenzione al trasferimento dei progressi della ricerca in questo spazio in prodotti e piattaforme reali, con un accento sulla promozione della diversità e dell’inclusione nei team tecnici, per fare in modo che molte voci e prospettive orientino il progresso tecnologico.

Il quantum computing potrebbe accelerare la scalabilità dell’AI: nel 2019 assisteremo a un’accelerazione dell’interesse sia nella ricerca sia nella sperimentazione di sistemi di quantum computing e di come questi potranno giocare, almeno in parte, un ruolo durante la fase di training e esecuzione di modelli di intelligenza artificiale. Un elemento fondamentale degli algoritmi quantistici è nella loro capacità di sfruttare uno spazio rappresentativo e di ricerca esponenzialmente ampio, grazie alle proprietà quantistiche di entanglement e interferenze. Con l’aumentare della complessità dei problemi di intelligenza artificiale, il quantum computing, al quale migliaia di organizzazioni hanno già accesso tramite i servizi di quantum computing nel cloud di IBM, potrebbe cambiare il modo in cui modelliamo i problemi risolti con metodi di AI.

(Giacomo Lev Mannheimer Senior Account Executive – in abstrac)