ai intelligenza artificiale

Innovation Intelligence, l’Attuale Limite Competitivo dell’AI

AI, i processi di intelligenza artificiale, sono ormai diventati il sale nella comunicazione e nelle descrizioni di sviluppo competitivo di qualsiasi iniziativa imprenditoriale, vecchia e nuova. Anche il panettiere sotto casa, che fino ad ieri si limitava all’utilizzo della blockchain per la messa in comunità dei diversi formati di pane ed il loro pagamento, oggi è dell’idea di profilare la clientela attraverso il processamento (tramite AI) in real time dell’audio dei clienti quando sono al banco. Ma AI è davvero la panacea competitiva per tutto?

No, ed il limite è espresso dalla parola ‘perché’. Ripercorrendo la lunga storia dell’AI, da Charles Babbage ai giorni nostri, il paradigma di sviluppo che si è imposto è quello del ‘deep learning’. Esso non si è imposto a caso, o per furbizia degli adepti, ma in conseguenza di due fattori: la potenza di calcolo progressivamente usufruibile e la quantità di dati digitali su cui esercitare la stessa. Ciò ha permesso, sempre gradualmente, risultati competitivi significativi dell’apprendimento automatico.

Basandosi sulla struttura ‘input —> modello matematico —> output —> misurazione dell’errore —> correzione del modello —> nuovo ciclo’ è comprensibile come enormi quantità di dati su cui effettuare la modellazione matematica e molta potenza computazionale (nelle due dimensioni, della velocità di processamento e del numero di chip, i neuroni artificiali, che elaborano il modello) abbiamo condotto ai risultati contemporanei.

ai limiti di competitivitàIntendiamoci i risultati competitivi attualmente disponibili sono tutt’altro che disprezzabili dal lato efficiacia. Limitando l’esempio alla sola ricerca dell’informazione in ambito intelligence, poter riconoscere (in tempi ridotti) il viso di un cliente quando entra in uno spazio di acquisto (e di conseguenza abbinarci le sue abitudini), ovvero dalla digitazione di un testo dedurre probabilisticamente uno stato emozionale o una propensione o un bias, sono fattori vantaggiosi tutt’altro che trascurabili. Dal lato della sicurezza, privata e pubblica, l’utilità dell’estrapolazione significativa dell’informazione cercata è facilmente intuibile ed un supporto eccezionale risulta essere la rilevazione proattiva delle minacce in cybersec.

Tuttavia al deep learning manca lo schema di apprendimento, e cioè il ‘perché’: le reti neurali odierne sono ‘model free’, non sanno motivare le scelte. Queste ultime attualmente derivano da miliardi di veloci interazioni ‘esatto/errato —> correzione’ e, per ora, e non danno nessuna indicazione sulla strategia di apprendimento, né a livello di tattica né a livello superiore. In altre parole manca la casualità, ovvero la ‘causa —> effetto’ derivante dalla strategia deduttiva tipica del cervello umano. In altri termini è impossibile avere dati significativi per l’estrapolazione di tutte le soluzioni, anche in aree applicative comunque limitate come potrebbero essere uno sport o la diagnosi di una malattia, e non tutte le decisioni sono dovute a correzioni successive: c’è l’efficacia ma bisogna fare un salto di efficienza per avere un modello deduttivo con cui confrontare il responso, per capire se esso è effettivamente giusto o sbagliato.   

Infatti la problematica oggi più urgente, in termini di efficienza competitiva, risiede nella correzione degli errori del deep learning. Rifacendosi ad un esempio che ormai è diventato di scuola, supponendo da un lato che l’AI riesca ad elaborare in tempo utile tutte le sagome automobilistiche esistenti con qualsiasi colore ad esse abbinabile e, d’altro lato, riesca ad elaborare qualsiasi gradazione di colore prevedibile di fondo terra/cielo, quale è il modello per cui essa ha scambiato il telo azzurro di un camion per il cielo e ha fatto schiantare la Tesla, che governava, contro il camion? 

Per ovviare alla questione la ricerca galoppa, cercando di fornire modelli causali efficaci di comportamento a cui i chip si devono rifare per correggere le proprie decisioni errate. Sommariamente si agisce su due versanti. Il primo è quello dell’anticipo di coerenza: si testano in anticipo, attraverso feedback, le soluzioni che probabilisticamente sono più coerenti col modello (non con il risultato, come succede nel deep learning) e si fornisce la migliore. Il secondo è quello delle gerarchie di ipotesi, o di auto apprendimento, per cui tanto quanto l’umano inchioda sempre l’auto se vede un pallone sulla strada, a prescindere che dietro al pallone ci sia il bambino o meno, AI apprende la miglior soluzione da adottare data la gerarchia modellante. Il secondo filone di approfondimento ha un’eccellenza italiana, compresa nell’orizzonte degli studi dedicati, nel gruppo di Marco Zorzi della Facoltà di Psicologia dell’Università di Padova.

Leave a Reply

*

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.