Ogni innovazione tecnologica comporta nuovi sia benefici sia pericoli. L’evoluzione dell’Intelligenza Artificiale mostra un aumento enorme di peso nei possibili impatti sia positivi sia negativi sul sistema sociale e nel mercato, ponendo alle democrazie con missione di protezione sociale una sfida mai vista. In realtà si è intravista da anni quando è emerso l’uso di massa del web nell’ambito della creazione di una nuova superficie terrestre fatta di connettività elettronica: l’esito complessivo dei tentativi di regolamentazione contro l’uso improprio dei dati personali, dei diritti d’autore e per la difesa contro le tecniche condizionanti ha mostrato qualche efficacia, ma insufficiente perché aggirabile. I dati personali restano oggetto di vendita per generare pubblicità ed offerte mirate, pur de-identificati anagraficamente. I diritti d’autore sono aggirati dai grandi operatori dell’informazione sul web. Le tecniche condizionanti più evidenti e massive via ciberveicoli (in Italiano si toglie la “y” di cyber) sono contrastate da un ciberdifesa sempre più efficace, ma a questa sfugge il condizionamento sottile organizzato come normale comunicazione commerciale o informativa. In sintesi: la quantità di espressioni libere ha superato la capacità di un regolatore formale di selezionare quelle proprie da quella improprie, o di farlo in tempo utile. Tuttavia, questo relativo insuccesso della regolazione (forse intenzionale in America per favorire il suo primato) ha permesso più libertà e dinamiche creative nel settore della connettività, finora con più vantaggi che danni.
Ora l’irruzione di un’Intelligenza Artificiale con capacità molto più evolute della generazione precedente sta creando uno shock nel settore e nei regolatori. Alla fine degli Anni 80 chi scrive annotò in uno scenario proiettivo – in collaborazione con l’Istituto di analisi dei sistemi di Vienna - che l’ingegneria delle reti si sarebbe sviluppata prima di quella dei contenuti. Ora la seconda sta crescendo molto rapidamente alimentata dalla nuova superficie di connettività elettronica nel pianeta e dei depositi di informazione in essa. L’ingegneria dei contenuti si basa su una sorta di mente ordinatrice che, a seguito di uno stimolo, percorre in meno di un secondo tutto il materiale informativo disponibile, semplificando, su Internet e poi lo seleziona in base a criteri ordinativi predefiniti condizionati dalla lunghezza della stringa semantica richiesta dallo stimolo. Nel linguaggio della Teoria dei sistemi questa modalità è ben rappresentabile: si tratta di un “sistema chiudente” che si apre per vedere e valutare un universo e poi si chiude su una parte di esso valutata rilevante, incorporandola in un archivio temporaneo da cui poi estrae un testo o una logica vocalizzabile, trasformabile in immagini, ecc. Da un lato, la procedura non è una novità: per esempio, quando una mente umana applica la matematica trasforma gli oggetti in numeri secondo lo statuto di questa, cioè apre una visione selettiva sul computabile di rilievo e poi lo seleziona (comvenzionalizza) in base ai propri criteri ordinativi. La matematica, o una lingua o qualunque codice viene insegnato inserendo uno statuto di segni ed operazioni, che di fatto è un robot, nella mente di una persona. Ora i robot cibermentali hanno raggiunto una capacità simile. Ma hanno anche capacità di autoapprendimento guidate da criteri ordinatori che lo favoriscono, ma non necessariamente ne tengono sotto controllo gli sviluppi. Secondo chi scrive questo è il punto che genera più inquietudine e sollecita il controllo dei criteri ordinatori che guidano l’autoapprendimento – e di fatto la ciberideologia - di un robot mentalizzato. Se si vuol vedere sincerità nell’appello di ormai più di 2.000 operatori nel settore dell’IA, trainato da Elon Musk, di fermare lo sviluppo dei robot mentalizzati per almeno 6 mesi allo scopo di trovare controlli che arginino possibili degenerazioni del loro autosviluppo, questo appare il tema principale. Se invece non c’è sincerità, lo stop invocato cerca solo di dare il tempo ai concorrenti di riempire il gap con i robot mentali “ChatGpt” e “Bard”. Forse c’è un mix tra i due motivi.
Il punto è l’autoapprendimento del robot. Questo avviene attraverso uno scambio: un utente stimola con domande un robot e questo impara sia le inclinazioni del cliente sia a raffinare le risposte. Tale scambio informazione/servizio appare equo, ma pone tre problemi che hanno motivato il Garante della privacy in Italia a sospendere ChatGpt: opacità sull’uso dei dati personali; mancanza di un’architettura giuridica che regoli lo scambio, controllo del rischio di errori del robot che provochino danni reputazionali. L’operato del Garante è adeguato e tempestivo. Ma chi scrive ritiene che tocchi un punto laterale e non centrale, il secondo relativo ai criteri ordinatori dell’apprendimento del robot. Se così, saranno altri robot programmati dai regolatori per riconoscere pericoli ed indurre le aziende a conformarsi ad una mitigazione del rischio. Resi disponibili da una concorrenza tra robot privati che competono sul piano reputazionale. In sintesi è la varietà della concorrenza che ha più probabilità di aumentare gli effetti positivi dei robot mentali mitigando quelli negativi. In Italia ci sono almeno 15 aziende, di cui una parte start up, che possono competere globalmente sul piano del potere cibercognitivo, ma non hanno le ali di capitale: c’è il motivo per dargliele.
La regolazione via concorrenza lascia spazio a più libertà che è anche un fattore rilevante nella competizione tra democrazie e regimi autoritari: i secondi possono avere capitale e tecnica, ma non l’aggiunta della libertà che instaura una relazione amplificante con capitale e tecnica stessi. Speriamo che i regolatori lo capiscano.