Alla fine degli Anni 90 chi scrive volle creare il verbo che in Italiano suona come “cibernare” per rendere agli studenti del Dottorato di ricerca in “International Futures” (University of Georgia, Athens) la discontinuità tecnologica, politica ed economico-finanziaria che avrebbero dovuto affrontare come “scenaristi” nel primo quarto del prossimo secolo. Per inciso, lo scrivente aveva intravisto, tra il 1994 e 1996, i potenziali della rivoluzione tecnologica in prospettiva nell’interazione tra Centro studi strategici della Difesa italiana, con il quale collaborava, e Ufficio scenari del Pentagono (Net Assessment): sviluppo dei mezzi di superiorità, prima, via espansione delle reti informative e poi da questa la robotizzazione sempre più evoluta e, alla fine, gli spin off nel mercato civile. Da qui nacque il libro Evoluzione della guerra (Angeli, 1996). Ma anche Futurizzazione (Sperling, 2003) a seguito del quale chi scrive volle precisare il significato di “cibernare”: generazione di automi che estendevano le capacità umane, in particolare protesi tecnologiche in forma di seconda mente ausiliaria per le operazioni della prima. Oggi, con precursori sempre più evoluti in particolare dal 2010, l’avvio di un’età della “cibernazione” è evidente.
Già nell’anno 2000 si accese nei club dei futurologi il tema della controllabilità o meno dell’intelligenza artificiale, oggi nelle cronache visto il salto discontinuo delle sue capacità. In particolare fu motivo di allarme la profezia di Bill Joe, allora direttore scientifico di Sun Microsystems: nel 2030 entità cyborg senzienti sostituiranno gli esseri umani, con il sospetto inquietante di una “biocibernazione “. Chi scrive ritenne questo timore esagerato, ma annotò che il problema c’era e andava risolto per mantenere la rivoluzione tecnologica entro argini che non l’avrebbero fatta né esondare né inaridire, cioè con un impatto sostenibile sull’economia e sulla società. Avendo una mezza idea di come funzionino gli automi dotati di apprendimento - non come ingegnere, ma come cultore della Teoria dei sistemi – chi scrive ritiene che la regolazione di questi “gizmo” non possa avvenire solo con mezzi ordinari, cioè con norme limitative e di trasparenza nei confronti dei produttori, come si sta pensando: sarebbero facilmente aggirabili. Inoltre, passando alla geopolitica, i sistemi autoritari potrebbero essere inclini a produrre “gizmo” senza limiti morali o alla furtività, quindi avvantaggiati su quelli regolati prodotti nelle democrazie. C’è un modo per risolvere ambedue i problemi? Chi scrive lo ipotizza attraverso lo studio di due azioni: a) creare robot regolatori semi-senzienti programmati per “leggere” quelli privati o altri perché solo un automa ha la potenza per capire il comportamento di un altro; b) aumentare la concorrenza tra offerte di robot, affinchè la varietà produca una forma di regolazione spontanea.