ENGLISH VERSION


 VITA
  Biografia     Gallery     Interviste     Premi     CPTV

 PUBBLICAZIONI

  Libri
  Saggi
  Ricerche
  Articoli dal 1998

 LETTERE

  Scrivi a CP
  Leggi le lettere
  Archivio

 CERCA


Carlo A. Pelanda
menu
fb Tw g+ print

Il Foglio

2013-11-26

26/11/2013

Perché la regolamentazione dei robot dovrebbe essere meno restrittiva

La rubrica segnala con lode il progetto RoboLaw, coordinato dalla Scuola Superiore Sant’Anna di Pisa, finalizzato a regolamentare le funzioni degli automi in relazione all’interazione con umani. Le cronache riportano una prima bozza di 18 principi regolatori che i ricercatori dovranno raffinare nei prossimi mesi per poi consegnarla all’ufficio europeo finanziatore. Da decenni stanno evolvendo servomeccanismi dotati di autonomia, quali i sistemi informatici di calcolo e gestione. Nel prossimo futuro sarà possibile caricare le macchine di funzioni para-intelligenti e tale settore è già oggetto di investimenti industriali, con un orizzonte di mercato a medio termine. Pertanto è ora di porsi il problema di come regolare questi gizmo. Il rubricante ha invocato tale regolazione fin dal 2000, nel libro “Stato della crescita” (Sperling) e prodotto successivamente criteri, in Italiano, nei libri “Futurizzazione” (Sperling, 2003) e “Il nuovo progresso” (Angeli, 2011). Dal 1998 su queste pagine cerca di scenarizzare una politica della rivoluzione biotecnologica, utilizzando i seguenti criteri: (a) dotare la rivoluzione di argini ed invasi affinché non esondi, ma anche non inaridisca; (b) minimizzare il conflitto tra tecnica e morale, in particolare le religioni, perché nel breve termine la seconda può soffocare la prima (mentre nel lungo si adegua, adattandosi alla novità); (c) non lasciare ai regimi autoritari il vantaggio di regole troppo stringenti che darebbero loro una superiorità strategica sulle democrazie, mettendo a rischio il primo requisito. Con in mente questi criteri la rubrica tenta alcune raccomandazioni, calibrate su un punto di vista sia futurizzante sia di un investitore professionale nel tech-next. La regola 18 – i robot in grado di apprendere dovranno sempre chiedere conferma ad un umano prima di ricordare cosa hanno imparato – ha un significato prudenziale comprensibile, ma potrebbe rallentare lo sviluppo di linguaggi post-umani (per esempio le supersintesi) capaci di iperprestazioni che costituiscono il motivo dell’investimento in automi evoluti. Il controllo prudenziale andrebbe trasferito ad altre macchine dedicate, meno limitative: per fare automi utili e liberi di auto-evolvere creiamo intelligenze artificiali che facciano loro da tutori, questi con interfaccia semplificato per il dialogo con umani. La regola 17 – i robot non potranno mai riprodursi da soli – è troppo restrittiva se si pensa che l’utilità industriale degli automi è anche quella di creare fabbriche che creano fabbriche e di “figliare” automi ausiliari all’occorrenza. La regola 11 – gli umani non potranno mai tramutarsi in robot – andrebbe articolata: la prevenzione di degenerazioni cyborg non deve impedire la nascita di nuove forme di vita intelligente artificiale, soprattutto, in materia di colonizzazione del cosmo (gli umani non possono viverci senza mutazioni biostrutturali). Bene le limitazioni alle decisioni automatiche, basti pensare ai problemi dei software borsistici, e l’enfasi sull’imputabilità. Male, invece, il divieto di robot per servizi sessuali sia per eccesso di moralismo sia perché tale funzione è quella che attrae di più investimenti poi utili per sviluppare la tecnologia. Manca, poi, nella bozza una classificazione senza la quale le 18 regole appaiono imprecise. La rubrica suggerisce di differenziare le regole in tre categorie: (a) bio-intelligenze artificiali autonome e viventi; (b) sistemi automatici computazionali-gestionali; (c) macchinismi autonomi per funzioni para-antropiche. Buon lavoro, grazie per aver iniziato.

(c) 2013 Carlo Pelanda
FB TW G+

(c) 1999 Carlo Pelanda
Contacts: letters@carlopelanda.com
website by: Filippo Brunelli