Bilancio dopo tre giorni di attacchi ciberterroristici. Decine di milioni di utenti Internet e migliaia di aziende non hanno potuto accedere, per qualche ora, a servizi on-line dotati di valore economico. Le azioni del settore hanno avuto un calo preoccupante, pur provvisorio, a causa della crisi di fiducia. Adesso è in corso la reazione al primo esempio di sabotaggio a larga scala della rete. Molti operatori industriali su Internet sono quasi nel panico perché vedono a rischio investimenti di migliaia di miliardi di lire o, comunque, temono la prospettiva di un aumento dei costi di gestione per le maggiori spese di sicurezza, tra cui i premi assicurativi. E chiedono che i governi forniscano maggiore difesa alla rete proprio per ridurre tali spese. Sembra razionale. Ma c’è un problema. Aumentare la sicurezza della rete contro intrusioni ed attentati finalizzati a bloccarla potrebbe – se si agisce senza riflettere a fondo - snaturare Internet ed il suo enorme potenziale economico. Siamo, quindi, di fronte ad una difficile decisione: dobbiamo rendere più "chiusa" e controllabile Internet per aumentarne la sicurezza (riservatezza dei dati e funzionamento senza blocchi) o dobbiamo lasciarla libera (aperta) accettando un elevato grado di rischio? Cerchiamo di capire.

Già negli anni ’80 i primi costruttori di Internet (per esempio, Jerry Salzer, David Reed, David Isenberg, ecc.) ne avevano colto l’aspetto più potente. Una rete aperta senza un centro organizzatore, perché fatta solo di connettività tra terminali a libertà di accesso totale, permette che l’innovazione si sviluppi senza blocchi e ritardi. Per capirsi, se Internet fosse più regolata, magari sottoposta ad un controllo centrale (come accade per le reti telefoniche), ci sarebbero meno novità e, di conseguenza, minori potenziali economici. Ed infatti le analisi mostrano che l’enorme sviluppo dell’economia digitale, finora, si è basato sul fatto che la rete è rimasta libera, aperta a tutti e a tutto. I governi vedono sempre con maggiore fastidio tale libertà perché complica il loro compito di polizia, in particolare da quando – nel 1995 - l’economia ha cominciato a trasferirsi sempre di più dal territorio regolato da dogane ed anagrafi alla rete elettronica senza frontiere e identità fisiche (si pensi al problema del controllo fiscale). E tendono ad usare i problemi di vulnerabilità della rete come scusa per poterla monitorare e regolare al millimetro. Nel luglio del 1999 l’Amministrazione Clinton ha cercato di creare un sistema di controllo totale con la scusa della sicurezza (Federal Intrusion Detection Network). Ma i custodi della natura libertaria di Internet e i difensori delle libertà civili si sono mobilitati, avanguardia americana del popolo Internet globale, contro questa idea di burocratizzazione della rete. Ed hanno pienamente ragione. Se concedo ad un ente statale di entrare legalmente in qualsiasi archivio e transazione in rete, allora questa sarà meno libera. Se, poi, permetto che le regole di sicurezza diventino degli standard operativi di fatto è molto probabile che si riduca – qui il punto da ribadire – il numero di novità possibili. Per esempio, se definisco dei codici di sicurezza per i linguaggi ipertestuali (lo http che anteponete al www) rischio di ritardare la nascita di un nuovo linguaggio o sosftware successivo perché ci sarà una burocrazia che dovrà approvarlo. Ora, invece, chi ha una buona idea la sbatte in rete senza limiti e basta. E questa buona idea ha un valore economico enorme che le riconosco in Borsa proprio grazie alla sua applicabilità senza sbarramenti. Bisogna aggiungere che nel prossimo futuro le aziende che prenderanno la leadership del mercato Internet avranno interesse a difenderla da altri competitori emergenti sia cercando situazioni di monopolio (come ha cercato di fare Microsoft) sia soffocando la velocità delle innovazioni. E si teme un matrimonio di interesse tra questi aspiranti monopolisti ed i governi, con la scusa della sicurezza di Internet. Spero il punto sia chiaro.

Da queste considerazioni possiamo ricavare un principio "net-costituzionale": nessuna azione per la sicurezza di Internet deve ridurne la libertà. Internet ha senso (civile ed economico) solo se perfettamente libera.

Ma allora, per tutelare il principio di apertura della rete, dobbiamo accettare un alto rischio di blocchi del suo funzionamento e di intrusioni? Per nulla. La rete si difenderà meglio se lasciata libera – senza agenzie di controllo centrali – grazie alla concorrenza ed al confronto continuo tra attaccante e difensore. Vediamo un esempio pratico di questo concetto. Già domani potremo evitare con certa facilità un attacco del tipo di quello attuato pochi giorni fa. I cibersabotatori hanno usato dei programmi (Tribe Flood Network, Trin00, "Filo spinato", ecc.) che penetrano nel vostro computer senza che voi ve ne accorgiate. Poi, ad un segnale, migliaia di computer "inconsapevoli" lanciano contro un sito, tipo Yahoo, dei messaggi che lo intasano o lo fanno impazzire. La difesa è quella di blindare i nostri computer con un software di difesa, abbastanza semplice da elaborare. Soprattutto premieremo l’azienda Internet che ci offrirà gratis il marchingegno, incentivandone così la produzione concorrenziale. I sabotatori inventeranno qualcosa altro, noi controinventeremo altre difese. I primi saranno sempre sconfitti perché un solo evento non può mettere in crisi tutta la rete. Infatti i ciberterroristi fanno i sabotaggi allo scopo di creare reazioni eccessive, queste sì – e non l’attentato di per se – destabilizzanti. Vincerebbero solo se permettessimo, presi dal panico, che la rete diventi meno libera.

" /> Bilancio dopo tre giorni di attacchi ciberterroristici. Decine di milioni di utenti Internet e migliaia di aziende non hanno potuto accedere, per qualche ora, a servizi on-line dotati di valore economico. Le azioni del settore hanno avuto un calo preoccupante, pur provvisorio, a causa della crisi di fiducia. Adesso è in corso la reazione al primo esempio di sabotaggio a larga scala della rete. Molti operatori industriali su Internet sono quasi nel panico perché vedono a rischio investimenti di migliaia di miliardi di lire o, comunque, temono la prospettiva di un aumento dei costi di gestione per le maggiori spese di sicurezza, tra cui i premi assicurativi. E chiedono che i governi forniscano maggiore difesa alla rete proprio per ridurre tali spese. Sembra razionale. Ma c’è un problema. Aumentare la sicurezza della rete contro intrusioni ed attentati finalizzati a bloccarla potrebbe – se si agisce senza riflettere a fondo - snaturare Internet ed il suo enorme potenziale economico. Siamo, quindi, di fronte ad una difficile decisione: dobbiamo rendere più "chiusa" e controllabile Internet per aumentarne la sicurezza (riservatezza dei dati e funzionamento senza blocchi) o dobbiamo lasciarla libera (aperta) accettando un elevato grado di rischio? Cerchiamo di capire.

Già negli anni ’80 i primi costruttori di Internet (per esempio, Jerry Salzer, David Reed, David Isenberg, ecc.) ne avevano colto l’aspetto più potente. Una rete aperta senza un centro organizzatore, perché fatta solo di connettività tra terminali a libertà di accesso totale, permette che l’innovazione si sviluppi senza blocchi e ritardi. Per capirsi, se Internet fosse più regolata, magari sottoposta ad un controllo centrale (come accade per le reti telefoniche), ci sarebbero meno novità e, di conseguenza, minori potenziali economici. Ed infatti le analisi mostrano che l’enorme sviluppo dell’economia digitale, finora, si è basato sul fatto che la rete è rimasta libera, aperta a tutti e a tutto. I governi vedono sempre con maggiore fastidio tale libertà perché complica il loro compito di polizia, in particolare da quando – nel 1995 - l’economia ha cominciato a trasferirsi sempre di più dal territorio regolato da dogane ed anagrafi alla rete elettronica senza frontiere e identità fisiche (si pensi al problema del controllo fiscale). E tendono ad usare i problemi di vulnerabilità della rete come scusa per poterla monitorare e regolare al millimetro. Nel luglio del 1999 l’Amministrazione Clinton ha cercato di creare un sistema di controllo totale con la scusa della sicurezza (Federal Intrusion Detection Network). Ma i custodi della natura libertaria di Internet e i difensori delle libertà civili si sono mobilitati, avanguardia americana del popolo Internet globale, contro questa idea di burocratizzazione della rete. Ed hanno pienamente ragione. Se concedo ad un ente statale di entrare legalmente in qualsiasi archivio e transazione in rete, allora questa sarà meno libera. Se, poi, permetto che le regole di sicurezza diventino degli standard operativi di fatto è molto probabile che si riduca – qui il punto da ribadire – il numero di novità possibili. Per esempio, se definisco dei codici di sicurezza per i linguaggi ipertestuali (lo http che anteponete al www) rischio di ritardare la nascita di un nuovo linguaggio o sosftware successivo perché ci sarà una burocrazia che dovrà approvarlo. Ora, invece, chi ha una buona idea la sbatte in rete senza limiti e basta. E questa buona idea ha un valore economico enorme che le riconosco in Borsa proprio grazie alla sua applicabilità senza sbarramenti. Bisogna aggiungere che nel prossimo futuro le aziende che prenderanno la leadership del mercato Internet avranno interesse a difenderla da altri competitori emergenti sia cercando situazioni di monopolio (come ha cercato di fare Microsoft) sia soffocando la velocità delle innovazioni. E si teme un matrimonio di interesse tra questi aspiranti monopolisti ed i governi, con la scusa della sicurezza di Internet. Spero il punto sia chiaro.

Da queste considerazioni possiamo ricavare un principio "net-costituzionale": nessuna azione per la sicurezza di Internet deve ridurne la libertà. Internet ha senso (civile ed economico) solo se perfettamente libera.

Ma allora, per tutelare il principio di apertura della rete, dobbiamo accettare un alto rischio di blocchi del suo funzionamento e di intrusioni? Per nulla. La rete si difenderà meglio se lasciata libera – senza agenzie di controllo centrali – grazie alla concorrenza ed al confronto continuo tra attaccante e difensore. Vediamo un esempio pratico di questo concetto. Già domani potremo evitare con certa facilità un attacco del tipo di quello attuato pochi giorni fa. I cibersabotatori hanno usato dei programmi (Tribe Flood Network, Trin00, "Filo spinato", ecc.) che penetrano nel vostro computer senza che voi ve ne accorgiate. Poi, ad un segnale, migliaia di computer "inconsapevoli" lanciano contro un sito, tipo Yahoo, dei messaggi che lo intasano o lo fanno impazzire. La difesa è quella di blindare i nostri computer con un software di difesa, abbastanza semplice da elaborare. Soprattutto premieremo l’azienda Internet che ci offrirà gratis il marchingegno, incentivandone così la produzione concorrenziale. I sabotatori inventeranno qualcosa altro, noi controinventeremo altre difese. I primi saranno sempre sconfitti perché un solo evento non può mettere in crisi tutta la rete. Infatti i ciberterroristi fanno i sabotaggi allo scopo di creare reazioni eccessive, queste sì – e non l’attentato di per se – destabilizzanti. Vincerebbero solo se permettessimo, presi dal panico, che la rete diventi meno libera.

"/> Bilancio dopo tre giorni di attacchi ciberterroristici. Decine di milioni di utenti Internet e migliaia di aziende non hanno potuto accedere, per qualche ora, a servizi on-line dotati di valore economico. Le azioni del settore hanno avuto un calo preoccupante, pur provvisorio, a causa della crisi di fiducia. Adesso è in corso la reazione al primo esempio di sabotaggio a larga scala della rete. Molti operatori industriali su Internet sono quasi nel panico perché vedono a rischio investimenti di migliaia di miliardi di lire o, comunque, temono la prospettiva di un aumento dei costi di gestione per le maggiori spese di sicurezza, tra cui i premi assicurativi. E chiedono che i governi forniscano maggiore difesa alla rete proprio per ridurre tali spese. Sembra razionale. Ma c’è un problema. Aumentare la sicurezza della rete contro intrusioni ed attentati finalizzati a bloccarla potrebbe – se si agisce senza riflettere a fondo - snaturare Internet ed il suo enorme potenziale economico. Siamo, quindi, di fronte ad una difficile decisione: dobbiamo rendere più "chiusa" e controllabile Internet per aumentarne la sicurezza (riservatezza dei dati e funzionamento senza blocchi) o dobbiamo lasciarla libera (aperta) accettando un elevato grado di rischio? Cerchiamo di capire.

Già negli anni ’80 i primi costruttori di Internet (per esempio, Jerry Salzer, David Reed, David Isenberg, ecc.) ne avevano colto l’aspetto più potente. Una rete aperta senza un centro organizzatore, perché fatta solo di connettività tra terminali a libertà di accesso totale, permette che l’innovazione si sviluppi senza blocchi e ritardi. Per capirsi, se Internet fosse più regolata, magari sottoposta ad un controllo centrale (come accade per le reti telefoniche), ci sarebbero meno novità e, di conseguenza, minori potenziali economici. Ed infatti le analisi mostrano che l’enorme sviluppo dell’economia digitale, finora, si è basato sul fatto che la rete è rimasta libera, aperta a tutti e a tutto. I governi vedono sempre con maggiore fastidio tale libertà perché complica il loro compito di polizia, in particolare da quando – nel 1995 - l’economia ha cominciato a trasferirsi sempre di più dal territorio regolato da dogane ed anagrafi alla rete elettronica senza frontiere e identità fisiche (si pensi al problema del controllo fiscale). E tendono ad usare i problemi di vulnerabilità della rete come scusa per poterla monitorare e regolare al millimetro. Nel luglio del 1999 l’Amministrazione Clinton ha cercato di creare un sistema di controllo totale con la scusa della sicurezza (Federal Intrusion Detection Network). Ma i custodi della natura libertaria di Internet e i difensori delle libertà civili si sono mobilitati, avanguardia americana del popolo Internet globale, contro questa idea di burocratizzazione della rete. Ed hanno pienamente ragione. Se concedo ad un ente statale di entrare legalmente in qualsiasi archivio e transazione in rete, allora questa sarà meno libera. Se, poi, permetto che le regole di sicurezza diventino degli standard operativi di fatto è molto probabile che si riduca – qui il punto da ribadire – il numero di novità possibili. Per esempio, se definisco dei codici di sicurezza per i linguaggi ipertestuali (lo http che anteponete al www) rischio di ritardare la nascita di un nuovo linguaggio o sosftware successivo perché ci sarà una burocrazia che dovrà approvarlo. Ora, invece, chi ha una buona idea la sbatte in rete senza limiti e basta. E questa buona idea ha un valore economico enorme che le riconosco in Borsa proprio grazie alla sua applicabilità senza sbarramenti. Bisogna aggiungere che nel prossimo futuro le aziende che prenderanno la leadership del mercato Internet avranno interesse a difenderla da altri competitori emergenti sia cercando situazioni di monopolio (come ha cercato di fare Microsoft) sia soffocando la velocità delle innovazioni. E si teme un matrimonio di interesse tra questi aspiranti monopolisti ed i governi, con la scusa della sicurezza di Internet. Spero il punto sia chiaro.

Da queste considerazioni possiamo ricavare un principio "net-costituzionale": nessuna azione per la sicurezza di Internet deve ridurne la libertà. Internet ha senso (civile ed economico) solo se perfettamente libera.

Ma allora, per tutelare il principio di apertura della rete, dobbiamo accettare un alto rischio di blocchi del suo funzionamento e di intrusioni? Per nulla. La rete si difenderà meglio se lasciata libera – senza agenzie di controllo centrali – grazie alla concorrenza ed al confronto continuo tra attaccante e difensore. Vediamo un esempio pratico di questo concetto. Già domani potremo evitare con certa facilità un attacco del tipo di quello attuato pochi giorni fa. I cibersabotatori hanno usato dei programmi (Tribe Flood Network, Trin00, "Filo spinato", ecc.) che penetrano nel vostro computer senza che voi ve ne accorgiate. Poi, ad un segnale, migliaia di computer "inconsapevoli" lanciano contro un sito, tipo Yahoo, dei messaggi che lo intasano o lo fanno impazzire. La difesa è quella di blindare i nostri computer con un software di difesa, abbastanza semplice da elaborare. Soprattutto premieremo l’azienda Internet che ci offrirà gratis il marchingegno, incentivandone così la produzione concorrenziale. I sabotatori inventeranno qualcosa altro, noi controinventeremo altre difese. I primi saranno sempre sconfitti perché un solo evento non può mettere in crisi tutta la rete. Infatti i ciberterroristi fanno i sabotaggi allo scopo di creare reazioni eccessive, queste sì – e non l’attentato di per se – destabilizzanti. Vincerebbero solo se permettessimo, presi dal panico, che la rete diventi meno libera.

" />



 ENGLISH VERSION


 VITA
  Biografia    Gallery     Interviste    Premi     CPTV

 PUBBLICAZIONI

  Libri    Saggi    Ricerche
  Articoli dal 1998

 LETTERE

  Scrivi a CP
  Leggi le lettere    Archivio

 CERCA


Carlo A. Pelanda
menu
fb Tw g+ print

Quotidiano Nazionale

2000-2-10

10/2/2000

La rete si difende meglio se la si mantiene libera

Bilancio dopo tre giorni di attacchi ciberterroristici. Decine di milioni di utenti Internet e migliaia di aziende non hanno potuto accedere, per qualche ora, a servizi on-line dotati di valore economico. Le azioni del settore hanno avuto un calo preoccupante, pur provvisorio, a causa della crisi di fiducia. Adesso è in corso la reazione al primo esempio di sabotaggio a larga scala della rete. Molti operatori industriali su Internet sono quasi nel panico perché vedono a rischio investimenti di migliaia di miliardi di lire o, comunque, temono la prospettiva di un aumento dei costi di gestione per le maggiori spese di sicurezza, tra cui i premi assicurativi. E chiedono che i governi forniscano maggiore difesa alla rete proprio per ridurre tali spese. Sembra razionale. Ma c’è un problema. Aumentare la sicurezza della rete contro intrusioni ed attentati finalizzati a bloccarla potrebbe – se si agisce senza riflettere a fondo - snaturare Internet ed il suo enorme potenziale economico. Siamo, quindi, di fronte ad una difficile decisione: dobbiamo rendere più "chiusa" e controllabile Internet per aumentarne la sicurezza (riservatezza dei dati e funzionamento senza blocchi) o dobbiamo lasciarla libera (aperta) accettando un elevato grado di rischio? Cerchiamo di capire.

Già negli anni ’80 i primi costruttori di Internet (per esempio, Jerry Salzer, David Reed, David Isenberg, ecc.) ne avevano colto l’aspetto più potente. Una rete aperta senza un centro organizzatore, perché fatta solo di connettività tra terminali a libertà di accesso totale, permette che l’innovazione si sviluppi senza blocchi e ritardi. Per capirsi, se Internet fosse più regolata, magari sottoposta ad un controllo centrale (come accade per le reti telefoniche), ci sarebbero meno novità e, di conseguenza, minori potenziali economici. Ed infatti le analisi mostrano che l’enorme sviluppo dell’economia digitale, finora, si è basato sul fatto che la rete è rimasta libera, aperta a tutti e a tutto. I governi vedono sempre con maggiore fastidio tale libertà perché complica il loro compito di polizia, in particolare da quando – nel 1995 - l’economia ha cominciato a trasferirsi sempre di più dal territorio regolato da dogane ed anagrafi alla rete elettronica senza frontiere e identità fisiche (si pensi al problema del controllo fiscale). E tendono ad usare i problemi di vulnerabilità della rete come scusa per poterla monitorare e regolare al millimetro. Nel luglio del 1999 l’Amministrazione Clinton ha cercato di creare un sistema di controllo totale con la scusa della sicurezza (Federal Intrusion Detection Network). Ma i custodi della natura libertaria di Internet e i difensori delle libertà civili si sono mobilitati, avanguardia americana del popolo Internet globale, contro questa idea di burocratizzazione della rete. Ed hanno pienamente ragione. Se concedo ad un ente statale di entrare legalmente in qualsiasi archivio e transazione in rete, allora questa sarà meno libera. Se, poi, permetto che le regole di sicurezza diventino degli standard operativi di fatto è molto probabile che si riduca – qui il punto da ribadire – il numero di novità possibili. Per esempio, se definisco dei codici di sicurezza per i linguaggi ipertestuali (lo http che anteponete al www) rischio di ritardare la nascita di un nuovo linguaggio o sosftware successivo perché ci sarà una burocrazia che dovrà approvarlo. Ora, invece, chi ha una buona idea la sbatte in rete senza limiti e basta. E questa buona idea ha un valore economico enorme che le riconosco in Borsa proprio grazie alla sua applicabilità senza sbarramenti. Bisogna aggiungere che nel prossimo futuro le aziende che prenderanno la leadership del mercato Internet avranno interesse a difenderla da altri competitori emergenti sia cercando situazioni di monopolio (come ha cercato di fare Microsoft) sia soffocando la velocità delle innovazioni. E si teme un matrimonio di interesse tra questi aspiranti monopolisti ed i governi, con la scusa della sicurezza di Internet. Spero il punto sia chiaro.

Da queste considerazioni possiamo ricavare un principio "net-costituzionale": nessuna azione per la sicurezza di Internet deve ridurne la libertà. Internet ha senso (civile ed economico) solo se perfettamente libera.

Ma allora, per tutelare il principio di apertura della rete, dobbiamo accettare un alto rischio di blocchi del suo funzionamento e di intrusioni? Per nulla. La rete si difenderà meglio se lasciata libera – senza agenzie di controllo centrali – grazie alla concorrenza ed al confronto continuo tra attaccante e difensore. Vediamo un esempio pratico di questo concetto. Già domani potremo evitare con certa facilità un attacco del tipo di quello attuato pochi giorni fa. I cibersabotatori hanno usato dei programmi (Tribe Flood Network, Trin00, "Filo spinato", ecc.) che penetrano nel vostro computer senza che voi ve ne accorgiate. Poi, ad un segnale, migliaia di computer "inconsapevoli" lanciano contro un sito, tipo Yahoo, dei messaggi che lo intasano o lo fanno impazzire. La difesa è quella di blindare i nostri computer con un software di difesa, abbastanza semplice da elaborare. Soprattutto premieremo l’azienda Internet che ci offrirà gratis il marchingegno, incentivandone così la produzione concorrenziale. I sabotatori inventeranno qualcosa altro, noi controinventeremo altre difese. I primi saranno sempre sconfitti perché un solo evento non può mettere in crisi tutta la rete. Infatti i ciberterroristi fanno i sabotaggi allo scopo di creare reazioni eccessive, queste sì – e non l’attentato di per se – destabilizzanti. Vincerebbero solo se permettessimo, presi dal panico, che la rete diventi meno libera.

(c) 2000 Carlo Pelanda
FB TW G+

(c) 1999 Carlo Pelanda
Contacts: public@carlopelanda.com
website by: Filippo Brunelli