Go to content Go to navigation Go to search

Censura e futuro dell'infosfera · 2010-12-05 by mmzz

Immaginiamo il complesso spazio comunicativo umano come composto da due piani paralleli. Uno è il territorio, fisico e tangibile. L’altro è lo spazio delle comunicazioni chiamato cyberspace. Nel cyberspace non c‘è solo internet e il web, ma anche tutto lo spazio delle comunicazioni telefoniche, radio, delle intranet
L’insieme dei due spazi forma quella che Luciano Floridi ha chiamato Infosfera, uno spazio nel quale ormai si estende la nostra percezione. I due piani entrano in contatto in più punti, e il cyberspace costituisce una matrice di interscambio dati che consente ai segnali di passare da ogni punto sul territorio a qualsiasi altro punto sul territorio.
Possiamo immaginare un cuscino di quei divani la cui imbottititura è tenuta assieme da dei bottoni (i tappezzieri chiamano la tecnica capitonnè): le due superfici del cuscino, quella inferiore (cyberspace, intangibile) e superiore (lo spazio territoriale, tangibile), sono collegate dai bottoni (i nodi della rete).
Diciamo quindi che il cyberspace non “esiste” fisicamente in modo separato, ma concettualmente possiamo pensarlo (e siamo abituati a farlo) come una realtà spaziale autonoma. Diciamo che i files – ad esempio quelli di Wikileaks – “sono in Internet” anche se sappiamo che sono sempre in qualche server da qualche parte sul territorio. I dati hanno bisogno di un supporto fisico e pertanto sono territoriali: stanno da qualche parte in un dato istante. Tuttavia la replicabilità dei dati e la velocità delle transazioni producono un effetto che possiamo chiamare di de-territorializzazione: quando sono disponibili per la fruizione da qualsiasi punto del mondo connesso alla rete, sembra che stiano nella rete. Al processo di de-territorializzazione corrisponde un processo simmetrico di ri-territorializzazione: quando vengono effettivamente acceduti, i dati si ri-territorializzano, cioè vengono copiati materialmente da qualche altra parte. (Mi sdebito qui con Alexander Galloway — Protocol, MIT press 2004 per l’impiego del concetto deleuziano di territorializzazione / deterritorializzazione applicato alla Rete). I due piani paralleli sono molto diversi tra loro. Mentre tutto il territorio è suddiviso in Stati, zone geopolitiche non sovrapposte, il cyberspace è strutturato come un fitto groviglio (rizomatico) di reti di comunicazione e nodi in cui risiedono, si spostano e si duplicano enormi moli di dati a grande velocità. Le reti appartengono tutte a operatori commerciali o statali, i nodi a imprese che forniscono servizi oppure a privati. E’ importante ricordare che le imprese hanno sempre sede in qualche territorio e sono sempre nel soggette alle leggi vigenti in quel territorio, così come lo sono anche i privati cittadini. In sostanza, nessuna singola istanza di dati “risiede” realmente nel cyberspace; tuttavia una massiccia ridondanza di dati che possono spostarsi rapidamente possono concretamente apparire come stanziali nella rete e non nello spazio fisico.

Premesso ciò, in cosa consiste la censura? Come vi si può sfuggire? Se la censura, definita in senso lato, consiste nell’impedire o alterare il flusso dei dati, possiamo classificare le censure possibili in base all’origine e alla destinazione della comunicazione. I dati possono fluire da spazio territoriale a spazio territoriale (T-T), da spazio territoriale a cyberspace (T-C), da cyberspace a territorio (C-T) e da cyberspace a cyberspace (C-C).

Wilileaks rappresenta un buon esempio delle possibili censure, in quanto nei suoi confronti sono stati applicate tecniche di censura in ciascuno dei quattro casi, con risposte congruenti.

TT. Il primo caso è quello in cui la comunicazione avviene esclusivamente nel territorio. Ad esempio via voce, via stampa, libri, lettera, eccetera. La censura si applica impedendo di parlare (minaccia, detenzione), alterando la comunicazione (distruzione o mutilazione dei supporti materiali, sommersione del messaggio nel rumore, …). Attualmente il fondatore e leader di Wikileaks, Julian Assange, è libero di comunicare con la stampa, anche se non pubblicamente, essendo ricercato. Nel caso venisse arrestato, non potrebbe più accedere a questo tipo di comunicazione. Anche le minacce di morte costituiscono il caso estremo di questo tipo di censura. A tutela della propria incolumità, Assange ha predisposto – come controminaccia – il rilascio di una password che svelerebbe segreti ancora più imbarazzanti, racchiusi in files già messi in circolazione settimane fa. Il file è già distribuito nella rete con quelle proprietà di ridondanza e rapida copia di cui abbiamo parlato.

TC. Il secondo caso è quello che abbiamo chiamato de-territorializzazione. I dati escono dallo spazio territoriale e si immettono nella rete di comunicazione. Nel caso di Internet, il protocollo in gioco è quello IP, in quanto a blocchi di numerazioni contigue corrispondono spazi territorialmente contigui o comunque strettamente connessi. I dati sulla localizzazione geografica dei singoli indirizzi IP nel territorio passa attraverso le imprese che li detengono, che devono risponderne alle autorità nazionali. La censura consiste dunque nello scollegare un dato IP o nel costringere alla rimozione dei dati dal server fisicamente collocato nel territorio. Il tratto originale della risposta degli Stati nazionali sta nell’esercitare il potere o l’influenza dei governi sul territorio non tanto per censurare la fruizione dei dati, ma di inibire la loro preventiva diffusione. Nel caso di Wikileaks è impedita la presenza o ostacolata la funzionalità dei server che ospitano nei territori nazionali i dati sui cablogrammi e li diffondono nella rete, o che sostengono l’organizzazione che li diffonde. Ciò fino ad ora si è concretizzato in una catena di eventi: 1) la decisione di Amazon, che ospitava Wikileaks come un qualsiasi cliente sui suoi server, di interrompere il servizio, ufficialmente per timore di attacchi informatici, ufficiosamente per pressioni governative: 2) il servizio Paypal, usato da Wikileaks per raccogliere finanziamenti, ha annunciato di aver bloccato il conto di Wikileaks 3) in Francia, con una lettera poi resa pubblica, il ministro dell’industria ha fatto pressioni esplicite sulla della società OVH che ospita i dati wikileaks in terra Francese.
Che io sappia è la prima volta che si verifica una così massiccia anche se non coordinata risposta censoria dei governi al processo di deterritorializzazione. Di solito la rimozione di un server o dei dati segue una indagine della magistratura, se non una condanna.
A questo attacco alla de-territorializzazione wikileaks ha risposto con una replicazione massiccia dei dati in siti territorialmente così dislocati da essere sostanzialmente privi di una sede nazionale. Cioè con quel processo di deterritorializzazione spinto che abbiamo detto rende i dati virtualmente residenti nel cyberspace.
Più importante della struttura ridondante è il processo di riconfigurazione dinamica e fluida della struttura stessa, che rende quasi impensabile —allo stato attuale delle leggi e delle tecnologie— una rincorsa delle autorità a ogni singolo sito in ogni singolo paese.

CT. Il terzo caso è quello della ri-territorializzazione, con cui i dati, su richiesta di un utente sul territorio, possono essere raggiunti ovunque si trovino, sempre nel territorio. Il protocollo in gioco è il DNS (Domain Name System) che gestisce la corrispondenza tra il nome che identifica un servizio (“wikileaks.org”) e l’indirizzo di un server sul territorio. Chi vuole accedere al dato lo fa attraverso un nome a dominio che corrisponde a uno o più indirizzi IP. Occorre ricordare che anche i vertici dei nomi a dominio “appartengono” a Stati, come “.it” o “.com”. Questo significa che il servizio di risoluzione dei nomi viene svolto da autorità che operano su base nazionale, il più delle volte su delega statale.
La censura nel processo di ri-territorializzazione consiste nel dirottamento di un dato nome a dominio verso un altro indirizzo, il blocco di determinato indirizzi corrispondenti ai nomi a dominio censurati o la rimozione del nome a dominio.
anche in questo caso è uno dei processi “standard” in presenza di una sentenza della magistratura, ma anche quello più usato dai governi autoritari, che filtrano il traffico verso siti che offrono informazioni pericolose o ostili.
Gli enti governativi USA hanno bloccato l’accesso al sito Wikileaks, inclusa la http://blogs.loc.gov/loc/2010/12/why-the-library-of-congress-is-blocking-wikileaks/:“biblioteca del congresso”.
Ooccorre aggiungere che EveryDNS, il servizio (gratuito) DNS statunitense di cui Wikileaks era cliente ha interrotto il servizio per wikileaks a causa dell’elevato traffico dovuto ai tentativi di “abbattere” il sito. Wired riferisce che in questa vicenda, più che per censura, l’interruzione del servizio sia dovuta a una serie di gravi errori di Wikileaks. Qualsiasi sia la causa di questa “censura”, la risposta è stata la sostituzione di un DNS automatico e centralizzato con uno manuale e distribuito. I nuovi siti di Wikileaks spesso non hanno nemmeno un nome a dominio nuovo (come wikileaks.fr, wikileaks.ch, …), ma direttamente un indirizzo IP che viene notificato agli interessati o reso disponibile su una miriade di canali diversi (twitter, skype, wikipedia, …).
Il sistema DNS automatico ed autorevole è stato sostituito con un sistema di nomi distribuito e manuale, ma facilmente automatizzabile (e che —con un piccolo sforzo tecnologico— potrebbe essere altrettanto autorevole). La vicenda Wikileaks probabilmente segnerà l’inizio della fine del DNS come lo conosciamo oggi.

CC. Il quarto caso è quello delle transazioni “interne” al piano delle comunicazioni a distanza. Sia chiaro che si tratta di una finzione, di una astrazione, per indicare quei processi che per la massiccia replicazione dei dati in una varietà di nodi o per l’impossibilità di localizzare, cioè rintracciare l’origine o destinazione territoriale di un dato traffico, sono sostanzialmente privi di una origine o destinazione localizzabile. In questo caso gli interventi di censura si sono manifestati con degli attacchi telematici, degli eventi rubricabili sotto il nome di cyberwarfare, guerra telematica. Wikileaks è stato attaccato apparentemente non dalla nuovissima sezione cyberwar del dipartimento della difesa, ma da un tale Jester celebre per rivendicare su twitter i suoi attacchi a siti di reclutamento di terroristi integralisti islamici, con mezzi propri. La risposta di Wikileaks ancora una volta è stata la ridondanza delle risorse e probabilmente una migliore gestione della sicurezza.

La vicenda dei cablogrammi diffusi da Wikileaks rivela aspetti nuovi della interazione tra spazio territoriale e cyberspace ed evidenzia tutti i possibili processi di censura dell’infosfera. A questi sono stati opposti diversi tipi di risposte, adeguate al mezzo.

Tra le novità vi è l’ampiezza dell’attacco, su tutti i fronti possibili, e il ricorso alla sovranità nazionale per silenziare il sito. Nonostante l’anticipo (annuncio il 24/11) dato alla notizia della diffusione dei cablogrammi (avvenuto il 28/11) il governo USA ha subito la diffusione dei dati, dimostrando che la tesi della delocalizzazione di Internet, tutto sommato tiene, anche se con qualche sforzo. Senza dubbio nei prossimi mesi vedremo da una parte dei tentativi di rafforzare il controllo delle sovranità territoriali sul Cyberspace, sperabilmente con l’intervento di magistratura e parlamenti, e non solo degli esecutivi. Dall’altro lato osserveremo lo sforzo degli architetti della Rete di renderla sempre più indipendere da autorità o risorse soggette alla localizzazione nazionale e alle pressioni degli esecutivi. Da una parte codice legale: accordi internazionali verso una maggiore celerità di intervento transfrontaliero e un controllo delle risorse sul territorio (ISP, società di hosting, cittadini), dall’altra codice informatico per l’automazione della ridondanza e del policentrismo dei servizi essenziali ai processi di delocalizzazione e rilocalizzazione: in particolare nuovi sistemi di risoluzione dei nomi e di replicazione delle risorse.
In mezzo, forse, il singolare processo politico chiamato “Internet Governance”, il cui ruolo forse non riguarderà solo Internet.
L’infosfera del futuro emergerà dall’interazione di questi processi.

Update 7/1/2011

Cito, per semplicità, da un articolo di Evgeny Morozov su the new republic

Remarkably, the Cablegate saga has already spurred (or boosted) several nonprofit initiatives that aspire to provide the kind of online services that are essential to a controversial project like Wikileaks—and do so in a more decentralized and resilient fashion. A handful of projects bearing unashamedly geeky names like P2P DNS, Project IDONS, and 4LW seek to create an alternative system for managing domain names that would be less pliable to political interference. Another new project—called Unhosted—seeks to decouple applications that run in the cloud from the user data that they store or generate; the idea is that if the data is stored in a distributed and encrypted manner across a number of unrelated servers, it may reduce the power of whoever owns the app. BitCoin, another novel initiative, seeks to create a decentralized currency system that has no need for any central administration.
Ecco i link alle iniziative:

Visto che mi sono lanciato in previsioni, ne faccio un’altra. Oltre alla replicazione massiccia dei dati e la loro mobilità, occorre rendere conto della loro autenticità ed integrità. In ciò giocano un ruolo fondamentale le tecnologie di crittografazione dei dati. Prevedo che queste, attualmente impiegate a livello di rete e trasporto si sposteranno verso l’alto a livello applicazione.

Un’altra previsione (se ne fanno tante a inizio anno!) è che questa vicenda segnerà l’inizio dell’ingresso “pesante” e non solo “cosmetico” della Internet governance nei programmi politici.

Teniamo gli occhi aperti… rivoluzione in corso.