Está en la página 1de 33

Marco Ciaffone

U.S.A.
Alla fine del 2009 negli Stati Uniti si contavano, su una
popolazione di 307 milioni di abitanti, circa 230 milioni di
utenti Internet, con il numero di host vicino ai 380 milioni. Gli
USA hanno ceduto nel 2008 il primato di netizen alla Cina, ma
al netto della differenza demografica tra i due paesi, restano il
contesto che ha fatto da incubatrice alla Rete, e sono dunque un
caso di studio unico in merito a tutti gli aspetti argomento di
questo lavoro.

Le regole della Rete a stelle e strisce [1]

Oltre ad aver già visto nei due capitoli precedenti riferimenti


agli Stati Uniti che ovviamente vanno ad integrare quanto
segue, accennavo nell’Introduzione alla necessità di spostare
l’angolo visuale trattando degli USA. Non potrebbe essere
altrimenti soprattutto per la differenza di fondo degli
ordinamenti giuridici sulle due sponde dell’Atlantico: da una
parte, in Europa, i sistemi di Civil Law, basati su un ruolo
importante di dottrina giuridica ed educazione, oltre che su un
sistema di codici, i quali adottano categorie giuridiche simili a
quelle del diritto romano e la cui fonte di legittimazione prende
consistenzanella legislazione; in questi sistemi il

1
giudice dovrebbe attenersi, per quanto possibile, alla lettera
della legge ed allo spirito del legislatore, sovrano in quanto
direttamente eletto dal popolo. Dall’altra, i sistemi di Common
Law, nei quali rientra anche il Regno Unito (Scozia esclusa)
basato sulle decisioni giurisprudenziali e sui decreti governativi
più che sui codici .
In ogni caso, possiamo in prima battuta dividere l’evoluzione
delle normative statunitensi in tre fasi. La prima non attiene in
maniera specifica ad Internet, ma serve per capire l’evoluzione
futura anche di esso: siamo nel 1984 quando la
megacompagnia monopolista delle
telecomunicazioni AT&T viene smembrata dando vita a sette
nuove compagnie presto ribattezzate baby bells; ognuna di esse
restava però di fatto monopolista in mercati regionali,
espandendosi negli anni successivi e ricreando un ambiente di
proprietà concentrate che si sarebbero scontrate con le
ambizioni delle compagnie via cavo per la copertura dell’
“ultimo miglio”, prima che norme e paletti facessero
propendere tutti verso partnership e sinergie strategiche. A
questo conflitto si dà parte della colpa per la relativamente
bassa diffusione della banda larga negli Stati Uniti, avendo
creato problemi per l’interconnessione tra livello locale e
nazionale nel corso degli anni .
La seconda fase arriva quando Clinton è alla Casa Bianca già
da 4 anni: è infatti del 1996 il Telecommunication Act, serie di
allentamenti nelle restrizioni precedenti per quanto riguarda le
possibilità di allargamento delle imprese della comunicazione;
si dava così il la ad un’ondata di concentrazioni che avrebbero
portato in pochi anni alla formazione di megacompagnie
protagoniste di un mercato oligopolistico. Un dato su tutti: nel
1945 l’80% dei quotidiani americani era posseduto da piccoli
privati, non raramente da famiglie; poco più di sessant’anni

2
dopo la situazione è rovesciata, con la stessa percentuale in
mano a poche corporation del mercato multimediale. Con l’Act
del 1996 si permetteva anche la concentrazione nell’ambito di
diversi segmenti del mercato della comunicazione, il che
aumentava le potenzialità espansive e allo stesso tempo
concentrazionistiche dei grossi soggetti. Una restrizione era
però l’obbligo degli operatori di permettere la condivisione
della rete a pari condizioni per tutti gli utenti, cosi che almeno
le grandi compagnie non potessero praticamente privatizzare le
evoluzioni tecnologiche. Sempre del 1996 è il Communication
Decency Act, partorito soprattutto con l’intenzione di
combattere la pedopornografia online [2], mentre Governo e
Congresso varavano disposizioni mirate al controllo dei
contenuti di Internet, tendenza affievolitasi negli anni
successivi, complice anche l’atteggiamento dell’FCC, che nel
rispetto della libertà d’espressione garantita dal Primo
Emendamento ha sempre mantenuto un basso profilo
limitandosi a raccomandazioni in fatto di esposizione dei
minori ai vari contenuti mediatici. Nel luglio 1997 invece il
presidente Clinton fa sì che il segretario del Commercio
disponga la privatizzazione del Domain Name System, così che
la concorrenza rendesse anche più facile la sua gestione.
Conseguenza diretta fu la nascita, l’anno successivo, dell’
Internet Corporation for Assigne Name and Numbers
(ICANN). Nel 2000 il consiglio d’amministrazione di questo
ente fu eletto online con il voto di 200000 naviganti, forse non
rappresentativi ma autori di uno dei gesti più significativi in
merito alla partecipazione che può permettere la Rete.
Risale sempre al 1998 lo Sherman Antitrust Act, ai sensi del
quale nel 2001 veniva condannata la Microsoft in un
procedimento che andava avanti da un decennio nell’insieme di
azioni civili conosciute come Stati Uniti contro Microsoft.

3
Sostanzialmente, nella causa portata avanti dal Dipartimento di
Giustizia (e da 20 altri stati) si contestava al colosso di Bill
Gates di aver abusato della sua posizione dominante
nell’ambito dei sistemi operativi per acquisirne una analoga nel
mercato dei browser, abbinando Explorer a Windows,
situazione che abbiamo già visto nel capitolo sull’Unione
Europea. La risoluzione della questione arriva negli anni
successivi dopo un gioco di concessioni, limitazioni e
resistenze che hanno finito anche per spaccare il fronte anti-
Microsoft, con più di uno stato ad opporsi ad un finale che
risulta maggiormente concessivo rispetto a quanto avevamo
visto nel Vecchio Continente.
Le caratteristiche del periodo dal quale la Rete a stelle e strisce
sembra uscire solo in questi mesi possono essere riassunte con
una data : 11/9/2001. La lotta al terrorismo non poteva certo
risparmiare il cyberspazio; in poche parole, venivano approvate
in fretta misure che permettevano all’esecutivo la sorveglianza
su Internet, e non solo. Una su tutte, lo USA Patriot Act,
emanato nell’ottobre del 2001, che ampliava a dismisura i
poteri degli inquirenti in materia di nuove tecnologie. Ad
esempio, l’art.216 permette all’FBI di venire in possesso della
più ampia quantità di informazioni sulla Rete, il tutto senza
necessità di rispettare la riservatezza di tali informazioni, senza
necessità di giustificare l’operato, con il potere di verifica della
magistratura ridotto all’osso. Come si vede, a essere in gioco è
l’annoso, già incontrato e mai risolto, problema del
bilanciamento tra libertà e sicurezza, problema forse anche
irrisolvibile una volta per tutte, visto che governanti e opinione
pubblica pendono ora in un senso, ora nell’altro, anche e
soprattutto in base al momento storico che si trovano a vivere.
E l’attentato al World Trade Center spiega bene il perché una
popolazione che si erge a difesa della democrazia e della libertà

4
personale abbia sostanzialmente accettato un provvedimento
come il Patriot Act che, tra le altre disposizioni, autorizza gli
agenti federali muniti di un ordine di perquisizione ottenuto
inaudita altera parte ad introdursi in casa degli indagati e
piazzare nei loro Pc la “lanterna magica” [3]. Operazione
peraltro già obsoleta visto che l’FBI (ma anche un hacker
mediamente esperto) può inviare un virus “tracciatore”
semplicemente per e-mail. Non soddisfatto, a dicembre del
2001 l’FBI chiedeva agli ISP di installare nelle loro reti
apparecchiature in grado di leggere le e-mail delle persone
indagate a loro insaputa [4].
E siamo alla terza fase, quella che in parallelo alla lotta al
terrorismo attraversa il primo decennio del XXI secolo e che
vede una serie di norme volte a riformare quelle dell’Act del
1996. Con la loro approvazione il Congresso e l’FCC
permettevano “alle società di investire in diversi settori e
procedere all’integrazione verticale tra gestori, manifatturieri e
fornitori di contenuti, riducendo la sorveglianza pubblica sulle
pratiche di business [...] Nel 2004 l’FCC introduceva un
criterio chiamato ‘flessibilità di spettro’, che mirava ad
aumentare lo spettro disponibile, in particolare per le
comunicazioni wireless, e ad autorizzare la libera rivendita di
parti dello spettro da parte di aziende che operavano entro
frequenze regolate, creando così un mercato per le frequenze
che aumentava il campo di azione delle grandi imprese. L’FCC
metteva fine anche alla norma sullo spacchettamento, liberando
così gli operatori Bell dai loro obblighi di condivisione della
rete e permettendo anche agli operatori della televisione via
cavo di introdurre la banda larga nelle loro infrastrutture[...]
Questa nuova politica dava ai gestori e agli operatori ampia
libertà di manovra su accesso e prezzi nelle reti di loro
proprietà” [5].

5
La deregolamentazione all’americana si conclude col tentativo
di rovesciamento del principio della neutralità della Rete.
Momento chiave è il Cable Modem Order emanato dall’FCC
nel 2002: la banda larga usciva dal novero dei servizi di
telecomunicazione e diventava semplicemente un “information
service”, come tale escluso dal campo della regolamentazione
della Commission. Dopo la conferma della norma da parte
della Corte Suprema tre anni dopo, si crea uno schieramento
contrapposto: “da una parte, utenti Internet, società innovative
e fornitori di contenuti hi-tech per Internet, come Google,
Yahoo!, Amazon e e-Bay, che rivendicano il libero accesso alle
reti. Dall’altra, gli operatori delle reti, che vorrebbero
differenziare l’accesso e i prezzi per agevolare il
loro controllo privato sull’infrastruttura della comunicazione”
[6].
Si è passati così dal tentativo dei privati di appropriarsi di
Internet a quello di appropriarsi della rete che lo supporta:
“Così, mentre l’attenzione del mondo era puntata sulla libertà
di espressione su Internet, la trasformazione dell’infrastruttura
della comunicazione in una serie di ‘aiuole recintate’ gestite da
operatori di rete attenti solo agli interessi specifici del loro
business, imponeva restrizioni fondamentali all’espansione
della nuova cultura digitale” [7]. Dunque, sembra che negli
anni i governi e le istituzioni USA troppo abbiano concesso alle
imprese delle ICT. Basti pensare che l’Act del 1996, promosso
da un’amministrazione democratica, raccoglieva il plauso
repubblicano e che con l’elezione di Bush alla Casa Bianca si
insediava a capo dell’FCC Micheal Powell, figlio di Colin,
fondamentalista del libero mercato, dal 2004 in forza alla
Providence Equity Partners, società di
investimenti strettamente legata alle aziende che Powell
aveva il compito di regolamentare. La differenza rispetto ai

6
tentativi precedenti però non era solo nelle ambizioni delle
compagnie, ma anche nella consapevolezza che dalla parte
opposta gli utenti avevano dei loro diritti, e soprattutto su
quanto fosse importante che la Rete non finisse di fatto in
mano ad un ristretto numero di privati. Un eterogeneo e largo
fronte si sollevava contro le norme e agiva a tutto campo, dalla
Rete ai tribunali, dal Congresso fino alle dimissioni di Powell
dall’FCC.
Nell’aprile 2010 il quadro diventa ancor più chiaro, se pur
preoccupante: la corte federale del distretto di Columbia, con
una decisione unanime dei tre giudici, emetteva una sentenza
secondo la quale l’FCC avrebbe abusato dei propri poteri
quando nel 2008 ha multato Comcast Corporation per aver
deliberatamente rallentato il traffico Internet di alcuni
consumatori che utilizzavano un programma di condivisione
per scaricare file molto pesanti, sancendo di fatto che le attuali
leggi americane non tutelano la neutralità della Rete in
territorio statunitense. Impressione rafforzata dalla serie di
class action intentate dagli utenti nei confronti di provider
come RCN, con sede in Virginia, colpevole di aver filtrato i
contenuti del P2P senza avvertire gli utenti stessi; a RCN si
vietava il filtraggio del file sharing per 18 mesi (il termine
scadrà il 1 novembre prossimo), dopo i quali avrà la sola
incombenza di dare comunicazione agli utenti sui diritti di
gestione della banda che il provider riserva a se stesso. Altro
dato rilevante è la tendenza a prendere accordi extra-giudiziali,
un “mettersi d’accordo” che alla fine conviene a tutti ma lascia
irrisolto il problema della net neutrality. Infatti, a metà del 2010
Comcast veniva condannato al pagamento dell’irrisoria somma
di 16 dollari (spalmabili su due anni) per ogni utente
potenzialmente vittima dei rallentamenti del file sharing, che
ha cioè sottoscritto un contratto col provider tra il primo di

7
aprile 2006 e il 31 dicembre 2008. Per intenderci, i 16 milioni
di dollari che il provider dovrà sborsare rappresentano lo
0,07% dei ricavi incassati nei 30 mesi di riferimento.
Tutto ciò potrebbe spingere l’FCC a riconsiderare il cambio di
categoria in merito alla banda larga operato con il Cable
Modem Order, oltre a incentivarla a premere sul Congresso
perché partorisca leggi volte a tutelare la net neutrality.
Tanto più che l’attuale amministrazione e maggioranza
parlamentare sono sponde potenzialmente favorevoli. Non
poteva che essere un personaggio come Obama a difendere
dalla Casa Bianca la neutralità dell’Internet americano, come
ha affermato già in campagna elettorale e come ha confermato
nei fatti nominando come presidente della FCC Julius
Genachowski, favorevole all’impostazione progressista di una
Rete libera e aperta e propenso a far rientrare la banda larga
nella regolamentazione dei tradizionali servizi di
telecomunicazione. Più che ribaltare il Cable Modem Order,
Ganachowski intende spingere la Rete sotto le regole che
hanno finora gestito i network telefonici; si tratterebbe di
riconoscere la componente di trasmissione dei servizi d'accesso
al broadbandcome un più tradizionale servizio di
telecomunicazione. Questo darebbe alla commissione un potere
più esteso di quello attuale, innanzitutto sulle dinamiche di
prezzo, quindi sulle attività dei vari provider. Il tutto senza però
interferire oltremisura, lasciando libertà in merito a servizi,
applicazioni e contenuti di Internet. Le buone intenzioni di
Genachowski, che non perde occasione per ribadirle con
decisione in ogni sede, si sono già scontrate, e c’è da
scommettere che succederà ancora, con le opposizioni non solo
dei repubblicani, ma anche di operatori del web quali Google,
Amazon ed eBay, che pur applaudendo l’impegno dell’FCC per
la tutela della net neutrality hanno denunciato un approccio

8
(paradossalmente) old style alla regolamentazione [8]. E così
da un articolo apparso sul Wall Street Journal [9] si apprende
come il capo dell’FCC avrebbe avuto incontri segreti con i
massimi vertici di Google e Skype per parlare di come si possa
raggiungere un compromesso in merito con le aziende della
Rete che hanno manifestato il loro malcontento. Dall’altra
parte, si intravede all’orizzonte anche un accordo tra BigG e
l’ISP Verizon che ha suscitato non poche preoccupazioni tra
operatori e utenti e sembra essere il primo vero passo verso la
fine della net neutrality; si sono inoltre messe in moto tutte le
lobby nella classica dinamica di Washington, con il
conseguente fiorire di studi che denunciano i gravi danni che
una difesa strenua della neutralità della Rete apporterebbe
all’economia digitale; studi spesso riconducibili a personaggi
vicini agli ISP. C’è anche chi vede nella fine della net neutrality
una tappa necessaria soprattutto nel mondo del mobile, dove la
sempre maggiore pesantezza del traffico veicolato sembra
rendere indispensabile una gestione dello stesso da parte dei
provider. Senza contare attori come il senatore
repubblicano Cliff Stearns, membro
della House Subcommittee on Communications,
Technology and the Internet degli Stati Uniti, che è
intenzionato a presentare un progetto di legge (chiamato
Internet Protection, Investment and Innovation Act) il quale
mira esplicitamente a frenare ogni istinto di regolamentazione a
favore della net neutrality. La volontà di opporsi a
Genachowski non solo traspare, ma è esplicitamente affermata
da Stearns. Di sicuro la guerra sulla neutralità della Rete è
aperta, e destinata ad accompagnare l’evoluzione di Internet
durante tutto il prossimo decennio. Personalmente intravedo
una questione che forse nei prossimi anni potrebbe diventare
centrale, e non solo in America: i provider sono ad oggi, nelle

9
aree che abbiamo incontrato (e anche negli USA, come
vedremo tra poco), considerati da leggi e giurisprudenza non
perseguibili per i contenuti illeciti che utenti terzi fanno
transitare sulle loro infrastrutture, a patto che si mobilitino in
tempo alla richiesta della autorità per far sì che il reato non
venga reiterato; ma nel momento in cui i provider dovessero
avere la meglio nella disputa sulla neutralità della Rete, sarebbe
ancora possibile per loro dichiararsi privi di responsabilità
preventive nei confronti di contenuti che, a quel punto,
passerebbero al loro vaglio diretto? Insomma, la fine della net
neutrality si risolverà in onori e oneri per gli ISP o essi ne
ricaveranno solo benefici economici? In Europa la questione
risulterebbe subito evidente proprio per la formulazione della
direttiva 2000/31/CE nei punti dove afferma che l’ISP non può
essere responsabilizzato a vigilare preventivamente a meno che
non selezioni le informazioni che transitano sulle sue reti.
Staremo a vedere; di sicuro c’è che la fine della neutralità della
Rete renderebbe molto più difficile l’emergere di outsider con
idee geniali e creerebbe un mondo virtuale più sicuro ma anche
meno libero. In questo le posizioni di Google sono paradossali:
dopo essersi battuto per la difesa della net neutrality (molti
utenti hanno fatto girare in questi mesi gli spot con i quali da
Mountain View si spingeva a favore della neutralità) sembra
piegarsi alle nuove tendenze dettate dall’economia di Internet,
rinnegando proprio quel modello di Rete che gli ha permesso di
diventare ciò che è.
Focalizzando invece sullo sviluppo della banda larga, da
segnalare la messa a punto del National Broadband Plan
approdato al Congresso nel marzo 2010, che dovrebbe portare,
nelle intenzioni dei promotori, connessioni a 100 Megabit in
almeno 100 milioni di case degli States entro il 2020 . Il primo
passo in merito è stato fatto quando, nel luglio 2010, l’FCC ha

10
alzato il limite minimo di quella che può essere definita una
connessione a "banda larga" dai 200kilobit previsti nel 1999 ad
un minimo di 4 Megabit in
downstream e 1 Megabit in upstream. Atro progetto
dell’FCC è portare via lo spettro ai broadcaster televisivi per
poi rivenderlo agli operatori delle reti mobili. Un passo
importante in questo senso è stata il via libera arrivato alla fine
di giugno 2010 dall'ufficio del Presidente per la messa all'asta
di altri 500 MHz dello spettro elettromagnetico. Buona parte di
questa parte di spettro verrebbe ricavato dagli asset controllati
dalle autorità federali come il Dipartimento della Difesa,
mentre la restante parte si reperirebbe dalle stazioni radio-
televisive. Gli stessi broadcaster otterrebbero parte dei profitti,
mentre il resto verrebbe speso in vista della costruzione di una
grande rete in fibra ottica sull'intero territorio
nazionale. L ’ iniziativa ha ricevuto l’aperto plauso
della stessa National Association of Broadcaster (NAB), e a
settembre 2010 un’unanime decisione dell’FCC la faceva
passare alla sua fase operativa. E chissà che non si sviluppi una
proficua dialettica con il Broadband Internet Techincal
Advisory Group (BITAG), progetto che,
nato alla metà del 2010, vede lavorare un insieme variegato di
aziende e provider, tra cui Verizon, Comcast e AT&T, ma anche
Google, Intel, Cisco e Time Warner Cable; dunque un gruppo
formato da fornitori di connettività, protagonisti dell'IT e vari
ISP statunitensi con l’ obiettivo primario di allestire uno spazio
di discussione che permetta a tecnici ed esperti del settore di
attirare consensi su quelle che dovrebbero risultare le migliori
pratiche di gestione del network del broadband nazionale. Di
sicuro nell’ NBP non ci sarà un progetto di rete WI-FI
interamente gratuita: l’FCC ha infatti bocciato la proposta del
provider M2Z che immaginava connessioni a costo zero per

11
tutti i cittadini americani.
Dal canto suo, a luglio 2010 Obama annunciava lo
stanziamento di 795 milioni di dollari di denaro pubblico per
progetti di diffusione della banda nelle zone rurali e meno
sviluppate degli States, il tutto nel quadro della politica di
stimolo all’economia in crisi.
L’utenza alla quale ci si rivolge sembra però essere non proprio
informata: l’80% degli internauti americani dichiara di non
conoscere l’effettiva velocità della propria connessione
domestica [10] .
Ma è il momento di parlare della tutela del diritto d’autore nel
cyberspazio degli States. E’ questo il contesto dove le pressioni
che le grandi compagnie esercitano sul governo sono
maggiormente una minaccia per gli internauti; l’esecutivo
viene spinto a varare leggi come il Digital Millennium
Copyright Act (DMCA) del 1998, le cui restrizioni mettono di
fatto all’indice anche il rimescolamento di contenuti digitali (il
mash up), cioè la pratica che sta facendo realmente la fortuna
di Internet inteso come Web 2.0, mondo della condivisione e
dell’User Generated Content. La Rete ha resistito con le sue
logiche a questi tentativi; lo ha fatto anche quando le
compagnie si sono dotate dei DRM, incapaci di arrestare
l’universo del P2P e la valanga Youtube. DRM resi legittimi
proprio dal DMCA, ma destinati a subire importanti restrizioni
negli anni successivi; infatti nel luglio 2010 arrivava, dalla
Corte di Appello dei Quinto Circuito con sede a New Orleans,
una sentenza che stabilisce come in terra statunitense la
circonvenzione dei DRM non equivale sempre ad una
violazione di copyright. Si legge nella sentenza: “la mera
circonvenzione di una protezione tecnologica che restringe un
utente dalla visione o dall'utilizzo di un'opera è insufficiente
per far scattare i provvedimenti anti-circonvenzione del

12
DMCA. La misura tecnologica imposta dal proprietario -
continua la sentenza - deve proteggere il materiale sotto
copyright contro un'infrazione del diritto protetto dal Copyright
Act, non dai semplici utilizzo o visione". Dunque, un uso
personale legittimo esiste al di là del diritto d’autore e dei
dispositivi che servirebbero a tutelarlo. Punti ribaditi poche
settimane dopo dal Copyright Office and Librarian of
Congress, nel corso di un processo di revisione del DMCA che
si svolge regolarmente ogni tre anni.
Aspetto assolutamente positivo del Digital Millennium
Copyright Act è invece la section 512, di fatto il primo faro
nella nebbia assoluta in merito alla responsabilità degli
operatori della Rete, facendo da precedente di lusso alle
tendenze regolatrici arrivate da questa parte dell’oceano.
Grazie ad essa Google veniva assolto nel processo contro
Viacom (vedi secondo capitolo). Nello specifico, è con il
principio del safe harbor che il giudice federale di Manhattan
ha stabilito che il content provider non è responsabile dei
contenuti generati dagli utenti se assicura larimozione
immediatadi materiale segnalato come illecito. Certo, non
manca neanche qui chi vorrebbe una responsabilizzazione più
incisiva di content e service provider, ma per il momento è
saldo il quadro attuale. Le sopra menzionate norme sono citate
ancora in un processo molto simile che vede imputato il
colosso di Montain View, accusato dalla piccola etichetta
indipendente Blues Destiny di violare il copyright fornendo
link ai siti di file sharing. La sentenza di questo procedimento,
sospeso, poi ripreso e ora in attesa di decisioni definitive,
potrebbe riaprire, se venisse considerata lecita la pratica dell’
“intermediario buono”, anche il caso di The Pirate Bay. Il
dibattito sulla posizione dei siti di indicizzazione è quanto mai
aperto negli USA. Esempio in merito è il caso di IsoHunt,

13
motore di ricerca per peer to peer nei confronti del quale un
giudice ha concesso un’ingiunzione permanente che lo obbliga
alla rimozione di tutti i contenuti che violano il diritto d’autore.
A nulla sono serviti i restyiling del sito e gli argomenti degli
avvocati difensori che cercavano di paragonare il servizio a
quello fornito da Google. Per il giudice IsoHunt contribuisce a
violare il copyright, dunque è obbligato a sottostare a tutta una
serie di richieste da parte dell'industria senza se e senza ma e
anche in fretta, pena la fine dell’attività, nonostante la
resistenza del suo fondatore e CEO Gary Fung. In sostanza, il
sito fornisce link a materiale coperto da copyright, casistica
vista più volte in precedenza, favorendo così il reato; la MPPA
ha presentato al server una lista di parole-chiave per
individuare i file da rimuovere. Il che ha suscitato le proteste
del ventisettenne fondatore del sito Gary Fung, che ritiene la
lista una violazione del Primo Emendamento della Costituzione
americana, perché le parole indicate dall’associazione
potrebbero riferirsi anche a contenuti legali e non coperti da
diritti. Fung, in un’intervista a Wired, ha dichiarato a proposito:
“La MPAA non possiede il copyright sui nomi delle cose” [11].
Così i legali di IsoHunt hanno annunciato un ricorso con
l’obiettivo di far sospendere l’ingiunzione finché la MPPA non
avrà compilato una lista più appropriata, contenente magari il
link e le URL specifiche anziché generiche parole chiave che
potrebbero, tra l’altro, portare al collasso del sito. E nel
frattempo Fung si schiera con il procuratore generale dello
stato di New York in materia di lotta alla pedopornografia
online: "Gli utenti di IsoHunt ci hanno spesso avvertito in
passato di contenuti illeciti legati alla pedopornografia. Siamo
lieti di ampliare questi sforzi, in collaborazione con il
procuratore Cuomo e con questo database, che ci aiuterà a
fermare la diffusione di file illeciti su canali BitTorrent" [12].

14
In questo ha ricevuto l’aperto apprezzamento di Cuomo stesso,
che da tempo ha iniziato a raccogliere adesioni al suo progetto
di rimozione di massa dei link contenenti immagini di abusi su
minori mediante l’implementazione di alcune tecnologie che
sono state accettate di buon grado, tra gli altri, anche da
Facebook e MySpace.
Continuando a parlare di copyright, nel giugno 2010 arriva
dalla Casa Bianca un documento messo a punto da Victoria
Espinel, la “cyber zarina” voluta da Obama; nel testo si
leggono parole di forte condanna nei confronti della pirateria e
delle violazioni del diritto d’autore, pur facendo trasparire una
sorta di intenzione di dare più poteri ai provider per la lotta
contro questo tipo di violazioni più che un impegno delle
autorità federali. Si parla comunque di collaborazione tra tutti
gli attori del sistema, ma c’è chi fa notare come non vengano
risolti alcuni quesiti come il punto di vista
dell’Amministrazione nei confronti di linee di pensiero come
quella della “dottrina Sarkozy”. L’impressione che si ricava è la
forte volontà dell’amministrazione Obama di far sì che la Rete
futura si sviluppi libera dalla piaga della pirateria, verso la
quale è pronta ad usare il pugno di ferro; proprio in questi mesi
è in corso l’operazione Operation in our Sites, che, voluta dal
vicepresidente Joe Biden e dalla Espinel, contempla un gran
numero di disconnessioni di siti che permettono la condivisione
illegale di material protetto da diritto d’autore, comprendendo
anche, ad esempio, il blocco di conti correnti e carte di credito
ad essi collegati. Allo stesso tempo, il ministro del Commercio
Gary Locke, nel corso di un simposio organizzato a Nashville,
la “città della musica”, esprimeva la volontà di equiparare la
pirateria al furto, riprendendo precedenti dichiarazioni dello
stesso vicepresidente Biden. Ancora, ha recentemente preso
vita, grazie al lavoro di un gruppo di deputati bipartisan, il

15
disegno di legge Combating Online Infringement and
Counterfeits Act (COICA), che ha il chiaro intento di affidare
al Dipartimento di Giustizia il compito di perseguire a livello
civile tutti quei siti che si macchino di violazione del copyright,
mettendo fuori uso il dominio. Meccanismo che sarebbe esteso,
tramite ordini di oscuramento impartiti ai provider a stelle e
strisce, anche ai siti operanti all’estero. Si sono formati in
merito i soliti schieramenti pro e contro, staremo a vedere cosa
succederà fino alla firma di promulgazione da parte di Barack
Obama.
Nel maggio 2010 fa invece la sua comparsa nei tribunali a
stelle strisce una preoccupante dicitura: “induzione alla
violazione di copyright”. Succede nel processo che vede
contrapposti a New Yorik la RIIA (Record Industry Association
of America) e la Lime Wire, produttrice di un software che gli
utenti utilizzano per la condivisione di file in P2P. La sentenza,
che ricalca quella del 2005 contro l’omologa Grokster, sembra
sancire la responsabilità di chi mette a punto un software per
l’uso illegale che ne fanno gli utenti, il che spaventa non poco
le aziende che quei software li producono, che a detta del
giudice Wood hanno la responsabilità di arginare l’uso illegale
dei programmi prodotti soprattutto perché da questo uso
traggono vantaggio sul mercato. Il precedente che si crea non è
affatto trascurabile, tanto che, rimanendo anche solo nello
specifico della Lime Wire, tutte le maggiori case discografiche
si sono scagliate contro il servizio che dovrebbe risarcirle con
somme fino ad un miliardo di dollari. E così Lime Wire ha
annunciato un piano di rifacimento della piattaforma che
diventerebbe uno spazio per l’acquisto di materiale
multimediale nella legalità, con collegamento ad iTunes e con
meccanismi di registrazione e riconoscimento, ricevendo il
plauso delle majors.

16
Infine, dal 1 luglio 2010 sono diventate operative le misure
previste dallo Higher Education Opportunity Act (HEOA) del
2008. Il suo obiettivo principale riguarda l’educazione, ma in
esso si fa menzione anche alla lotta contro la pirateria online.
Si dispone così che i campus e i college all’interno del
territorio statunitense hanno l’obbligo di assumere determinate
misure nei confronti degli studenti sospetti in materia di file
sharing (cosa che vale ovviamente per gli studenti tutti); in
particolare, si parla di educazione al rispetto del diritto d’autore
e di soluzione tecnologiche, oltre alla predisposizione di
un’offerta alternativa al download illegali per contenuti
multimediali. Dunque ad essere responsabilizzate in questo
caso sono le università, che dovranno assumersi l’onere di
distaccare la connessione a chi si macchierà del reato in
maniera reiterata, con buona pace di chi pensa che ormai una
buona connessione sia imprescindibile per sviluppo e
formazione.
Parlando di rispetto della privacy, mentre scriviamo è nel pieno
delle discussioni congressuali un progetto di legge tutto volto
alla tutela della privacy degli utenti. Nei primi mesi del 2009 i
senatori Rick Boucher e (ancora) Cliff Stearns presentano
questa iniziativa che si pone l’obiettivo di rendere controllabile
per l’utente la serie di dati e informazioni che su di lui vengono
incamerate dai vari organismi del web, nonché l’uso che essi ne
fanno. Nella proposta di legge si distingue tra covered e
sensitive information; le prime sono un insieme di dati di
natura generica come nome, cognome, indirizzo, ma anche
indirizzo IP e numero di carta d’identità, dati che l’utente
rilascia consapevolmente quando è indispensabile per la
fruizione di un servizio e che si vuole rendere controllabili
dall’utente in modo che esso possa bloccarne un ulteriore e
diverso utilizzo da parte di chi le ha raccolte tramite un

17
seguente meccanismo di opt-out. Le sensitive information sono
invece più delicate, comprendendo ad esempio record relativi
alla salute, informazioni sul gruppo etnico, credenze religiose,
orientamento sessuale, dati relativi alle transazioni. E infine
tutte quelle informazioni di geolocalizzazione inviate
dagli utenti attraverso appositi servizi e dispositivi. In
questo caso, sarebbe necessario il previo ed esplicito consenso
da parte degli utenti, attraverso un meccanismo di tipo opt-in,
da implementare obbligatoriamente alla presenza di tali dati
sensibili. Su dati invece anonimi o aggregati, obblighi di questo
tipo verrebbero meno, lasciando alle società operanti sul web la
facoltà di raccoglierli senza alcun problema. Ovvio che la
proposta suscita reazioni discordanti: se riceve l’aperto plauso
di associazioni per la difesa della privacy e dei consumatori,
produce preoccupazione tra le imprese di pubblicità, che nella
serie di dati lasciati dagli utenti internet durante la navigazione
hanno trovato una vera miniera e che arrivano a sostenere che
una tale legge potrebbe limitare la capacità di scelta del
consumatore, traducendosi in un abbassamento della qualità di
prodotti e servizi nonché in un aumento di costi. In ogni caso,
c’è chi, come il capo dell’Ufficio per la protezione del
consumatore della Federal Trade Commission (FTC) David
Vladek definisce “orwelliano” il controllo che certi siti hanno
sui dati di navigazione dei loro utenti. La stessa FTC prova a
farsi difensore non solo della privacy dei consumatori, ma
anche del loro diritto a non essere sottoposti a messaggi
fuorvianti, con regole come quelle che aveva provato a darsi da
sola la blogosfera nel 2006 (le “regole Womma”), quando dopo
uno scandalo che coinvolgeva una catena di supermercati ci si
rese conto che un blogger non può parlare di un prodotto senza
specificare se ha o no legami con l’azienda che lo produce. Ma
siccome le regole che non sono coercitive e non prevedono

18
sanzioni sono spesso aggirate, dal primo dicembre 2009 esse
sono rese obbligatorie dall’FTC. Lo stesso organo adotta più
recentemente una medesima serie di direttive nei confronti di
società di marketing come la Reverbe Communications, rea di
aver commissionato recensioni benevole, leggi anche
pubblicità mascherata, nei riguardi di videogiochi presenti sulla
piattaforma iTunes.
In ogni caso la tutela della privacy non può, evidentemente,
trasformarsi in totale anonimato, almeno per quanto riguarda
determinati usi di Internet: ad inizio maggio 2010 una corte
d’appello USA si è trovata a decidere in merito al rifiuto di un
internauta, conosciuto con il nickname Doe 3, di rivelare la sua
identità dopo che l’industria discografica Arista l’aveva citato
in giudizio insieme ad altri 16 internauti colpevoli della
abusiva condivisione di file. La richiesta di Doe 3, che si
appellava al Primo Emendamento, è stata respinta in primo e
secondo grado con queste motivazioni: "se l'anonimato è usato
per mascherare l'infrazione del copyright o per facilitare tale
infrazione da parte di terzi, esso non è protetto dal Primo
Emendamento". Gli ambienti vicini al P2P accolgono irritati la
decisione, sostenendo che così la Corte legittimerebbe
investigazioni private da parte delle majors e alla possibile
battaglia da condurre contro un utente a partire da un semplice
segmento di un file raccolto in Rete. Sia come sia, una
differenza tra la nuova sentenza e quella vecchia, piccola eppur
significativa, c'è: in precedenza il giudice aveva stabilito che la
semplice condivisione di una cartella piena di file multimediali
"cancella qualsiasi pretesa di privacy", mentre la corte di
appello ha sentenziato che "la privacy a cui qui ci si richiama
non riguarda le informazioni che il proprietario del computer o
l'utente desidera condividere ma piuttosto la sua stessa
privacy". A venire condivisa online non è insomma l'identità

19
del condivisore ma solo la sua libreria di contenuti
multimediali. Da aggiungere che le autorità statunitensi sono
state tra le più dure nei confronti di Google in merito al traffico
Wi-Fi intercettato da BigG in Germania, lasciando trasparire
una sempre maggiore sensibilizzazione degli USA in tema di
tutela dei dati personali e della riservatezza.
Ma è l’intero panorama dei dibattiti sul futuro di Internet a
ritagliarsi un posto sempre più centrale nel panorama
statunitense, situazione che è ben dimostrata dal moltiplicarsi
dei progetti di legge in materia presentati dai membri del
Congresso, soprattutto di sponda democratica. Una nota
importante è l’apertura che questi propositi trovano in alcune
aree dei repubblicani, così da rendere maggiormente bipartisan
temi come la difesa della net neutrality che rischiano di
rimanere cavalli di battaglia delle sole sinistre radicali, il che li
azzopperebbe in partenza. E soprattutto, sembra diffondersi
l’idea che il non-interventismo dello stato, tanto caro agli
americani, in materia di Internet a lungo termine può rivelarsi
dannoso, e che la legge deve integrare il risultato del mercato e
di ciò che esce dai laboratori delle università. La pensa così
Lawrence E. Strickling, viceministro del Commercio per le
comunicazioni e l'informazione che sembra dare questo
indirizzo maggiormente interventista anche all’ NTIA
(l'agenzia ministeriale che consiglia il presidente USA in
materia di Rete e telecomunicazioni). Strickling parla di fine
dell’unilateralismo USA in materia di Internet, e di una Rete
globale che va di riflesso globalmente regolamentata e gestita;
magari con operazioni multilaterali come quella che ad inizio
2010 ha fatto si che la corte di Shangai condannasse una grossa
azienda locale al pagamento dei danni nei confronti di
Microsoft per l’utilizzo di copie illegali di software con la targa
del colosso americano, ponendo una pietra miliare della lotta

20
alla pirateria internazionale visto che a collaborare sono stati i
massimi organismi investigativi di USA e Cina e che l’impegno
concreto del governo cinese in questo senso era, ed è tutt’ora,
alla prova. E così nel settembre 2010 arrivava anche una
accordo tra Ku6 Media, ovvero la società che gestisce in terra
asiatica una delle più grandi piattaforme per l'hosting di video,
e un paio di majors di Hollywood così che il portale cinese
possa ospitare film e contenuti made in USA e permetterne la
condivisione in maniera legale e far monetizzare i produttori.
Pur riconoscendo che fino ad ora la libertà di svilupparsi “da
sola” data alla Rete è stata propedeutica al suo sviluppo e alla
sua trasformazione da rete commerciale a rete sociale,
l’autorità deve passare ad una sorta di “Internet Policy 3.0”,
cercando di tenere il passo dei nuovi usi e delle relative
sentenze che spesso ridisegnano alcuni schemi.
Facendo un nuovo zoom, vediamo che in territorio statunitense
vengono bloccati contenuti considerati offensivi e indecenti
nelle postazioni online di scuole, biblioteche e simili, tramite
software ad hoc o impostazioni dei server proxy, in linea con le
disposizioni del Children's Internet Protection Act (CIPA) del
2000. Più in generale, sono estese alla Rete anche sul suolo
statunitense le norme che esistono per l’offline; esistono
comunque alcuni atti legislativi ad hoc in materia, vedi
l’Online Copyright Limitations of Liability Act, parte del
DMCA del 1998, sempre in materia di responsabilità degli
intermediari, e la sezione 230 del Communication Decency
Act, riferita alla diffamazione a mezzo Internet.
In proposito sembra essersi creata una zona d’ombra dall’altra
parte dell’Oceano Atlantico, con spaccature tra i vari stati a
stelle e strisce. Una corte texana ha stabilito che basta inserire
in una mail un link che rimanda ad un articolo diffamatorio per
essere accusati di diffamazione, in contrasto con una sentenza

21
che in California ha visto una blogger assolta dal reato per aver
inserito un link in un post del suo blog che rimandava ad una
articolo diffamatorio non scritto da lei.
La fase attuale vede uno sviluppo che sa di salto di qualità ma
che si porta dietro reazioni preoccupanti: sta in questi mesi
facendo il suo iter la proposta del senatore Joe Lieberman e
della collega Susan Collins che mira ad istituire un Ufficio per
la Politica sulla Cybersicurezza, il cui direttore, di concerto col
presidente, avrebbe la facoltà di dichiarare uno “stato di
emergenza telematica” che rimetterebbe all’inquilino della
Casa Bianca la capacità di imporre direttive straordinarie a
provider e attori della Rete in funzione della cyber sicurezza e
protezione di infrastrutture vitali [13], fino al distacco totale
della Rete. La proposta, il cui nome ufficiale è “Protecting
Cyberspace as a National Asset Act” è stata ribattezzata
“Internet kill switch”, l’ ammazza Internet. Lo stato di
emergenza sarebbe di 30 giorni ma prolungabile fino a 120,
oltre i quali servirebbe un’autorizzazione del Congresso per
continuare. Si prevede una lunga battaglia, viste le proteste che
il disegno di legge sta incontrando in larghi settori
dell’industria multimediale americana; una su tutte la
TechAmerica, che si dice “preoccupata per le conseguenze non
previste che scaturirebbero dall'approccio della legge" [14]. E
non rassicurano di certo affermazioni come quella che il
senatore Liberman ha usato per difendere la sua proposta: “La
Cina può disconnettere parti di Internet in tempo di guerra.
Abbiamo bisogno di poter fare lo stesso” [15]. Ma c’è anche
chi, come Alan Paller, direttore dell’istituto tecnologico SANS
Insitute, fa notare come questo tipo di poteri per il presidente
sono già contemplati dal Communications Act del 1934
(ovviamente, lì non si parla dello specifico di Internet ma si
dispongono principi che ad esso possono essere estesi).

22
Sempre in questi mesi evolve la vicenda del ventiduenne
Bradley Manning, soldato impegnato in Afghanistan e arrestato
nel maggio scorso con l’accusa di aver caricato sul sito
Wikileaks documenti coperti da segreto militare. Nei mesi
successivi apparivano sulla piattaforma circa 76mila documenti
(con fonte rigorosamente anonima) in forma di veri e propri
diari che raccontano, come di certo non fanno emittenti come
la Fox, la guerra in Afghanistan, suscitando aspre reazione nei
vertici militari e nelle autorità USA. E se passasse la proposta
di Lieberman e Collins, chi ci garantisce che casi come questi
non vengano considerati “di emergenza nazionale”, con tutte le
conseguenze che questo comporterebbe? In fondo, le autorità
statunitensi cercano da mesi di far tacere Wikileaks (il primo
tentativo risale addirittura al 2008, mentre negli ultimi mesi
sono comparse accuse come quella di stupro nei confronti del
fondatore del sito Julian Assange che hanno fatto gridare al
complotto contro di lui); quello che emerge è comunque il
timore di una “cyber guerra” che potrebbe coinvolgere gli USA
e causare molti più danni soprattutto alla sua economia di
quanti ne potrebbe fare una guerra convenzionale contro
l’esercito più forte e organizzato al mondo. Timori confermati
anche dal direttore della CIA Leon Panetta e avvalorati da casi
internazionali come la vicenda di Stuxnet: definito dalla
Symantec come il “peggiore virus della storia”, esso è
progettato per infettare computer non connessi ad Internet, col
contagio che avviene tramite chiavette USB. Ne hanno fatto le
spese già centinaia di computer dal 2009, ma è nelle ultime
settimane che il suo nome è diventato popolare, avendo
concentrato la sua azione in Iran facendo così pensare ad un
espediente messo in atto da forze o governi ostili (Israele?) al
governo degli Ayatollah per il sabotaggio della centrale
nucleare di Bushehr, che sarebbe totalmente controllabile dai

23
sabotatori se il virus entrasse nelle sue strutture informatiche.
E così la National Security Agency ha messo a punto un
sistema di cyber difesa che serva ad evitare episodi come quelli
del 2008, quando un agente dei servizi segreti di un non meglio
specificato stato straniero inserì una chiavetta USB in uno dei
terminali di proprietà dell'Esercito americano in una base
militare in Medio Oriente, infettandone la rete che
comprendeva anche le basi in Iraq e Afghanistan. Il progetto è,
nello specifico, responsabilità dello U.S. Cyber Command, con
sede a Fort Meade, nel Maryland, che riunisce i principali
esperti militari di cyber-difesa, sotto il comando del Generale a
quattro stelle Keith E. Alexander. Anche la NATO sembra
volersi muovere in questo senso, avendo iniziato la messa a
punto di un cyber scudo atlantico sul modello di difesa attuato
dal Patto Atlantico durante la Guerra Fredda, ma mirante,
stavolta, al coinvolgimento della stessa Russia; stavolta a fare
da scuola è il caso dell’Estonia, il cui sistema informatico
venne messo in ginocchio nel 2007 a seguito di un cyberattaco.
Al di la di scenari apocalittici, le autorità federali sono al
lavoro comunque per garantire anche nel quotidiano la
sicurezza dell’utente con progetti come quello dell’ “identità
certificata”: ogni internauta avrebbe il pieno controllo delle
transazioni finanziarie effettuate online mediante l’uso di
strumenti di autenticazione già conosciuti nell’ambiente
finanziario (smart card con microchip, cellulari, certificati
software, dispositivi USB). L’obiettivo è la creazione di un
“ecosistema di identità online” per una navigazione in piena
sicurezza. Sempre volta ad una maggiore sicurezza è
l’intenzione manifestata da Amministrazione e gruppi di
deputati di estendere la possibilità di intercettare le
conversazioni telefoniche anche al web, coinvolgendo così
spazi come Skype e Facebook, ormai utilizzati molto più dei

24
mezzi tradizionali da membri del crimine e terroristi; le
autorità, rispondendo alle critiche che già dalle ore successive
agli annunci imperversavano sui blog, assicurano che
verrebbero messi in atto tutti i meccanismi di garanzia previsti
per gli altri ambiti “intercettabili”,
Cito infine alcune recentissime vicende. La prima ha coinvolto
il sito di annunci pubblicitari Craiglist: fondato nel 1995 da
Craig Newmark , è stato oggetto di un’iniziativa di 40
procuratori generali di altrettanti stati USA, che lo accusavano
di incitamento alla prostituzione visti gli annunci in merito
circolanti nella sua sezione per adulti. Newmark e i suoi
collaboratori hanno optato per un oscuramento della suddetta
sezione, che per qualche settimana ha presentato un tag bianco
su sfondo nero recante la scritta “censurata”. Il tutto prima di
una totale scomparsa dello spazio di annunci per adulti, anche
se solo dalla Rete statunitense. La seconda riguarda Google,
protagonista di un episodio in controtendenza: un content
provider che denuncia esso stesso chi sfrutta i propri servizi per
perpetrare spam e truffe; è quanto BigG ha fatto nei confronti
di alcuni inserzionisti abituati a questa pratica sui suoi spazi di
adverising.
Ancora, proprio in questi giorni i legali di RIAA sono
impegnati nella ricerca di elementi che provino come l’ex-
cheerleader Whitney Harper, accusata di violazione di
copyright, fosse pienamente conscia dei rischi derivanti dal
download di brani a mezzo Kazaa, condizione posta dalla Corte
Suprema statunitense come imprescindibile per far sì che
l’imputata sia condannabile. La National Association of
Broadcaster è invece impegnata in un’azione legale contro la
Internet TV Ivi, alla quale si vuole impedire di trasmettere in
Rete la programmazione live dell’etere televisivo americano
perché ritenuta in violazione del copyright. Infine, due sentenze

25
che dimostrano come la giustizia stelle e strisce con i
cybercrimini non schera: un hacker venezuelano è stato
condannato a dieci anni di reclusione per essersi intrufolato
nelle reti di alcuni grandi operatori telefonici del paese,
reindirizzando circa 10 milioni di chiamate VoIP e generando
così profitti per circa un milione di dollari; è andata “meglio” a
due cracker statunitensi che attaccando il sito di Comcast
hanno causato ingenti perdite economiche al provider: per loro
tre anni dietro le sbarre e 90 dollari di multa.
In conclusione, gli Stati Uniti attraversano la più grande crisi
d’identità della loro storia, e vedono il loro ruolo di paese
leader del mondo offuscarsi e declinare ogni giorno. Tuttavia, il
grado di avanzamento tecnologico del paese è ancora
impareggiabile sotto parecchi punti di vista, e chissà che non
sarà proprio la Rete a guidare gli americani verso un declino
soft della loro potenza. Quello che è certo è che le politiche
iperliberiste applicate al mondo di Internet in questi ultimi
decenni stanno presentando il conto nel momento in cui arriva
a Washington un Presidente con una matrice ideologico -
culturale diversa. Non resta che stare alla finestra, contando
anche però che restano forti negli Stati Uniti le correnti della
“linea dura” nei confronti della Rete e che sia le forze
economiche che quelle di sorveglianza continuano a gettarvi
sopra la propria ombra. Forze che spesso si ritrovano
addirittura a investire sugli stessi sistemi: è il caso del software
messo a punto dalla piccola società Recorded Future, il quale
raccoglie dati su circa mezzo milioni di siti web, sui flussi di
Twitter e sui post di migliaia di blog, mettendo in correlazione
persone ed eventi e fornendo ai propri clienti preziose
informazioni su trend o avvenimenti passati e presenti; funzioni
utili sia a chi fa della pubblicità la propria fonte di vita sia a chi
ha il compito di sorvegliare, investigare, spiare.

26
“Yes, we can”
La campagna elettorale del 2008 è destinata a rimanere una
pietra miliare nell’uso e nello studio delle nuove tecnologie;
resta difficile immaginare come il quarantasettenne Barack
Hussein Obama avrebbe potuto veicolare i suoi messaggi senza
lo sfruttamento delle potenzialità di Internet. Obama aveva
un’unica strada davanti a sé, e non poteva percorrerla a velocità
e ritmo migliori. Non starò qui a disquisire su come e perché
abbia vinto le elezioni presidenziali della più grande economia
del pianeta un candidato afroamericano, giovane, outsider nel
suo stesso partito, cittadino del mondo dalla nascita ed
evocatore di cambiamento e speranza (ci hanno provato già in
tanti, alcuni con ottimi risultati, e altri lo faranno), ma cercherò
di vedere in breve come concretamente l’avvocato di Chicago
abbia sfruttato le nuove tecnologie per mettere in piedi la
“prima campagna in rete” [16], oltre che un “caso
paradigmatico di politica insorgente nell’Età di Internet” [17].
L’utilizzo dei mass media emergenti è un copione già visto nei
momenti chiave della storia americana: negli anni Trenta
divennero una consuetudine i radiofonici “incontri al
caminetto” di Franklin Delano Roosevelt, mentre grazie alla
gestione della sua immagine in Tv John Fitzgerald Kennedy
diventò una “star internazionale”. Obama da parte sua ha fatto
proprie le lezioni e imparato dagli errori di chi prima di lui
aveva tentato di utilizzare Internet per lanciare la propria corsa
verso Washington: parlo di Howard Dean, che nel 2004 aveva
accumulato, grazie alla strategia online messa a punto per lui
da Joe Trippi, un cospicuo vantaggio sull’altro candidato
democratico John Kerry, che avrebbe però poi perso nella fase
finale.
All’inizio della campagna per le primarie Obama partiva

27
svantaggiato ovunque rispetto all’avversario “interno” Hillary
Clinton; ma c’era una zona d’America dove si tifava per lui: la
Silicon Valley. Qui il cofondatore di Facebook Chris Huges e il
fondatore di Netscape Mark Andreessen mettevano a punto
quella strategia mediatica “2.0” che dalla metà del 2007 al
novembre del 2008 hanno stravolto il modo di fare politica
negli Stati Uniti influenzando anche il resto del mondo. Il
mensile degli intellettuali progressisti americano “The
Atlantic” arrivò ad affermare che “L’azienda Barack è la ‘start-
up’ di maggior successo mai concepita dalla Silicon Valley”. La
campagna “tutta dal basso” di Obama si è giovata di
un’organizzazione che ha messo a punto una strategia di
microtargeting e coordinamento che non si erano mai visti
prima per il mondo della Rete.
Innanzitutto, la stessa immagine del candidato
afroamericano ha sdoganato interi settori della società che
tradizionalmente restano esclusi dal voto, facendo impennare le
registrazioni di votanti; dunque, mobilitazione come primo
passo, il che moltiplica le nicchie di elettori che entrano in
gioco. Il discorso delle nicchie è fondamentale: lo sfruttamento
di esse quando è ottimale porta il fenomeno della “lunga coda”
[18]. Se ci mettiamo che i record di affluenza sono da attribuire
in gran parte ad elettori giovani, ovvero proprio i maggiori
utilizzatori di Internet, ecco che nicchie di giovani sommate ad
Internet (che delle nicchie è il regno) diventano un grande
vantaggio per Obama. Il vero artefice della politica della
“lunga coda” è invece il quarantenne manager della campagna
del senatore dell’Illinois David Plouffe: è lui ad intuire che
mettendo insieme tutti quei segmenti di elettori che sono
tralasciati dai grossi agglomerato target della Clinton si può
raggiungere una massa di voti superiore a quella dei grandi
agglomerati stessi.

28
Questi giovani, inoltre, non sono stati solo spinti al voto tramite
la Rete, ma propriamente arruolati come volontari di Obama,
contribuendo soprattutto al reperimento di fondi online; grazie
a quei raccoglitori di donazioni sparsi per gli Stati Uniti e sulla
Rete, che hanno raccolto progressivamente anche quelle che
sembravano briciole, un outsider è riuscito a raccogliere le cifre
record di 339 milioni di dollari per le primarie e quasi 750 in
totale senza neanche accettare il denaro dei lobbisti registrati a
livello federale. Si stima che fino “all’88% dei fondi totali
ricevuti da Obama per la campagna delle primarie è venuto
direttamente da donazioni individuali[...] arrivate da oltre un
milione e mezzo di donatori individuali”[19] che per il 47%
erano inferiori ai 200 dollari. Propagandare il messaggio “non
prendo soldi dalle lobby” alimenta questo circuito
galvanizzando i “piccoli finanziatori”. C’è poi il discorso della
diffusione del personaggio Obama, la costruzione di un
simbolo, la “vendita” del candidato. In questo senso,
appare prepotente l’affermazione del sito
My.BarackObama.com, che a giugno 2008 contava 15 milioni
di membri; ad esso era collegata l’iniziativa Vote For Change
per la registrazione al voto. Un seguito telematico che però
andava oltre i confini degli Stati Uniti, alimentando così la
diffusione virale dei simboli della campagna obamiana, non
ultimo il logo ricavato dall’immagine rosso-blù del candidato
con le scritte “Hope” e “Change”, personalizzabili da chiunque
con un’applicazione online. Altro tassello è stato Facebook: a
luglio 2008 la pagina di Obama contava 1.120.000 iscritti,
quasi sei volte tanto la somma di quelli di Hillary Clinton e
John Mc Cain. E Facebook è di per se stesso un contenitore di
applicazioni, da solo apre un intero mondo sulla Rete.
E’ chiaro che l’immagine e il carisma di Obama sono un
collante fondamentale di tutto questo; ci sono poi aziende come

29
la Blue State Dgital (BSD), nata nella città di Burlington, nel
Vermont, e anch’essa impegnata nella campagna di Dean,
fallimentare quanto utile a capire come muoversi in futuro per
implementare al meglio la comunicazione politica all’interno
dei nuovi media e che dopo aver già contribuito a ridisegnare
l’immagine del Labour Party inglese si pone sulla scena
mondiale avendo messo nelle sue credenziali la campagna di
Obama.
Due sono invece gli inconvenienti ai quali si è esposto Barack
Obama, entrambi presentatisi fin da subito dopo l’insediamento
alla Casa Bianca: il primo è l’appropriazione da parte dei sui
avversari delle sue stesse tecniche; su Youtube spesso passano
anche video volti a discreditare il presidente, i blog dei
conservatori si riempiono di post d’accuse e insinuazioni, le
testate conservatrici online cavalcano quest’onda. Il Partito
Repubblicano è poi consapevole di dover imparare a sfruttare
questi metodi se vuole recuperare terreno sull’avversario in
vista delle prossime presidenziali.
Il secondo inconveniente è il fatto che una comunità nata dal
basso per sostenere una “speranza”, una lotta, un ideale, rimane
attiva dopo il raggiungimento dell’elezione del candidato che
sostiene per valutarne l’operato, non può essere controllata a
piacimento e in più, essendo spesso le nicchie della Rete
esposte a radicalizzazione e potendo essere attratte solo da una
buona dose di populismo, il loro rivoltarsi contro può essere
uno dei peggiori boomerang, come dimostrano le difficoltà del
presidente nel mantenere salda la sua immagine in situazioni
come la riforma della sanità, la marea nera della BP nel Golfo
del Messico e gli strascichi infiniti della crisi finanziaria.
In più, ci sono da scontare per Obama parecchie delusioni. La
prima è quando, appena eletto, firmava una disposizione nella
quale chiedeva agli enti regionali di rendere disponibili online

30
la maggior quantità possibile di dati riguardanti le
amministrazioni stesse, predisponendo al contempo strumenti
online che permettessero agli amministratori di dialogare
direttamente coi cittadini. Ma quando lui stesso si confrontò
con “Open for Question”, si ritrovò a rispondere a domande
che non vertevano, come lui si auspicava, sulle priorità del
paese: al primo posto c’erano domande sulla legalizzazione
della marijuana, seguite da quesiti sul reale luogo di nascita del
Presidente e sull’esistenza degli UFO. Le volontà di creare
database condivisi tra tutte le amministrazioni del paese è stata
invece frustrata dagli impedimenti burocratici e tecnologici e
appare lontano il momento in cui prenderà vita nella maniera
auspicata dal presidente.
Obama, comunque, sembra non arrendersi, e pur essendosi reso
conto che una forma di democrazia diretta tramite la Rete è
destinata a rimanere un’utopia, non vuole smettere di sfruttare
quegli strumenti rivoluzionari che gli hanno permesso di
cambiare il modo di fare campagna elettorale, nonostante essi
adesso vengano utilizzati anche dai suoi avversari e detrattori,
nonché dai suoi ex sostenitori delusi. Se gli obiettivi iniziali
appaiono chimere, infatti, è indubbio l’impatto che ha
un’iniziativa come Recovery.gov, sito che offre un
monitoraggio in tempo reale sulle iniziative prese
dall’Amministrazione per combattere la crisi, uno spot per la
trasparenza governativa, come lo è il progetto “Federal register
2.0”, le versione digitale di tutti gli atti amministrativi, dai
regolamenti municipali alle delibere delle authority, fruibili
così da chiunque in formato xml. Una curiosità conclusiva: i
“cinguettii” che Barack Obama ha lasciato sull’ormai
popolarissimo sito di microblogging Twitter saranno conservati
nella Library of Congress, la libreria del Congresso, la quale
ospita, giusto per capire la dimensione dell’evento, la

31
Dichiarazione d’Indipendenza americana, la collezione privata
dei libri di Thomas Jefferson, l'originale Bibbia di Gutenberg,
58 milioni di manoscritti , 1 milione di pubblicazioni del
Governo degli Stati Uniti e alcuni appunti personali di George
Washington. Ma non solo “cinguettii” presidenziali: la Librery
ha acquistato l’intero archivio del sito dal 2006 per aprirlo alla
consultazione interna. Per la serie come cambiano i tempi.
Lo stesso Twitter è stato chiamato in causa da Obama in
occasione di un incontro con l’omologo russo Dimitri
Medvedev nel giugno 2010: il presidente americano ha
ironizzato su un’eventuale sostituzione dei “telefoni rossi” che
dai tempi della Crisi di Cuba collegano Washington e Mosca;
Obama ha detto che potrebbero essere sostituiti dai
“cinguettii”, visto che entrambi i presidenti hanno un account
sul sito.

Note

[1] Quanto descritto per gli USA può essere esteso anche al vicino Canada; ovviamente il paese
ha le sue proprie leggi in materia, ma le logiche di fondo rispecchiano in larga misura quelle
statunitensi.

[2] Nel documento si legge che è da criminalizzare la trasmissione di “materiale indecente”


soprattutto nei confronti dei minori, i quali non devono essere esposti alla trasmissione di
“contenuti palesemente offensivi”; queste definizioni furono considerate talmente vaghe da una
corte federale da essere in contrasto con il Primo Emendamento, facendo decadere questi
divieti e stabilendo che la trasmissione di alcuni contenuti nei confronti degli adulti non può
essere impedita, e che proprio dai genitori deve partire il filtraggio degli stessi nei confronti dei
minori. Nasceva così il Child Online Protection Act (COPA), ma il suo essere rimbalzato
ancora oggi tra corti federali e sentenze palesa quanto anche negli USA il risultato del dibattito
sul bilanciamento libertà/sicurezza è ancora tutto da decidere.

[3] Dispositivo in grado di tracciare ogni singola lettera digitata sulla tastiera e ogni singolo
utilizzo del dispositivo; l’operazione può essere anche ripetuta nel caso in cui la prima
rilevazione non bastasse, con il solo obbligo per gli agenti di informare l’interessato dopo 90
giorni dall’implementazione del software-spia.

[4] Cfr. “La ‘lanterna magica’: come il governo USA spia i cittadini”, di Nicola Walter
Palmieri, in InterLex del 18-11-2004

32
[5]CastellsManuel,op.cit., p.127 [6] Ibidem, p. 128 [7] Ibidem, p. 129

[8] http://www.businessinsider.com/google-and-others-respond-to-fccs-2010- 6?
utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+typepad%2Falleyi
nsider%2Fsilicon_alley_insider+%28Silicon+Alley+Insider%29

[9]http://online.wsj.com/article/SB10001424052748704256304575321273903045994.ht ml?
mod=rss_Technology

[10] http://hraunfoss.fcc.gov/edocs_public/attachmatch/DA-10-670A1.pdf

[11] http://www.wired.com/threatlevel/2010/06/isohunt-not-dead-yet/#more-16894

[12] http://punto-informatico.it/2932402/PI/News/isohunt-alleanza-contro- pedoporno.aspx

[13] Nel documento si parla di “infrastruttura informativa” e con essa si intende la cornice che
supporta "l'elaborazione, la trasmissione, la ricezione o l'archiviazione di informazioni
elettroniche, inclusi apparecchi elettronici programmabili, reti di comunicazioni e ogni
hardware, software e dato associato". Il documento definisce "infrastruttura informativa
nazionale" anche ciò che si trovi fisicamente fuori dagli Stati Uniti ma la cui distruzione possa
provocare un danno catastrofico nel Paese

[14] http://www.out-law.com/default.aspx?page=11102

[15] http://blogs.wsj.com/washwire/2010/06/20/lieberman-dismisses-concerns-over- internet-


bill/

[16] Palmer Shelley, Obama vs. Mc Cain: the first networked campaign”, Huffington post,
consultabile al linj www.huffingtonpost.com/shellypalmer/obama-vs-mccain--the-
fir_b_105993.html

[17] Castells Manuel, op. cit., p. 466

[18] Espressione (in inglese “The Long Tail”) coniata da Chris Anderson in un articolo
pubblicato su Wired Magazine nell'ottobre 2004 per descrivere alcuni modelli economici e
commerciali, come ad esempio Amazon.com o Netflix.

[19] Castells Manuel, op. cit., p.486

33

También podría gustarte