Está en la página 1de 56

UNIVERSITÀ DEGLI STUDI DI TRIESTE

FACOLTÀ DI INGEGNERIA

DIPARTIMENTO DI ELETTROTECNICA, ELETTRONICA ED INFORMATICA

Tesi di Laurea Triennale


in Ingegneria Informatica

Web 2.0: caratteristiche e potenzialità

Laureando Relatore
Maurizio Chivella Chiar.mo Prof. Maurizio Fermeglia

ANNO ACCADEMICO 2007-2008


Sommario

1 La nascita ....................................................................................................................................................1

1.1 Primi passi .......................................................................................................................................1

1.2 Il valore della rete............................................................................................................................2

1.3 Il valore degli utenti.........................................................................................................................3

1.4 L’orientamento delle aziende web 2.0 .............................................................................................4

2 Concetti e supporti......................................................................................................................................6

2.1 I nuovi concetti del web...................................................................................................................6

2.1.1 Il web come piattaforma ....................................................................................................6

2.1.2 La lunga coda ....................................................................................................................7

2.1.3 Il social network ................................................................................................................8

2.1.4 L’intelligenza collettiva ...................................................................................................10

2.2 Le componenti fondamentali .........................................................................................................12

2.2.1 Aggregazione dei dati e RSS ...........................................................................................12

2.2.2 Folksonomy e tagging......................................................................................................14

2.2.3 URL chiari e comprensibili .............................................................................................16

2.2.4 Il fenomeno dei blog........................................................................................................16

2.2.5 Mashup ............................................................................................................................19

2.2.6 Modelli leggeri ................................................................................................................20

2.2.7 Interfacce utente leggere..................................................................................................21

2.3 Tecnologie di supporto ..................................................................................................................24

2.3.1 RIA ..................................................................................................................................24

2.3.2 AJAX (Asynchronous JavaScript and XML) ..................................................................24

2.3.3 XML e CSS .....................................................................................................................26

2.3.4 Web Service e SOAP.......................................................................................................28

II
3 Strumenti di sviluppo per le applicazioni web 2.0 ....................................................................................30

3.1 Adobe ............................................................................................................................................30

3.1.1 Flash ................................................................................................................................30

3.1.2 Flex..................................................................................................................................30

3.1.3 Air....................................................................................................................................31

3.2 Microsoft .......................................................................................................................................31

3.2.1 Visual Studio .NET .........................................................................................................31

3.2.2 Expression .......................................................................................................................32

3.2.3 Silverlight ........................................................................................................................33

3.3 Sun.................................................................................................................................................33

3.3.1 Java FX............................................................................................................................33

3.4 Strumenti open source e free .........................................................................................................34

3.4.1 OpenLazlo .......................................................................................................................34

3.4.2 Mozilla XUL ...................................................................................................................35

3.4.3 Google Toolkit ................................................................................................................35

4 Esempi di successo ...................................................................................................................................36

4.1 Google e la piattaforma integrata...................................................................................................36

4.2 Flickr e il valore degli utenti..........................................................................................................42

4.3 Facebook e il social network .........................................................................................................46

4.4 Wikipedia e la partecipazione allargata .........................................................................................49

BIBLIOGRAFIA...............................................................................................................................................52

III
1 La nascita

1.1 Primi passi

La prima traccia ufficiale del termine Web 2.0 appare nel 2004 in occasione della Web 2.0 Conference annunciata da
O’Reilly Media e MediaLive International. Forse per il fatto che la comunità del web è ancora molto sensibile agli
effetti portati dalla bolla delle dot.com del 2001, molti sospettano che dietro il termine Web 2.0 si celi una pura
operazione di marketing. Questa posizione è supportata dal verdetto giunto dai mercati che definiscono il web
sopravvalutato.

Per evidenziare quanto sia errato questo genere di sospetti lo stesso Tim O’Reilly decide di pubblicare un articolo,
divenuto poi piuttosto famoso, in cui riassume l’insieme di fenomeni in corso nella rete e di come questo nuovo
termine cerchi di raccoglierli mettendo l’accento (il 2.0) proprio sulle tante cose che sono cambiate rispetto al
vecchio web, che per contrapposizione sarà definito naturalmente Web 1.0.

I cambiamenti che O’Reilly mette in risalto riguardano sia le web company che grazie al mutamento radicale del loro
sistema di fare business sono sopravvissute al terremoto, ma riguardano anche, e questa è probabilmente la maggiore
novità, gli utenti ed il loro comportamento come fruitori dei servizi web. Anzi secondo la sua analisi è proprio
utilizzando in modo organico ed innovativo i comportamenti degli utenti che le Web Company 2.0 come Google,
Flickr e altri hanno raggiunto il successo attuale.

1
Dopo questo articolo il termine Web 2.0 diventa rapidamente popolare, probabilmente proprio perché riflette in
pieno lo spirito del cambiamento e soppianta nelle comunità il termine New economy rappresentativo del decennio
precedente ed ingloriosamente messo a nudo dalla bolla del 2001.

Il grafico sopra riportato evidenzia numericamente il sorpasso di popolarità dal 2005 in avanti. Nella parte alta sono
comparati il volume delle ricerche effettuate sul motore di ricerca Google con i termini web 2.0 in blu e new
economy in rosso. Nella parte bassa è comparato il numero dei siti referenziati con questi stessi termini.

1.2 Il valore della rete

L’utilità e il valore di una rete, secondo Robert Metcalfe l’ideatore del protocollo Ethernet, dipendono dal numero
delle connessioni e quindi sono proporzionali al quadrato del numero degli utenti, poiché per ogni nuovo utente
collegato si creano un numero di nuove connessioni pari agli utenti già presenti, quindi V=½(n2-n). Alcuni studiosi
sono critici al riguardo considerando troppo ottimista una valutazione che stima allo stesso livello il valore di un
singolo client e quello di un potente server.

Tuttavia secondo altri studiosi, tra cui David Patrick Reed uno dei primi sviluppatori del protocollo TCP/IP, il valore
della rete cresce ancora più rapidamente di quanto teorizzato da Metcalfe, poiché egli tiene conto soltanto delle
connessioni uno-a-uno mentre se si considerano le connessioni molti-a-molti, tipiche delle nuove strutture di rete, il
risultato è una curva esponenziale, dove V=2n-n-1.

Una strada meno scientifica ma ugualmente efficace per comprendere il concetto di valore della rete è quella aperta
da Napster nel 1999 con il concetto di peer-to-peer. In realtà il sistema Napster appoggiava il P2P su un sistema di
server centrali che mantenevano la lista dei sistemi connessi e dei file condivisi, mentre le transazioni vere e proprie
avvenivano direttamente tra i vari utenti. Napster venne chiuso nel 2002 in esecuzione di una sentenza di condanna
per violazione dei diritti d’autore che chiudeva la causa intentata dalle major discografiche ma, come molti avevano
previsto l’attività di file sharing che i discografici intendevano combattere si spostò su altri sistemi come Kazaa,
Winmx ed eMule.

L’evoluzione di Napster si chiama BitTorrent, un servizio di condivisione di files, che ha impostato un proprio
modello di P2P, migliorato grazie alla frammentazione dei files. Mentre nel P2P tradizionale la velocità del
download è condizionata dal più lento dei collegamenti trai due utenti, nel modello BitTorrent la frammentazione
permette all’utente di utilizzare tutta la banda che ha effettivamente a disposizione poiché può prelevare i vari
frammenti da server o utenti diversi contemporaneamente ottimizzando così i tempi del download. In questo caso
l’effetto positivo della rete si evidenzia nel fatto che più un file è popolare e più veloce sarà il suo download perché
più numerosi saranno gli utenti che ne mettono a disposizioni i frammenti.

La conseguenza più interessante che deriva da questa innovazione risiede nell’economia di gestione: mentre un
servizio tradizionale per migliorare la sua qualità deve aumentare il numero dei server e quindi è costretto a

2
significativi investimenti, il servizio di BitTorrent migliora con l’aumentare del numero degli utenti ovvero senza
alcun costo per il gestore del servizio. Questo effetto della partecipazione degli utenti è uno dei pilastri del Web 2.0.

1.3 Il valore degli utenti

Nella partecipazione alle attività di rete si osserva un coinvolgimento più o meno profondo dei diversi utenti.
Secondo Jacob Nealsen, uno dei principali esperti di interazione uomo-macchina, nella maggior parte delle comunità
on-line il 90% degli utenti non contribuisce alla pubblicazione e costituisce la parte passiva della comunità che si
dedica esclusivamente alla fruizione del servizio web. Un 9% degli utenti partecipa in maniera discontinua alle
discussioni oppure svolge mansioni di minor impegno e soltanto l’1% degli utenti contribuisce con propri contenuti
alle discussioni oppure svolge funzioni di coordinamento e di gestione.

Si tratta comunque di un numero considerevole di persone, posto che gli utenti del web sono stimati intorno al
miliardo, ed è su questa massa di persone che si sono appoggiati due progetti che, pur essendo di natura
completamente diversa, simboleggiano entrambi il successo della partecipazione allargata agli utenti: Amazon e
Wikipedia.

Amazon, la più grande libreria virtuale del mondo, presenta gli stessi prodotti di tante altre librerie online ma da
sempre lascia che siano gli utenti a scrivere le recensioni dei libri e usa queste valutazioni per produrre risultati di
ricerca migliori. Una qualsiasi ricerca, se fatta su altri siti porta probabilmente ai prodotti sponsorizzati, se fatta su
Amazon porta al prodotto più popolare tra gli utenti, creando negli stessi una specie di fiducia nel sito.

La pagina di Amazon che


riporta le recensioni presenta
al centro della pagina un
confronto tra il migliore ed il
peggior parere degli utenti

Wikipedia, l’enciclopedia più diffusa on-line, è stata fondata nel 2000 partendo da un concetto a cui pochi credevano
all’epoca, ovvero che qualsiasi utente potesse aggiungere una voce o modificare quelle già presenti. In realtà si
trattava soltanto di applicare nel campo dei contenuti quello che già succedeva nel campo del software open source

3
(o per meglio dire di software dotato di licenza GNU) cioè chiunque può usare e modificare un software ma può
distribuirlo soltanto utilizzando ancora la stessa licenza pubblica. Per capire il successo di questa idea di
partecipazione allargata è sufficiente considerare i seguenti risultati: oggi Wikipedia è pubblicata in 250 lingue,
consiste in 10 milioni di voci e 34 milioni di pagine e registra 60 milioni di accessi al giorno.

Ma c’è anche la strada percorsa da eBay, il più grande sito di aste on-line, che utilizza il giudizio di tutti i propri
utenti e non solo del 10% teoricamente più attivo. Il funzionamento delle aste on-line prevede che in ogni
transazione, costituita tipicamente dalla vendita di un oggetto tra due utenti, venditore ed acquirente, ogni utente
assegna all’altro un voto che corrisponde al proprio giudizio di soddisfazione in merito alla transazione avvenuta (il
compratore vota la corrispondenza dell’oggetto alla descrizione data, la velocità dell’invio, ecc.). Tutti i giudizi
ricevuti concorrono a definire il rating di quell’utente, ovvero la sua la credibilità ed il grado di fiducia che gli viene
concesso dagli altri utenti. Si tratta di una valutazione molto importante, soprattutto per chi vende, poiché tutte le
transazioni avvengono per mezzo di pagamenti anticipati e quindi è indispensabile avere fiducia nel venditore dal
momento che il prodotto da acquistare è visibile solo online.

Avere venditori con rating positivi è di tutto interesse di eBay che guadagna una percentuale su ogni transazione.
Anche gli utenti hanno solo da guadagnare da questo sistema perché nessuno acquisterà un oggetto costoso da un
venditore che ha pochi giudizi positivi ma si fiderà invece di chi ne ha già migliaia (per i grandi venditori
normalmente i giudizi espressi sono positivi circa nel 98% dei casi).

1.4 L’orientamento delle aziende web 2.0

Mentre la maggior parte dei mercati connettono tipicamente due gruppi di persone, acquirenti e venditori, vi sono
altri mercati, i cosiddetti multilaterali, che connettono più gruppi di persone con condizioni e trattamenti del tutto
diversi. Un esempio semplice riguarda le aziende che gestiscono le carte di credito, dove sono evidenti le diverse
relazioni e strategie di sviluppo che esse rivolgono ai titolari della carta (lato 1) ed ai commercianti convenzionati
(lato 2).

Allo stesso modo si può dire che le aziende del web 1.0 vedevano negli utenti un target unilaterale al quale era
necessario e sufficiente vendere un prodotto. Chi ha intrapreso una strada diversa considerando i gruppi multipli e
sviluppando strategie diverse è sopravissuto alla bolla del 2001 ed ha tracciato una strada che molti hanno seguito
con successo.

Nello specchietto seguente, derivato da una pubblicazione di Amy Shuen, collaboratrice di O’Reilly Media, sono
comparati nell’ambito di mercati diversi, le modalità dei servizi forniti ai diversi lati di utenti secondo il punto di
vista sopra espresso.

4
Gratuito o
Settore Piattaforma Lato 1 Lato 2 Fonti di reddito
minimo

Google incassa il 97% delle entrate dalle ricerche per


Ricerca Motore di ricerca Utenti Inserzionisti Utenti
parole chiave
American Express incassa l’80% dalle commissioni dei
Pagamento Carta di Credito Titolari Commercianti Titolari
commercianti

Media Quotidiano Lettori Inserzionisti Lettori L’ 80% delle entrate dei quotidiani arriva dagli inserzionisti

Ricerca di personale
Web Aspiranti Aziende Aspiranti Il 100% delle entrate di Craiglist deriva dai datori di lavoro
on-line
Xbox e PlayStation incassano con l’hardware e le licenze
Videogames PC, Console Giocatori Sviluppatori Nessuno
agli sviluppatori di terze parti
Software Open IBM, Sun, HP forniscono piattaforme hardware ed
Linux Utenti Sviluppatori Utenti
Source incassano indirettamente per i servizi
Linux, Apache,
Software web 2.0 Utenti Sviluppatori Utenti Pubblicità, Software as a Service (SaaS)
MySQL, etc.
Utenti
Studi Il noleggio di DVD Netflix e le sue promozioni sono coperti
DVD Lettori DVD Utenti (promozioni
cinematografici in parte dagli studi cinematografici
Netfix)

Aste on-line Web Acquirenti Venditori Acquirenti I venditori pagano a eBay una commissione dell’8%

5
2 Concetti e supporti

2.1 I nuovi concetti del web

Il web è stato concepito come uno strumento per la visualizzazione di documenti ipertestuali statici creati con l'uso
del linguaggio HTML. In seguito, grazie all'integrazione con database e all'utilizzo di sistemi di gestione dei
contenuti (CMS), Internet si è evoluta in siti dinamici come i forum ed i blog. Un secondo passo verso quello che
oggi definiamo web 2.0 è stato compiuto attraverso l'utilizzo dei linguaggi di scripting come Javascript, degli
elementi dinamici, dei fogli di stile (CSS) per gli aspetti grafici, e delle applicazioni web.

Da un punto di vista strettamente tecnologico quindi, il web 2.0 è del tutto equivalente al web 1.0, in quanto
l'infrastruttura di rete continua ad essere costituita da TCP/IP e HTTP e l'ipertesto è ancora il concetto base delle
relazioni tra i contenuti. La differenza sta piuttosto nell'approccio con il quale gli utenti e operatori si rivolgono al
Web.

Alcuni di questi approcci che meglio di altri testimoniano questo mutamento di indirizzi sono indicati nei paragrafi
seguenti.

2.1.1 Il web come piattaforma


Il concetto di piattaforma ha permesso a Microsoft di sconfiggere e sostituire con Windows ed Office le più diffuse
ed affermate applicazioni come Lotus, WordPerfect e Netscape Navigator. Qualsiasi applicazione singola per quanto
efficace è risultata perdente se contrapposta ad una piattaforma integrata come quella di Microsoft.

Il successo di Microsoft è supportato dal gran numero di sviluppatori che hanno deciso di basare le loro applicazioni
sul suo sistema operativo. Il peso di Microsoft attira gli sviluppatori e si accresce anche con il loro lavoro in una
specie di sistema auto sostenuto.

Una delle idee principali del Web 2.0 è proprio l’idea del web usato come piattaforma. Una piattaforma dove
risiedono tutti gli applicativi di cui l’utente ha bisogno e di cui può fruire liberamente senza alcuna installazione in
locale.

L’idea non è del tutto nuova poiché già Netscape avevo lanciato questo concetto ma il tutto è tramontato in seguito
alla sconfitta di Netscape nella battaglia dei browser contro Microsoft.

Sicuramente e le tecnologie disponibili in quegli anni non erano all’altezza di fornire un valido aiuto allo sviluppo
dell’idea di Netscape ma oggi molte cose sono cambiate:

• i collegamenti a banda larga, indispensabili per le applicazioni web di tipo RIA, sono diffusi anche a livello
domestico;

• il concetto di open source viene ora applicato ad una piattaforma aperta anche per i contenuti e i dati di
origine;

6
• la distribuzione delle API aperte permette il coinvolgimento della grande comunità di sviluppatori che
possono realizzare applicazioni per il web.

Lo scontro che si profila all’orizzonte è quello tra due piattaforme, ciascuna con un modello di business radicalmente
diverso: da una parte, Microsoft un singolo fornitore di software, la cui massiccia base e il sistema operativo
strettamente integrato con le API permettono di controllare il paradigma di programmazione e dall’altra, un sistema
senza un proprietario, tenuto insieme da una serie di protocolli, standard aperti e accordi di cooperazione.

Windows rappresenta il culmine del controllo di software proprietario tramite l’uso delle API ed è sopravissuto ad
innumerevoli attacchi alla sua egemonia tuttavia le idee che hanno scelto gli standard aperti del web, come ad
esempio Apache, hanno avuto successo. Si tratta ora di vedere quale modello, quale architettura sono più idonei per
affrontare le opportunità che si presentano.

Windows rappresentava la soluzione per i problemi dell’inizio dell’era dei PC. Ha livellato il campo di gioco per gli
sviluppatori di applicazioni, risolvendo un buon numero di problemi che in precedenza avevano reso la vita difficile
a questa industria. Ma un singolo approccio monolitico, controllato da un solo venditore, oggi non è più una
soluzione accettabile.

Tutti i sistemi orientati alla comunicazione come internet richiedono interoperabilità. Le possibilità di vincolo
dell'utente via API software sono limitate. Qualsiasi fornitore di applicazioni Web 2.0 che cercasse di vincolare i
profitti al controllo della piattaforma, per definizione, non giocherebbe più sulla potenza data dalla piattaforma
stessa.

Si tratta quindi di un sistema del tutto nuovo ed è facile prevedere che le società che avranno successo nell’era del
Web 2.0 saranno quelle in grado di comprendere le nuove regole del gioco, piuttosto che cercare di tornare alle
regole dell’era del software per PC.

2.1.2 La lunga coda


L'espressione coda lunga, è stata coniata da Chris Anderson in un articolo dell'ottobre 2004 per descrivere alcuni
modelli economici e commerciali, come ad esempio Amazon.com o Netflix. Il termine è anche utilizzato
comunemente nelle scienze statistiche, ad esempio per definire modelli di distribuzione della ricchezza e anche, per
l’aspetto che più ci interessa in questo contesto, per definire la parte più numerosa degli utenti.

Anderson sostiene che i prodotti a bassa richiesta o con ridotti volumi di


vendita (l’area rappresentata in giallo nel grafico a fianco) possono
collettivamente occupare una quota di mercato equivalente o superiore a
quella dei pochi bestseller o blockbuster (l’area rappresentata in verde),
se il punto vendita o il canale di distribuzione sono abbastanza grandi.

Nel web 1.0 i servizi forniti da DoubleClick come la pubblicità,


richiedevano atti formali di vendita ed erano così destinati a quegli operatori del web di grandi dimensioni, ovvero a

7
qualche migliaio di clienti. Overture e Google, con un approccio del tutto diverso, capirono come rendere possibile il
posizionamento delle pubblicità su qualsiasi pagina web. Nel 2000 Google introdusse il servizio AdWords, un
modello self-service automatizzato che permetteva agli inserzionisti di acquistare pubblicità on-line in formato testo.
Il mercato delle pubblicità self-service si aprì così per milioni di piccole e medie aziende che mai prima avevano
usufruito di pubblicità in rete.

La coda lunga presenta anche implicazioni destinate a influenzare la cultura e la politica. Se i costi di magazzino e
distribuzione sono elevati, vengono venduti solo i prodotti più popolari. Se al contrario la coda lunga funziona, i
gusti delle minoranze vengono soddisfatti e gli individui hanno maggiore possibilità di scelta. Nelle situazioni in cui
la popolarità è determinata dal minimo comune denominatore, un modello a coda lunga può generare un
miglioramento del livello culturale della società.

Per esempio in casa Amazon la variabilità dei prodotti venduti è vista in questi termini positivi: “Oggi abbiamo
venduto più libri tra quelli che ieri non sono affatto andati di quanti ne abbiamo venduti tra quelli che ieri sono
andati”. Analogamente, Wikipedia, pubblicata dagli utenti della rete, conta un grande numero di voci di bassa
popolarità, che collettivamente generano più traffico rispetto al numero limitato di voci molto popolari presenti in
una enciclopedia convenzionale come la Encyclopædia Britannica. Anche il successo di eBay dipende in parte dal
fatto che ha reso possibili transazioni occasionali di anche solo pochi euro tra singoli individui, agendo come un
intermediario automatizzato caratterizzato dalla semplicità di utilizzo.

Spesso presentato come un fenomeno che investe principalmente i rivenditori di prodotti di massa e aziende che
operano sul web, il modello della lunga coda si ripercuote anche sui produttori di contenuti, in particolare su quelli i
cui prodotti, per motivi economici, erano tagliati fuori dai canali di distribuzione tradizionali controllati dalle case
editrici, dalle case discografiche, dalle case di produzione cinematografiche e dalle reti televisive. Dal punto di vista
dei produttori, la coda lunga ha generato un fiorire di creatività in tutti i campi dell’ingegno umano.

In questo senso il concetto di lunga coda riflette i migliori propositi di partecipazione allargata del web 2.0.

2.1.3 Il social network


In generale parlando si rete sociale si intende un qualsiasi gruppo di persone connesse tra loro da diversi legami, che
vanno dalla conoscenza casuale, ai rapporti di lavoro, ai vincoli familiari. Le reti sociali sono studiate con un
formalismo matematico usando la teoria dei grafi. Il numero di Dunbar, conosciuto anche come la regola dei 150,
afferma che le dimensioni di una vera rete sociale sono limitate a circa 150 membri. Questo numero è stato calcolato
da studi di sociologia e di antropologia, sulla dimensione massima di un villaggio teorico.

Secondo la psicologia evoluzionista questo numero potrebbe essere una sorta di limite superiore all'abilità media
degli esseri umani di riconoscere dei membri e tenere traccia degli avvenimenti emotivi di tutti i membri di un
gruppo. La versione di Internet delle reti sociali è una delle forme più evolute di comunicazione in rete, ed è anche
un tentativo di violare la "regola dei 150".

8
Il fenomeno delle social network è nato negli Stati Uniti e si è sviluppato attorno a tre grandi filoni tematici: l'ambito
professionale, quello dell'amicizia e quello delle relazioni amorose.

Le social network online ebbero un'esplosione nel 2003, grazie alla popolarità di siti web come Friendster, Tribe.net
e LinkedIn. Nel 2004 anche Google ha lanciato il suo social network, chiamandolo Orkut. In Italia il primo dei
grandi portali migrato verso questo tipo di social network è stato superEva, tuttavia sono molto attive e numerose le
comunità di italiani su Orkut e LinkedIn.

I numeri relativi alla diffusione dei social network sono impressionanti. I due services più rilevanti per accessi,
Facebook e Myspace, hanno rispettivamente circa 132 e 117 milioni di utenti.

L'uso di reti sociali sta diffondendosi anche come un'evoluzione delle radio on-line. I siti non si limitano a proporre
musica in formato mp3, ma, interpretano i gusti e propongono musiche simili, facendo scoprire nuovi artisti,
musicalità, ritmi. Attraverso vari siti come Pandora.com, lastfm.it (la cui homepage è riportata qui sotto) e
musicovery.com, è possibile creare delle community invitando i propri amici, ma anche ascoltando la musica
proposta per gli utenti con preferenze simili alle proprie.

Le social network possono essere organizzate anche attorno a modelli di business o svilupparsi su base territoriale,
ad esempio per siti dedicati esclusivamente a cultura e tempo libero in una determinata città.

9
Oltre ai modi che abbiamo appena visto, il termine “social network” è utilizzato anche per descrivere altri modi in
cui le persone socializzano ed interagiscono attraverso la rete Internet, condividendo assieme gli stessi gusti ed
interessi:

• la condivisione di file multimediali (media sharing) in cui gli utenti caricano sulla rete le proprie foto e i
propri video al fine di condividerli con tutti i navigatori della rete (Flickr, YouTube, Photobucket);

• il “social Bookmarking”, rappresentato da tutti quei siti in cui vengono resi disponibili elenchi di segnalibri
(bookmark) creati dagli utenti e notizie prese dalla rete. Questi elenchi sono liberamente consultabili e
condivisibili con gli altri utenti appartenenti alla stessa comunità virtuale attraverso apposite etichette (tag)
che vengono assegnate ad ogni segnalibro o notizia. Alcuni siti di social bookmarking sono Digg, Delicious,
Furl, Propeller, Technorati e, in Italia, Diggita e Segnalo;

• infine anche i blog, di cui tratteremo più avanti, sono un fenomeno che indubbiamente interessa la sfera
sociale per come l’abbiamo definita.

2.1.4 L’intelligenza collettiva


Dietro al successo dei giganti nati nell'era del web 1.0, sopravvissuti alla bolla e che di fatto guidano il web 2.0 vi è
un concetto comune: essi hanno intuito la reale portata della partecipazione nel web e si sono adoperati per sfruttare
la potenza di quell’entità che è stata chiamata intelligenza collettiva.

I collegamenti ipertestuali sono il fondamento del web. Un nuovo sito o un nuovo contenuto viene integrato alla
struttura del web dagli altri utenti tramite la creazione di un link. Il successo di Google nel campo delle ricerche, che
rapidamente l’ha reso il leader indiscusso di mercato, è dovuto al PageRank, un metodo che utilizza proprio la
struttura dei link, anziché semplicemente le caratteristiche di una pagina web, per fornire risultati di ricerca migliori.

Peraltro proprio il motore di ricerca, un concetto nato nel web, non è altro che un catalogo di pagine o una directory
di link, ovvero rappresenta una forma di aggregazione e catalogazione del lavoro di migliaia e poi milioni di utenti
del web. Yahoo! prima e Google poi hanno creato il loro successo dal lavoro degli utenti.

Il valore fornito da eBay è l’attività collettiva di tutti i suoi utenti. Il compito della società si limita a mettere a
disposizione un contesto in cui tale attività possa aver luogo. Il vantaggio competitivo di eBay viene quasi
interamente dalla massa critica di acquirenti e venditori, che rendono chiunque tenti di offrire servizi simili
significativamente meno interessante.

Sia Amazon che Wikipedia, di cui si è detto al capitolo precedente hanno fatto della partecipazione degli utenti una
scienza, che li ha portati tra i siti di maggior successo del web attuale.

Siti come del.icio.us e Flickr, due società che hanno ricevuto grande attenzione negli ultimi tempi, hanno fatto da
pionieri per un concetto che alcuni definiscono “folksonomia” (in contrasto con tassonomia), uno stile di
categorizzazione collaborativa dei siti che utilizza parole chiave liberamente scelte, i tag. Il tagging consente di
ottenere quel tipo di associazione multipla e in sovrapposizione che il cervello stesso utilizza, anziché delle categorie

10
rigide che sono sempre oggetto di arbitrio da parte di chi le genera. Nell’esempio più classico su Flickr la foto di un
cagnolino può essere dotata di diversi tag come “cucciolo”, “cane” o anche “carino”, consentendo così di trovarla
lungo i diversi assi naturali di ricerca generati dall’attività degli utenti.

I prodotti per filtrare lo spam in modo collaborativo, come Cloudmark per esempio, aggregano le decisioni
individuali di chi usa la posta elettronica per decidere cosa è spam e cosa non lo è, superando così, in efficienza, i
sistemi che si basano sull'analisi dei messaggi stessi.

Persino gran parte dell’infrastruttura del web, compreso il codice di Linux, Apache, MySQL, e Perl, PHP, o Python
usato in molti server web, si affida ai metodi di peer-production dell’open source. In essi stessi si trova un esempio
di intelligenza collettiva creata dalla rete.

Ci sono più di 100.000 progetti di software open source elencati su SourceForge.net. Chiunque può aggiungere un
progetto, chiunque può scaricare e utilizzare il codice, e nuovi progetti migrano dalle periferie al centro come
risultato del fatto che gli utenti li utilizzano, un processo di adozione organico del software che si affida quasi
interamente al “marketing virale”, cioè alle raccomandazioni che passano direttamente da un utente a un altro.

A questo proposito si può evidenziare un interessante aspetto dell’intelligenza collettiva osservando come le società
che vantano i più grandi successi in internet non facciano pubblicità dei propri prodotti. La loro diffusione è guidata
dal marketing virale. Può suonare un po’ estremo ma chi fa pubblicità non è 2.0.

11
2.2 Le componenti fondamentali

I principali elementi che lo stesso O’Reilly indica nel suo articolo “What is web 2.0” sono i seguenti:

• condivisione e distribuzione dei contenuti in rete attraverso RSS;

• uso intensivo di folksonomy e tagging;

• uso di indirizzi web semplici e significativi;

• pubblicazione con i blog;

• uso di applicazioni ibride e web service.

A questi punti si possono ancora aggiungere:

• modelli di programmazione e di sviluppo leggeri;

• uso di interfaccia utente leggere.

2.2.1 Aggregazione dei dati e RSS


RSS (acronimo di Really Simple Syndication) è uno dei più popolari formati per la distribuzione di contenuti Web
che possono essere ripubblicati da altri utenti o da altri siti. Il formato definisce una struttura adatta a contenere un
insieme di notizie, ciascuna delle quali può essere composta da vari campi (titolo, testo, autore, etc.). La
pubblicazione del contenuto mantiene quindi una omogeneità di presentazione per dati che possono provenire dalle
fonti più diverse.

RSS, di cui a fianco è riportato l’ormai celebre logo, fu lanciato per la prima volta da Netscape per la gestione dei
contenuti del portale MyNetscape permettendo la visualizzazione sul portale di link relativi a notizie pubblicate su
altri siti e rese disponibili attenendosi a specifiche ben precise. Il successo fu immediato,
centinaia di fornitori di contenuti aderirono all'iniziativa e il portale MyNetscape poté
beneficiare di una vasta raccolta di notizie a disposizione dei propri utenti registrati.

La comunità dei blogger adottò entusiasticamente la novità perché i post di un blog


potevano essere facilmente esportati in RSS, in modo da essere resi disponibili a servizi di
raccolta di contenuti.

Probabilmente è proprio la diffusione dei blog una delle ragioni principali del successo del formato RSS, che lo ha
reso di fatto lo standard per l'esportazione di contenuti Web. Tutti i principali siti di informazione, i quotidiani
online, i blog più popolari rendono disponibili i contenuti attraverso i feed RSS. Per gli utenti oggi è possibile
accedere ad un numero così elevato di feed che sono nati alcuni siti specializzati nella raccolta e catalogazione di
riferimenti ai feed RSS disponibili sul Web.

La fruizione di un documento tramite RSS inizia sempre con il parsing, ovvero una scansione del documento che
individua i tag e isola i diversi elementi, poi le modalità di utilizzo sono in sostanza di due tipi:

12
• attraverso un feed reader si possono estrarre i titoli di tutti gli elementi item per visualizzare ad esempio la
lista degli articoli di un giornale online o di un blog;

• attraverso un aggregatore Web si possono convertire i contenuti del feed in linguaggio HTML e incorporarli
all'interno delle proprie pagine.

Esistono feed reader realizzati come applicazioni stand-alone, altri che funzionano come plug-in all'interno di altri
programmi di posta elettronica o browser Web, altri ancora sono applicazioni in grado di convertire un feed RSS in
una serie di post in formato leggibile dai più popolari newsreader come Mozilla Thunderbird o Forté Agent.

Da ultime sono state sviluppate applicazioni per la lettura di feed RSS su dispositivi mobili (telefoni cellulari,
palmari, ecc.) in modo di permettere l'accesso alle notizie preferite da qualunque luogo.

Un altro utilizzo interessante dei feed è quello offerto da Netvibes, un servizio gratuito che consente di comporre la
propria pagina di accesso al web scegliendo le informazioni da visualizzare, all'interno di una vasta raccolta di
widget (mini form progettati per l’esportazione dei contenuti) suddivisi per categorie.

Nella figura seguente è riportata una combinazione personalizzata di widget che comprende le informazioni meteo, i
feed di alcuni quotidiani e blog, la notifica di due diverse caselle di posta ed i form per la ricerca di immagini, video,
musica e voci di wikipedia. I feed dei giornali e delle mail vengono aggiornati in background senza cioè dover
ricaricare la pagina.

13
Il vantaggio per l'utente è notevole, poiché questi ha la possibilità di accedere a tutte le notizie dei siti che egli stesso
ritieni interessanti attraverso un unico sito Web che funge da aggregatore. Questo evita all’utente la visita di ognuno
dei siti di interesse per verificare se vi siano stati o meno aggiornamenti dopo la sua ultima visita.

Ma in sostanza il nuovo atteggiamento che sta alla base dell’affermazione dei feed è la disponibilità alla
distribuzione gratuita dei contenuti. Mentre nel web 1.0 la tendenza dei portali era quella di trattenere i visitatori sul
sito con un atteggiamento definito stickiness o appiccicoso, oggi prevale la distribuzione e la ripubblicazione dei
contenuti, ovvero il concetto di syndication.

2.2.2 Folksonomy e tagging


La ricerca di una specifica informazione nella massa di documenti presenti sul web è una delle operazioni critiche
che si ripetono con più frequenza tra gli utenti. Un sistema capace di catalogare e classificare in maniera efficace i
documenti è indispensabile ma negli anni scorsi la tassonomia della rete, ovvero l’insieme delle ramificazioni della
struttura di un sito, ed il suo sistema di catalogazione sono state una cosa indivisibile.

Folksonomy è un neologismo creato per indicare la


tassonomia dei siti e la catalogazione dei loro contenuti
generata dagli utenti in modo collaborativo mediante
l'utilizzo di parole chiave (o tag) scelte liberamente. E’
quindi una metodologia (di cui qui a lato è riportato uno
schema di principio tratto dal sito vanderwal.net) utilizzata
da gruppi di persone che collaborano in modo spontaneo
per organizzare in categorie le informazioni disponibili in
rete.

Un tag è una parola chiave o un termine associato a un


contenuto che descrive l'oggetto rendendo possibile la
classificazione e la ricerca di informazioni basata su parole
chiave. In genere i tag sono scelti personalmente dagli
autori dell'oggetto da indicizzare in base a criteri del tutto
informali.

Questa metodologia produce dei percorsi di navigazione


dinamici basati esclusivamente sui tag. Di fatto per mezzo
di questo sistema ogni oggetto può essere classificato e
l’apporto degli utenti rende questa classificazione più
efficace ed utilizzabile rispetto a qualsiasi sistema software
automatico. Questa conclusione non è affatto sorprendente
se si considera che gli organizzatori dell'informazione di
solito sono gli stessi utenti finali e che quindi la

14
folksonomy produce risultati che riflettono in maniera più definita l'informazione secondo il modello concettuale
della popolazione in cui il progetto viene realizzato.

L’effetto immediato dei nuovi percorsi di navigazione, uniti ad algoritmi come il PageRank di Google, è stato quello
di superare definitivamente il concetto di portale poiché dal motore di ricerca si accede direttamente alla pagina
identificata dai tag.

Come è facilmente intuibile, il sistema di utilizzo di tag liberi presenta qualche pecca, la sua catalogazione è
sicuramente imprecisa, soggettiva e ridondante ma tuttavia è efficace soprattutto nel caso di organizzazione di
immagini o filmati oppure dove a causa del numero dei contenuti una classificazione a livello centrale sarebbe
troppo onerosa.

Ad esempio è impensabile archiviare in modo tassonomico i 400.000.000 di immagini che costituiscono l’archivio di
Flickr. Questo lavoro è stato fatto dagli stessi utenti su circa 340.000.000 di immagini mediante i tag liberi.

Nell’ambito dei tag esistono quelli soggettivi che rappresentano un significato solo per l’autore del documento (ad
esempio una foto di Venezia con il tag VIAGGIO DI NOZZE) e quelli oggettivi che rappresentano un significato sia per
l’autore che per il resto della comunità. Questi ultimi vengono adoperati da più utenti con lo stesso significato e
creano un’informazione condivisa permettendo il passaggio dall’informazione personale alla classificazione
collettiva.

15
Infine la folksonomy ha permesso la creazione di siti di bookmarking come delicious.com i quali consentono di
ricordare con un segnalibro (bookmark) un sito interessante, in pratica ripropongono la tipica funzione preferiti di
tutti i browser. In più però permettono di assegnare a questo segnalibro dei tag e memorizzando online queste
informazioni consentono a tutti gli utenti di ritrovare il sito qualora la ricerca venga effettuata con i tag utilizzati.

La nuvola dei tag più utilizzati dagli utenti di delicious.com, riportata alla pagina precedente, rappresenta una
testimonianza delle scelte di un numero elevatissimo di utenti e riveste quindi un alto valore democratico ma anche
commerciale.

2.2.3 URL chiari e comprensibili


Le pagine dinamiche, diffusissime oggi, hanno degli URL con una struttura piuttosto complessa e dotata di parametri
numerici, come gli ID. I principali motori di ricerca non gradiscono indicizzare le pagine che contengono dei
parametri nell'indirizzo URL poiché questi sono difficilmente interpretabili dai loro crowler che sono in un certo
modo disorientati da caratteri come &, ? oppure =. Per ovviare a questo problema, sono nate le tecniche di URL
rewrite, che permettono di trasformare l'URL dinamico e complesso in uno semplice e comprensibile. Questa
soluzione permette di migliorare l’indicizzazione di una pagina web sui motori di ricerca.

L'operazione di rewrite è anche utile quando un sito web ristruttura le sue pagine e le rinomina. Gli utenti che
avevano tra i favoriti il sito ristrutturato saranno direttamente reindirizzati alle nuove pagine. In mancanza di rewrite
quando questi utenti richiedono il vecchio indirizzo ricevono semplicemente un classico errore 404 page not found.

Grazie all'utilizzo dei metodi di URL rewrite possiamo partire da un indirizzo come
http://www.dblog.it/dblog/articolo.asp?articolo=510 ed arrivare ad ottenere un indirizzo come
http://www.dblog.it/dblog/viva-il-peru.asp sicuramente più apprezzato dai crowler ma anche più comprensibile
dall’utente poiché contiene nel suo nuovo nome alcune parole importanti per identificare il contenuto della pagina
stessa.

Flickr ha adottato per principio URL semplici e questo permette a qualsiasi navigatore che conosca il nome di un
utente registrato di accedere alla pagina di quell’utente digitando semplicemente http://www.flickr.com/nome_utente
(in realtà verrà poi reindirizzato automaticamente a http://www.flickr.com/photos/nome_utente). Anche la ricerca per
tag è facilitata poiché è sufficiente digitare http://www.flickr.com/photos/tags/nome_tag anziché passare per le
classiche modalità di ricerca.

Quest’ultima è sicuramente una proprietà che si colloca in quella che viene definita rich user experience che il web
2.0 persegue come obiettivo.

2.2.4 Il fenomeno dei blog


Un blog è un sito internet, generalmente gestito da una persona o da una struttura, in cui l'autore scrive
periodicamente come in una sorta di diario on-line, inserendo opinioni personali, descrizione di eventi, o altro
materiale come immagini o video. Ogni aggiornamento mantiene l’ordine cronologico di inserzione.

16
Homepage personali sono state pubblicate sin dall’inizio del web, e i diari personali e gli editoriali quotidiani sono
popolari da molto prima, ma come fa notare Rich Skrenta, uno dei maggiori esperti del web, l’organizzazione
cronologica di un blog “sembra una differenza insignificante, ma definisce un sistema di erogazione, una pubblicità
e una catena del valore completamente differenti”.

Il termine blog è la contrazione di web-log, ovvero “traccia su rete”. Il fenomeno nasce nel 1997 in America quando
Dave Winer sviluppa un software che ne permette la pubblicazione e Jorn Barger, un commerciante americano
appassionato di caccia, decide di aprire una propria pagina personale per condividere i risultati delle sue ricerche sul
web riguardo al suo hobby. Dal 2001 si sviluppa anche in Italia, con la nascita dei primi servizi gratuiti dedicati alla
gestione di blog.

I blog (ormai diffusi in un numero


superiore agli 80 milioni secondo
technorati) hanno esteso la
possibilità di pubblicare documenti
su Internet a tutti e da questo punto
di vista propongono diverse
somiglianze con i wiki come ad
esempio il modo in cui vengono
gestiti gli aggiornamenti, favoriti i
commenti dei lettori e stimolate le
nascite di community.

Uno dei fattori cose che più hanno


favorito la diffusione dei blog è la
tecnologia RSS anzi si può dire che i feed RSS rappresentano il progresso più significativo dell’architettura
fondamentale del web. I feed consentono non solo di collegarsi a una pagina, bensì di abbonarsi ad essa, ricevendo
un avviso ogni volta che la pagina viene modificata secondo un modello che alcuni chiamano web incrementale e
altri live web.

Nel live web anche i link sono dinamici. Un link a un weblog punta a una pagina in continuo cambiamento, con un
permalink (dall’inglese permanent link) ovvero un link che punta direttamente a quell'articolo, per ogni singolo
inserimento e una notifica per ogni cambiamento. Un feed RSS è quindi molto più potente di un link, sia esso un
bookmark o un link a una singola pagina.

La struttura di un blog è costituita, normalmente, da un programma di pubblicazione guidata che consente di creare
automaticamente una pagina web anche senza conoscere necessariamente il linguaggio HTML. Oramai anche in
italiano ci sono decine di servizi semplici o piattaforme più complesse che permettono di avviare e gestire un blog
gratuitamente.

17
Il blog permette a chiunque sia in possesso di una connessione internet di creare facilmente un sito in cui pubblicare
storie, informazioni e opinioni in completa autonomia. Ogni articolo è generalmente legato ad un thread (il filo del
discorso), in cui i lettori possono scrivere i loro commenti e lasciare messaggi all'autore. All'interno del blog ogni
articolo viene numerato e può essere indicato univocamente attraverso un permalink.

Alcuni blog si possono considerare veri e propri diari personali e/o collettivi, nel senso che sono utilizzati per
mettere on-line le storie personali e i momenti importanti della propria vita. In questo contesto la riservatezza, il
privato, il personale va verso la collettività. Sono molto diffusi anche i blog tenuti da giornalisti, oppure i blog
umoristici e autoironici, impegnati, satirici e non mancano infine blog di scrittori o di poesia.

Tra i moltissimi tipi di blog i più diffusi sono:

• blog personali è la categoria più diffusa, l'autore vi scrive le sue esperienze di ogni giorno, poesie, racconti,
desideri e proteste, il contributo dei lettori nei commenti è in genere molto apprezzato e dà vita a
discussioni molto personali; statisticamente sono diffusi i blog di studenti di scuola superiore o universitari,
con un gran numero di collegamenti incrociati tra un blog e l'altro.

• blog collettivi gli articoli vengono scritti da un gruppo ristretto di autori, di solito questi blog sono orientati
verso un campo comune di interesse e sono tra quelli più visitati in rete.

• blog di attualità molti giornalisti utilizzano i blog per dare voce alle proprie opinioni su argomenti
d'attualità o fatti di cronaca, o più semplicemente per esprimere la propria opinione su questioni che non
trovano quotidianamente spazio fra le pagine dei giornali per i quali scrivono; un altro utilizzo diffuso di
questi blog avviene con i commenti delle notizie lette su giornali o siti internet.

• corporate blog o blog aziendale è il blog tenuto da uno o più dipendenti di una azienda; rappresenta una
voce più informale rispetto al sito internet ed i blogger sono tenuti a rispettare un codice aziendale.

• blog tematico rappresenta il punto d'incontro per persone con interessi in comune.

• blog directory alcuni blog si specializzano nella raccolta di link su un argomento particolare, anche alcuni
siti di news possono rientrare in questa categoria.

• blog politico negli ultimi anni diversi politici lo stanno utilizzando come interfaccia di comunicazione con i
cittadini, per esporre i problemi e condividere le soluzioni, principalmente a livello locale, ma anche a
livello altissimo come ha dimostrato il nuovo presidente degli Stati Uniti.

• watch blog sono blog in cui vengono criticati gli errori riportati in notiziari on-line, siti web o altri blog.

• m-blog è un blog utilizzato per pubblicizzare le proprie scoperte musicali e renderne gli altri partecipi
attraverso la pubblicazione di file audio nei più diversi formati.

18
• blog novel o blog fiction si tratta di un racconto suddiviso in brevi brani che si sviluppa su un blog e che è
quindi rivolto ad un pubblico; generalmente i commenti degli altri bloggers e dei visitatori sono utilizzati
dall'autore nello sviluppo della storia.

2.2.5 Mashup
Con questo termine (che in inglese significa poltiglia) si intende un sito o un'applicazione web di tipo ibrido, cioè
tale da includere dinamicamente informazioni o contenuti provenienti da più fonti solitamente rappresentate da altri
siti web. Un mashup quindi è un’applicazione che usa contenuto da più sorgenti per creare un servizio
completamente nuovo.

Il contenuto dei mashup è normalmente preso da


siti terzi per mezzo di via API (nella figura a
lato è riportata la statistica dei fornitori delle
API più utilizzate fornita dal sito
programmableweb.com) tramite feed RSS o
Javascript. I mashup sono semplici da
progettare, richiedono minime conoscenze
tecniche ed essendo rivolte ad un largo pubblico
spesso presentano interessanti combinazioni ed
innovazioni.

Alla base della tecnologia che sta dietro i mashup ci sono i web service, una raccolta di standard e formati di dati che
consentono alle applicazioni web di comunicare tra di loro e di condividere le informazioni anche se le applicazioni
sono sviluppate in diversi linguaggi di programmazione e implementate su diverse piattaforme.

I mashup sono catalogabili in tre categorie:

• Consumer Mashup è una semplice unione di due o più servizi combinati insieme in un'unica grafica; un
tipico esempio sono le applicazioni che integrano le cartografie di GoogleMaps con dati provenienti da altre
sorgenti di informazione;

• Data Mashup è l'unione di diverse sorgenti di informazione eterogenee tra di loro al fine di creare un unico
contenitore di dati; la funzione "Segnalibri" del browser Mozilla Firefox cioè l'aggregazione di informazioni
provenienti da diversi feed RSS ne è l’esempio tipico;

• Business Mashup consente di combinare dati provenienti da varie fonti (sia interne sia esterne
all'applicazione interessata) per la creazione di un framework integrato; solitamente viene realizzato per il
monitoraggio delle vendite, del personale o per la gestione dei costi all'interno ad un'azienda; in altre parole
un business mashup è la combinazione delle due tipologie precedenti per la realizzazione di applicazioni
commerciali.

19
Nel grafico riportato a fianco, tratto ancora dal sito programmableweb, dove sono indicate le tipologie più diffuse tra
i siti di mashup, si nota una prevalenza della categoria del mapping. Nella classifica dei siti più popolari troviamo
nei primi posti tra l’altro:

• FlashEarth un sito di mapping con


viste dal satellite zoomabili attraverso
una applicazione Flash, costruito con
API di GoogleMaps, Microsoft Virtual
Earth, NASA, OpenLayers e
YahooMaps;

• Weather bonk ancora mapping


dedicato alla meteorologia ed integrato
con webcams, anche qui le API di tutti i
siti citati in precedenza ed in più quelle di GoogleAdWords, hostip.info, NOAA Weather Service,
WeatherBug, YahooGeocoding e Yahoo-Traffic;

• LivePlasma un’applicazione delle API di Amazon-eCommerce che mostra le relazioni tra libri, film, attori,
gruppi, etc.;

• 2spaghi il più frequentato sito di mashup in lingua italiana è un sito di social networking che si occupa di
ristoranti e locali pubblici in Italia; utilizza le API di GoogleMaps ed in perfetto stile web 2.0 dispone di
una sezione tags ed una sezione wiki.

2.2.6 Modelli leggeri


La tendenza del web 2.0 è quella di privilegiare i modelli di programmazione leggera ovvero le applicazioni più
semplici anche se meno affidabili. Ad esempio per il web service sono preferiti i servizi come RSS e REST,
accoppiati in modo leggero, piuttosto che SOAP, affidabile ma complesso.

Il modello di sviluppo leggero è invece rappresentato dal concetto di beta perpetua. Questa definizione sottintende
con il termine beta che il software è in costante fase di test da parte di tutti gli utenti, mentre il termine perpetua si
contrappone ai cicli discreti di rilascio delle diverse release di software tipiche del web 1.0.

Di fatto gli utenti sono strasformati in co-sviluppatori e tester ed i loro commenti e suggerimenti se sono ritenuti utili
vengono integrati nel software a brevissimo termine. I rilasci sono praticamente continui, solitamente settimanali, a
volte giornalieri e se vogliamo credere a Cal Henderson capo sviluppatore di Flickr i rilasci si susseguono a volte
anche ogni mezz’ora!

Questo significa che è la concezione classica del ciclo di vita del software (sviluppo, test, rilascio, aggiornamento,
manutenzione) è completamente stravolta. E ciò rende ottimisti i fautori dell’open source in merito all’esito della
contrapposizione con Microsoft. Il modello di business di Microsoft dipende dal fatto che chiunque aggiorna

20
l’ambiente del proprio computer ogni due o tre anni. Quello di Google dal fatto che ogni utente esplora cosa c’è di
nuovo nel proprio ambiente tutti i giorni.

Il rilascio di GoogleMaps da parte di Google è un esempio di sviluppo del tutto nuovo. La semplice interfaccia
AJAX di GoogleMaps (Javascript e XML) è stata velocemente decriptata dagli hacker, che hanno poi proceduto a
miscelare i dati in nuovi servizi.

I web service relativi alle mappe sono stati disponibili per un certo periodo di tempo presso i fornitori GIS, come
ESRI, oltre che da MapQuest e Microsoft MapPoint. Ma GoogleMaps ha fatto furore a causa della sua semplicità. Se
la sperimentazione con qualsiasi dei web service supportati da fornitori richiedeva un contratto formale tra le parti, il
modo in cui GoogleMaps è stato implementato ha lasciato i dati a disposizione di chi volesse prenderli e gli hacker
hanno trovato presto il modo di riutilizzarli in modo creativo.

Da tutto ciò si possono dedurre alcune conclusioni:

• Supportare modelli di programmazione leggeri che rendano possibili sistemi abbinati in modo non
rigido. La complessità dei web service sponsorizzati dalle grandi aziende è progettata per consentire
abbinamenti rigidi. Se questo è necessario in molti casi, molte delle applicazioni più interessanti possono
rimanere abbinate in modo libero, addirittura fragile. In questo senso il punto di vista del web 2.0 è
radicalmente diverso da quello tradizionale.

• Pensare alla syndication e non alla coordinazione. I web service semplici, come RSS e quelli basati su
REST, sono propensi a rendere disponibili i dati verso l’esterno, piuttosto che a controllare cosa succede
quando si arriva all’altra estremità della connessione. Questa idea è fondamentale per internet stesso, il
riflesso di quanto è noto come il principio end-to-end ovvero il collegamento diretto tra client e host.

• Progettare in modo ”hackable” e remixable. I sistemi o formati come RSS e AJAX hanno delle barriere
per il riutilizzo estremamente basse. Buona parte del software utile è effettivamente open source, ma anche
quando non lo è, poco esiste in termini di protezione della proprietà intellettuale. L’opzione "View Source"
dei browser web ha reso possibile per chiunque copiare le pagine web di chiunque altro; l’RSS è stato
progettato per abilitare l’utente a vedere il contenuto che desidera nel momento in cui lo desidera e non su
ordine del provider di informazioni; i web service di maggior successo sono quelli che sono stati più facili
da portare in direzioni nuove, che i loro creatori non avevano immaginato.

2.2.7 Interfacce utente leggere


L’aspetto della homepage di Google spiega meglio di tante parole il concetto di interfaccia utente leggera: sfondo
bianco, un campo centrale per il termine da ricercare, pochi altri link utili, nient’pubblicità. Una chiarezza d’uso che
appare in netta controtendenza rispetto ai portali tipici del web 1.0, come ad esempio libero.it, infarcito di pubblicità
e riquadri vari con informazioni generiche e non mirate all’utente.

21
22
Anche i blog hanno un aspetto simile, appena entrati si vedono le ultime discussioni e le opzioni di navigazione sono
relegate generalmente ad una barra di strumenti laterale. Il beneficio visivo è immediato, l’attenzione è catturata
dalle cose importanti, non c’è quella massa di informazioni inutili.

Questa tendenza alla semplificazione ha contagiato anche i siti dei maggiori quotidiani italiani che, sebbene
mantengano ancora una quota significativa di spazi pubblicitari, hanno adottato uno stile di pubblicazione più chiaro
anche se forse un po’ troppo omologato.

Anche l’aspetto estetico è importante nel web 2.0, i loghi sono semplici con caratteri grandi senza inutili orpelli, la
pagina è strutturata con poche colonne, la navigazione deve essere semplice ed intuitiva.

Sono evitati i riquadri rigidi, si prediligono gli angoli arrotondati ed i colori evidenziano le diverse aree della pagina
e c’è un grande utilizzo di icone.

Qui sotto ci sono i loghi più rappresentativi del web 2.0 che si possono trovare sul sito web2-logo.com.

23
2.3 Tecnologie di supporto

Come si è visto fin qui il web 2.0 si caratterizza per una serie di concetti e principi che riguardano l’organizzazione
del web e delle aziende che vi operano, il loro orientamento all’utente ed il comportamento degli utenti stessi. E’
però evidente che queste attività si evolvono assieme alle componenti tecnologiche che servono al loro sviluppo.
Alcune di queste, che ricorrono con maggior frequenza nelle applicazioni software di tutti i siti che sono
identificabili come web 2.0, sono riportate di seguito.

2.3.1 RIA
Con questo acronimo di Rich Internet Application, si intende una applicazione web che possiede le caratteristiche e
le funzionalità (ricche) delle tradizionali applicazioni per computer, ma che gira senza alcuna installazione sul disco
fisso locale. E’ caratterizzata da una velocità d'esecuzione elevata, del tutto simile a quella di una applicazione in
locale, dovuta alla divisione tra la parte leggera dell'applicazione che elabora i dati ed è trasferita al client e quella
pesante che rimane sul server remoto.

Un semplice esempio di applicazione RIA è Google Suggest che in tempo reale, proprio mentre avviene la
digitazione di un termine sulla barra del motore di ricerca, suggerisce tutti i termini correlati ed il numero delle
corrispondenze associate ad ognuno di essi.

Gli strumenti più diffusi per lo sviluppo di applicazioni RIA sono Adobe Flash, Adobe Flex, OpenLazlo ed AJAX.

2.3.2 AJAX (Asynchronous JavaScript and XML)


E’ lo strumento più diffuso per lo sviluppo e la realizzazione di applicazioni web interattive e RIA. La sua
prerogativa è lo scambio di dati in background fra web browser e server, che consente l'aggiornamento dinamico di
una pagina web senza esplicito ricaricamento da parte dell'utente.

Questo avviene con una richiesta dinamica di dati in formato XML tramite l’oggetto XML-HttpRequest ed una
risposta XML che modifica la pagina senza ricaricarla, il tutto in modo completamente trasparente all’utente.

24
Nella parte sinistra della figura sottostante (tratta dal sito adaptative path di Jesse James Garrett, uno dei più noti
esperti nello sviluppo di AJAX) è rappresentato graficamente il concetto sopra espresso in merito alla trasparenza
all’utente delle procedure di aggiornamento della pagina web. Nella parte destra della stessa figura viene indicato il
funzionamento di AJAX su un asse temporale e viene evidenziata la natura asincrona del suo funzionamento.

L’aspetto che più colpisce nel confronto tra applicazione classica ed applicazione AJAX è rappresentato dal tempo
disponibile all’attività dell’utente. Esso non è più limitato ai periodi alternati con il processo di sistema, ma, almeno
in linea di principio, risulta continuo grazie all’introduzione del motore AJAX.

In tutte le applicazioni web, molte delle operazioni sono costituite da una richiesta HTTP inoltrata al server. Nelle
applicazioni tradizionali, nate ed ottimizzate per l'ipertesto ma non adatte alle applicazioni software, il server esegue
l'elaborazione ed invia una pagina HTML al client. Mentre il server elabora, l'utente è costretto ad aspettare la fine di
ogni richiesta. Questo non succede nelle applicazioni software installate in locale e ormai nessun utente è disposto ad
accettare una tale dispersione di tempo neanche nelle applicazioni web.

L’inserimento di un elemento intermediario (come il motore AJAX) può sembrare un appesantimento e


rallentamento dell’applicazione web ma è vero esattamente l’opposto. Grazie a questo sistema ogni volta che l’utente
effettua una richiesta HTTP si genera una chiamata Javascript verso il motore AJAX. Se la risposta non richiede la
chiamata diretta al server (ad esempio per validare alcuni dati o per modificarne altri in memoria) il lavoro è
compiuto direttamente dal motore AJAX. Invece se la risposta richiede la chiamata diretta al server (ad esempio per
inviare o ricevere dati da processare o caricare elementi aggiuntivi) questa viene gestita in maniera asincrona dal

25
motore AJAX mediante l’utilizzo di XML ma soprattutto senza bisogno di interrompere l'interazione tra utente e
applicazione.

Da quanto detto sulla modalità di funzionamento di AJAX si può ben concludere che esso non rappresenta di per sé
una tecnologia ma piuttosto un nuovo modo di usare e coordinare tecnologie esistenti. In particolare AJAX fa uso di:

• XHTML per i contenuti della presentazione standard di base e CSS per la formattazione e la grafica
seguendo così le indicazioni di separazione tra grafica e contenuto del consorzio W3C;

• DOM (Document Object Model è anche questo uno standard del W3C), una forma di rappresentazione dei
documenti strutturati come modello orientato agli oggetti, per la presentazione dinamica e l’interazione;

• XML per l’interscambio e la manipolazione dei dati;

• XMLHttpRequest, un’API che gestisce i messaggi di interscambio di informazioni tra client e server;

• JavaScript che collega assieme tutto questo.

Alcuno browser che non supportano JavaScript non possono far girare le applicazioni RIA sviluppate con AJAX ma
si tratta di pochi prodotti obsoleti. Tutti i nuovi browser, ed in particolar modo quelli come Mozilla Firefox e Google
Chrome progettati nell’ottica del web 2.0, integrano JavaScript.

2.3.3 XML e CSS


XML (acronimo di eXtensible Markup Language) è definito da Wikipedia come “metalinguaggio di markup, ovvero
un linguaggio marcatore che definisce un meccanismo sintattico che consente di estendere o controllare il significato
di altri linguaggi marcatori”. Il altre parole non si tratta di un vero e proprio linguaggio ma di uno standard di
descrizione dei documenti.

XML si differenzia dall'HTML per la possibilità di creare i propri tag e per il fatto che specifica solo il contenuto
della pagina e non lo stile della presentazione, e quindi ovviamente deve essere sempre implementato con i CSS,
ovvero i fogli stile.

XML è stato inventato dal consorzio W3C di Tim Berners-Lee, a sua volta inventore del HTML, e sta trovando la
sua affermazione grazie ai concetti del web 2.0, poiché costituisce un valido strumento di interazione tra i formati di
presentazione dei documenti e permette quindi di effettuare quelle relazioni come feed e mashup in modo semplice
ed efficace.

Infatti XML viene utilizzato per il trasferimento delle informazioni provenienti dalle sorgenti più diverse, sia
applicazioni come Word o Excel che browser o feed reader o database. La loro presentazione sarà guidata dai tag di
XML, i quali inoltre assegnano al documento una semantica ponendo così una base di sviluppo per il passo
successivo di Internet che già molti battezzano come web 3.0 ovvero il web semantico.

26
Nell’esempio riportato di seguito consideriamo la homepage del quotidiano La Repubblica in cui si trovano le
notizie principali: La loro disposizione deriva da precise scelte editoriali, le notizie da evidenziare sono corredate da
una fotografia, alcune hanno solo il testo, altre appena un riquadro.

Ma quando viene adoperato un lettore RSS per esportare su un’altra pagina le ultime notizie in ordine cronologico
servono solo i testi delle notizie e non le modalità di impaginazione o la loro importanza e quindi serve proprio
quella funzione di separazione tra forma e contenuto di cui si è detto sopra.

Nella figura seguente sono riportate due modalità di presentazione delle notizie estratte dalla homepage di
Repubblica. Sono dei feed reader disponibili sul sito Netvibes.com, agendo su un form di impostazione di facile
utilizzo si modificano i CSS e quindi l’aspetto della presentazione.

27
L’utilità dei CSS emerge infine quando si tratta di esportare le applicazioni web su supporti del tutto diversi. Ad
esempio Google Maps è diffuso sugli schermi dei dispositivi fissi, dei portatili ed anche dei telefoni cellulari e le
diverse modalità di visualizzazione vengono impostate nei fogli stile.

2.3.4 Web Service e SOAP


Il Web service è probabilmente il concetto più innovativo del web 2.0 e si accorda perfettamente al principio di
minimizzare le operazioni ricorrenti ed utilizzare ciò che è disponibile in rete.

L’idea nuova risiede nella interazione tra siti. Un sito ha la possibilità di fare interrogazioni su altri siti in una specie
di catena di trasferimento continuo dei dati. In questo senso i siti interrogati fornisco il web service, ovvero
forniscono una funzionalità o un calcolo, attraverso una applicazione, al sito che lo abbia richiesto mediante una
interrogazione XML.

Per consentire ai messaggi XML di collegare piattaforme di tipo diverso è necessario utilizzare un protocollo per lo
scambio di messaggi tra componenti software. Il più affermato è un protocollo chiamato SOAP (Simple Object
Access Protocol).

SOAP definisce una prima struttura XML per eseguire una procedura e passare i parametri necessari ed una seconda
per la ricezione delle informazioni richieste, o eventualmente del codice di errore se il server non può eseguire
l’operazione richiesta.

SOAP non definisce il modo in cui i siti ricevono ed inviano i messaggi né specifica come il messaggio ricevuto crea
l’istanza all’oggetto o alla procedura richiesta, queste operazioni dipendono dalla piattaforma.

28
Nell’esempio riportato di seguito (un caso fortemente semplificato come l’addizione di due numeri) è possibile
vedere nel messaggio di invio come la procedura richiesta ed i parametri necessari siano identificati utilizzando i tag
di XML. Lo stesso sistema è utilizzato nel messaggio di risposta per identificare il dato richiesto.

Il messaggio di richiesta come


appare con l’utilizzo di SOAP

Il messaggio di risposta

Un metodo alternativo per fornire i servizi web è REST (REpresentational State Transfer), si tratta di un modello
leggero di interfaccia che trasmette dati su HTTP senza un livello opzionale come SOAP e senza gestione della
sessione tramite i cookies. REST assegna ad ogni oggetto o elemento un URL e li gestisce utilizzando le Remote
Procedure Call.

I web service di Amazon.com possono gestire di entrambe le forme di interscambio. La prima aderisce ai formalismi
dei web service di SOAP (Simple Object Access Protocol), la seconda fornisce semplicemente dati XML
nell’HTTP, con l’approccio leggero di REST.

Le connessioni B2B ad alto valore (come quelle tra Amazon e i partner rivenditori, come ToysRUs) utilizzano lo
stack SOAP, mentre tutte le altre (che rappresentano secondo Amazon il 95% dell’utilizzo complessivo) avvengono
con il servizio REST.

29
3 Strumenti di sviluppo per le applicazioni web 2.0

3.1 Adobe

La Adobe Systems Incorporated è una delle software house più famose grazie ai suoi prodotti per
video e grafica digitale e soprattutto grazie al formato di documento multipiattaforma PDF (Portable
Document Format), concepito per creare e diffondere documenti compatibili con tutti i sistemi
operativi oggi diffusi. Nel 2005 Adobe ha acquisito Macromedia, storicamente legata al formato Flash, integrando
così la sua già autorevole posizione e ponendosi come il più grande produttore di strumenti di sviluppo per il web.

3.1.1 Flash
Adobe Flash è un software nato con Macromedia per un uso prevalentemente grafico che
consentiva di creare animazioni vettoriali principalmente per il web. Viene utilizzato inoltre per
creare giochi o interi siti web e grazie all'evoluzione delle ultime versioni (la suite CS4 è del
novembre 2008) è divenuto un potente strumento per la creazione di RIA e anche di piattaforme
per lo streaming audio/video.

Flash permette di creare animazioni complesse e multimediali che possono gestire forme vettoriali, testo (sia statico
sia dinamico), immagini raster di ogni formato, audio (MP3, WAV e altri), video (AVI, QuickTime, MPEG,
Windows Media Video, FLV) e naturalmente altre animazioni create con Flash.

Inoltre, grazie alla presenza di un linguaggio di scripting interno denominato ActionScript permette di creare
animazioni interattive, definendo comportamenti degli oggetti o dei fotogrammi dell'animazione.

Flash prevede la possibilità di mantenere simboli riutilizzabili in una libreria. Esistono diverse tipologie di simboli,
fra i quali semplici oggetti grafici, clip filmato (sotto-animazioni con una timeline propria e indipendente da quella
principale), pulsanti e oggetti bitmap. Questa caratteristica semplifica il lavoro dello sviluppatore, che può
modificare tutte le istanze presenti nell'animazione modificando il simbolo nella libreria, e crea comportamenti
interattivi complessi applicando del codice agli oggetti. Inoltre riduce le dimensioni del file SWF prodotto.

3.1.2 Flex
Adobe Flex è la colonna portante per un gruppo di tecnologie inizialmente rilasciate a marzo 2004
da Macromedia per supportare lo sviluppo di applicazioni internet basate sulla loro piattaforma
proprietaria Flash. L'obiettivo di Flex è quello di permettere un rapido e facile sviluppo di
applicazioni Rich Internet Application, o meglio conosciute come RIA.

Per lo sviluppo di interfacce Flex usa un linguaggio XML chiamato MXML ed è provvisto di componenti e
caratteristiche interessanti come web services, oggetti remoti, drag and drop, effetti di animazioni e altre semplici
interazioni.

30
Il client viene caricato una volta sola, il funzionamento è migliorato moltissimo grazie al linguaggio Flex e la sua
strutturazione in sorgenti MXML per l’interfaccia grafica utente ed ActionScript per la logica. La struttura distingue
la logica della programmazione dal design implementando di fatto il pattern basato sulla separazione dei compiti fra
i componenti software del modello MVC.

3.1.3 Air
Air (Adobe Integrated Runtime), rilasciato nel giugno 2008, è un sistema di runtime che permette
agli sviluppatori di utilizzare i loro strumenti per lo sviluppo sul web. E’ una applicazione multi
piattaforma orientata alla creazione e distribuzione di RIA e si rivolge perlopiù ad operatori
piuttosto esperti che già conoscono ed utilizzano tecnologie web come Flash, Flex, HTML, Javascript e AJAX.

Air permette di sviluppare applicazioni combinando in diversi modi le tecnologie suddette. Le applicazioni basate su
Flash possono includere contenuto basato su HTML, e le applicazioni basate su HTML possono usare contenuti
creati con Flash. Inoltre, le applicazioni Air possono integrare anche documenti in PDF.

3.2 Microsoft

Non c’è dubbio che Microsoft ha sempre venduto software come si vende un
prodotto ed è proprio per questo motivo che il web 2.0 rappresenta più una
minaccia alla sua egemonia che una opportunità per il suo sviluppo. Tuttavia,
almeno per il momento, il colosso di Bill Gates tiene e rilancia con Windows 7 cercando di far dimenticare alla
svelta il flop di Vista. Nel campo degli strumenti di sviluppo già nel 1997 Microsoft lanciò FrontPage, un
programma che aveva il suo punto di forza nella semplicità d’uso grazie al WYSIWYG. Dal 2002 ha iniziato lo
sviluppo della suite Visual Studio.

3.2.1 Visual Studio .NET


Visual Studio .NET è un ambiente di sviluppo integrato, che supporta diversi tipi di
linguaggio, quali C++, C#, J#, Visual Basic .Net e ASP .Net, e che permette la
realizzazione di applicazioni, siti web, applicazioni web e servizi web. È inoltre un RAD
(Rapid Application Development), ovvero una applicazione atta ad aumentare la
produttività aiutando il programmatore con mezzi come l'IntelliSense o un designer visuale delle forms. Visual
Studio .NET è inoltre multipiattaforma: con esso è possibile realizzare programmi per server, workstation, pocket
PC, smartphone e, naturalmente, per i browser.

Esiste nella versione di pubblico dominio con funzionalità di base (Express), nella versione classica professionale
adatta alla maggior parte degli sviluppatori (Standard), nella versione avanzata per sviluppatori professionisti

31
(Professional) e in due versioni a prezzo ridotto dedicate agli studenti (Standard Education e Professional Education)
i cui prodotti di sviluppo non sono commercializzabili.

3.2.2 Expression
Microsoft Expression è una suite per sviluppatori Web che comprende diversi strumenti per
grafica, sviluppo ed implementazione di applicazioni interattive. Alcuni degli strumenti della
suite, rivolti ai diversi aspetti dello sviluppo sono:

• Web è lo strumento per la creazione di pagine interattive con standard di qualità elevati e compatibilità con
più browser. Semplifica l'integrazione dei dati utilizzando strumenti e riquadri attività per la progettazione
ASP.NET, PHP e XML sfruttando le funzionalità di progettazione CSS. E’ integrato con Visual Studio e
prevede finestre di progettazione visiva, riquadri attività specializzati e barre degli strumenti di controllare
del layout della pagina. Importa oggetti grafici su più livelli da Adobe Photoshop o elementi grafici
suddivisi in sezioni da Design.

• Blend dedicato allo sviluppo di interfacce utente può combinare diversi elementi di progettazione come
video, grafica vettoriale, testo, animazioni, immagini pixel e contenuti 3D. dispone di un set di strumenti
che include contenitori e controlli avanzati.

• Design comunicando con XAML, la proposta di Microsoft per la progettazione di interfacce, supporta
Blend nella creazione degli oggetti vettoriali ed effetti non distruttivi che possono essere applicati anche a
immagini bitmap importate. Cura il passaggio dal concetto iniziale di risorse di progettazione agli elementi
dell'interfaccia e oggetti grafici fino al prodotto finito.

• Media modalità per la ricerca e l’importazione mediante trascinamento di immagini, video, illustrazioni,
file audio, caratteri, pagine HTML e documenti per più di 100 formati multimediali diversi. Può rinominare
convertire o contrassegnare in fase di importazione centinaia di file contemporaneamente grazie alla
funzionalità di elaborazione batch. Permette di modificare le immagini e mantenere traccia delle modifiche
con il controllo della versione e di utilizzare la funzionalità di controllo cartelle per mantenere aggiornati i
cataloghi.

• Encoder: attraverso una semplice interfaccia consente di creare contenuti con codifica VC-1 in una
soluzione Silverlight. Codifica un'ampia gamma di formati di file per preparare i contenuti multimediali per
Silverlight. Encoder consente di modificare in modo semplice una clip con l’aggiunta di titoli, metadati,
didascalie, annunci pre-roll e post-roll. Può importare diversi formati tra cui QuickTime, AVI, MPEG.

32
3.2.3 Silverlight
Silverlight è un ambiente di runtime sviluppato da Microsoft per piattaforme Windows e Mac che
consente di visualizzare all'interno del browser applicazioni multimediali ad alta interattività.

Già nella sua prima versione Silverlight esponeva i dati attraverso delle API simili al DOM del
browser ed era dunque possibile programmarne le interazioni con JavaScript. Inoltre includeva un encoder di formati
video e un interprete del linguaggio XAML. La seconda versione è stata completata con il Common Language
Runtime ed il Dynamic Language Runtime che permette a Silverlight di gestire anche applicazioni scritte con gli
strumenti di sviluppo della piattaforma Microsoft.Net.

Con questo prodotto Microsoft punta ad insidiare la leadership detenuta dalle tecnologie Flash di Adobe. Importanti
accordi per la diffusione di tale tecnologia sono stati stretti con Nokia e Rai che ha deciso di avvalersi di questa
tecnologia per la diffusione in streaming web dei contenuti audiovisivi del proprio sito. Inoltre questa tecnologia è
stata usata per la trasmissione online dei contenuti delle olimpiadi di Pechino 2008 sul portale dell'MSNBC, canale
televisivo di cui Microsoft è comproprietaria.

3.3 Sun

Sun Microsystems è un'azienda della produttrice di software e semiconduttori nota, tra le


altre cose, per avere prodotto il linguaggio di programmazione Java. La piattaforma Java è
stata sviluppata negli anni Novanta con l'obiettivo di disporre di programmi indipendenti
dalla macchina su cui sono usati e per questo i programmi Java sono compilati in codice binario che poi viene letto
dalla macchina virtuale JVM.

La piattaforma consiste di tre parti principali: il linguaggio Java, la Java Virtual Machine (JVM) e lo Java API. Il
linguaggio Java è un linguaggio di programmazione orientato agli oggetti derivato dal linguaggio C, è stato
introdotto nel 1995 ed è diventato uno dei linguaggi di programmazione più popolari del mondo.

3.3.1 Java FX
Si tratta di una piattaforma software per la creazione e sviluppo di RIA che, come da
tradizione Java, possono girare su un’ampia varietà di sistemi. La versione corrente,
rilasciata nel febbraio 2009, una uno specifico linguaggio di script (JavaFXScript) e
permette di realizzare applicazioni per desktop, browser e telefoni cellulari.

JavaFX è completamente integrato con l’ambiente di runtime Java Runtime Environment (JRE) così le applicazioni
sviluppate con FX girano su ogni sistema che implementa JRE e sui cellulari che implementano Java ME, la
piattaforma per i sistemi mobili. Attualmente Java FX supporta i sistemi operativi Windows XP, Windows Vista e
Mac OS, l’intenzione di Sun è di supportare anche Linux in un futuro prossimo.

33
La versione corrente della piattaforma include:

• JavaFX SDK: contiene strumenti per la compilazione ed il runtime, librerie, grafica, multimedia e web
service.

• NetBeans IDE: permettono di aggiungere, con modalità drag and drop, oggetti con effetti, animazioni e
trasformazioni.

• Tools per convertire oggetto grafici SVG in codice JavaFXScript con anteprima di visualizzazione.

• Plugins per Adobe Photoshop e Adobe Illustrator che permettono di importare in codice JavaFXScript
elementi di grafica.

Molti prospettano che JavaFX possa competere seriamente anche sul desktop con le più diffuse applicazioni Adobe
Flash Player, Adobe AIR, OpenLaszlo, e Microsoft Silverlight.

3.4 Strumenti open source e free

Nel settore del software open source si trovano validi strumenti per lo sviluppo di applicazioni web (Linux, Apache,
MySql, PHP), con il crescere dell'interesse di pubblico e programmatori, è prevedibile un ulteriore incremento di
qualità ed offerta, decisivo al fine di costituire una vera alternativa agli strumenti proprietari. Anche nel campo dei
CMS (Content Management System), l’accelerazione degli ultimi anni è evidente.

Quelli riportati di seguito sono esempi di strumenti concepito per lo sviluppo di pagine web ed in particolare per
implementare nelle pagine i principi del web 2.0.

3.4.1 OpenLazlo
OpenLaszlo è una piattaforma open source, rilasciata sotto la licenza
Open Source Initiative-certified Common Public License, per lo sviluppo
di applicazioni web RIA. OpenLaszlo originariamente, nel 2001, fu
rilasciato con il nome di "Laszlo Presentation Server" (LPS). La prima release di LPS fu rilasciata agli inizi del
2002. Nell'Ottobre del 2004, Laszlo Systems rilasciò il codice sorgente del Laszlo Presentation Server sotto licenza
GPL, dando il via all'OpenLaszlo project. Nel 2005, in coincidenza con il rilascio della versione 3.0, il nome del
Laszlo Presentation Server fu cambiato in OpenLaszlo.

La piattaforma OpenLaszlo è basato sul linguaggio LZX, risultante dalla fusione di aspetti dichiarativi derivanti
dall'XML con altri tipici della programmazione imperativa Object-Oriented derivanti da JavaScript, e su un
OpenLaszlo Server, in sostanza una servlet Java che compila le applicazioni LZX in binari eseguibili per la
macchina di destinazione.

Le applicazioni Laszlo possono essere sviluppate come tradizionali servlets Java, il cui output viene dinamicamente
restituito al browser. In questo caso è necessario che il WebServer abbia in esecuzione l'OpenLaszlo server.

34
In alternativa, le applicazioni Laszlo possono essere compilate da LZX in un file SWF e caricate staticamente in una
pagina web esistente. Questa tecnica è nota come "SOLO deployment". Le applicazioni sviluppate in questo modo
mancano di alcune funzionalità rispetto alla versione basata su servlet, come ad esempio la possibilità di interazione
con Web Services tramite il protocollo SOAP e la possibilità di effettuare invocazioni a procedure remote (RPC)
XML.

3.4.2 Mozilla XUL


XUL (XML User Interface Language) è un linguaggio di Mozilla basato su XML che permette di creare applicazioni
multipiattaforma, ricche di funzionalità, che possono funzionare connesse a Internet oppure no. Queste applicazioni
possono essere facilmente personalizzate con testi alternativi, elementi grafici, e layout, in modo da essere facilmente
localizzate. Gli sviluppatori web che già conoscono l'HTML dinamico (DHTML) imparano facilmente XUL e
possono iniziare a sviluppare rapidamente.

3.4.3 Google Toolkit


Anche Google ha rilasciato un sistema di compilazione chiamato Google Web Toolkit (GWT). Si tratta di un
pacchetto software open source che consente di sviluppare applicazioni AJAX veloci e altamente ottimizzate Gli
sviluppatori possono scrivere codice in linguaggio Java, utilizzando i loro strumenti IDE preferiti, e successivamente
compilare il codice sorgente in normale JavaScript da utilizzare come qualsiasi altro script per siti web.

Il prodotto rilasciato da Google introduce nel mondo open source una filosofia diversa perché rimpiazza parte degli
applicativi della Gnu Toolchain grazie all’utilizzo di SCons. Software Construction Toolkit, noto anche col nome di
swtoolkit, che si presenta come un albero di sorgenti già dotato al suo interno di tutti i tool per l’amministrazione
della compilazione. Con questo prodotto è possibile costruire alberi di sorgenti multipiattaforma, compilabili quindi
su Windows, Linux e MacOS. In realtà Software Construction Toolkit è già stato integrato in parte nello stesso
Google Chrome, o meglio Chromium il core open source di Chrome.

35
4 Esempi di successo

4.1 Google e la piattaforma integrata

Google, nato nel 1998 come motore di ricerca per Internet, è stato creato da due studenti dell'Università di Stanford
Larry Page e Sergey Brin i quali svilupparono l’idea che un motore di ricerca basato sull'analisi matematica delle
relazioni tra siti web avrebbe prodotto risultati migliori rispetto alle tecniche empiriche usate precedentemente. Così
seguendo questo algoritmo, chiamato PageRank e ispirato dall'algoritmo HyperSearch ideato dal matematico italiano
Massimo Marchiori, in base al quale le pagine citate con un maggior numero di link sono le più importanti e
meritevoli, Google si è affermato sui concorrenti ed è diventato popolare al punto che nella lingua inglese è nato il
verbo “to google” che ha esattamente il significato di fare una ricerca sul web.

Secondo Google l’algoritmo PageRank, basato sullo specifico carattere democratico dei Web, sfrutta la vastissima
rete di collegamenti associati alle singole pagine per determinarne il valore. In pratica, Google interpreta un
collegamento dalla pagina A alla pagina B come un voto espresso dalla prima in merito alla seconda. Tuttavia, non si
limita a calcolare il numero di voti o collegamenti assegnati a una pagina. Oltre ad effettuare questo calcolo, Google
prende in esame la pagina che ha assegnato il voto. I voti espressi da pagine importanti hanno più rilevanza e quindi
contribuiscono a rendere importanti anche le pagine collegate.

La parola Google deriva da googol, termine coniato da Milton Sirotta nel 1938, per riferirsi al numero rappresentato
da 1 seguito da 100 zeri. L'uso della parola fatto da Google riflette la volontà della società di organizzare l'immensa
quantità di informazioni disponibili sul Web. Il termine viene inoltre associato con un gioco di parole all'inglese
goggles, binocolo, riferendosi al fatto che il motore permette di guardare da vicino la rete. Un'altra ipotesi associa la
parola google ad un auspicio per la caccia di una popolazione africana.

La homepage di Google è
l’esempio estremo di una
pagina web 2.0 caratterizzata
da semplicità e chiarezza del
contenuto

36
Google utilizza un parco macchine con più di 450.000 computer GNU/Linux per rispondere alle ricerche e
catalogare il web. Grazie a questa enorme potenza di calcolo, Google è in grado di effettuare una ricerca su milioni
di pagine web in alcuni millisecondi, di indicizzare un elevato numero di contenuti ogni giorno, di fare molti mirror e
istanze dello stesso processo informatico su più server.

Tutte le pagine di Google sono indicizzate in maniera automatica da un algoritmo statistico che valuta la pertinenza
del sito con le parole chiave indicate, quale parole assegnargli, il numero di accessi e altri parametri come indicatori
di qualità del sito. Tuttavia Google conserva una copia cache di tutte le pagine indicizzate e la cancella dai suoi
server solo su esplicita richiesta del titolare del sito o provider Internet.

La catalogazione è fatta da un programma (googlebot) che richiede periodicamente nuove copie delle pagine web
che conosce. I link in queste pagine vengono esaminati per scoprire nuove pagine e aggiungerle nel database, il cui
indice, insieme alla cache, occupa milioni di terabyte.

Oggi Google ha ampliato i limiti di un semplice motore di ricerca, non si limita a catalogare il web, ma si occupa
anche di immagini, foto, newsgroup, notizie, mappe, video, oltre a mantenere una copia cache di tutte le pagine che
conosce. Con un indice che comprende più di otto miliardi di pagine Web, è riconosciuto come il più grande e
affidabile tra i motori di ricerca, occupandosi attraverso il suo sito di oltre il 70% di tutte le ricerche effettuate su
internet.

Google evidenzia sulla sua


pagina dei risultati i link
sponsorizzati pubblicati sulla
fascia colorata e sulla barra
laterale.

Ma il successo economico di Google è legato soprattutto allo sviluppo di AdWords, introdotto nel 2000. AdWords è
un sistema di self service automatizzato per la pubblicità online, pensato in modo specifico per quella lunga coda di
utenti che mai prima avevano intrapreso questa strada.

37
AdWords è basato su un’idea lanciata da GoTo, poi ribattezzato Overture, il pay-per-click, ovvero l’inserzionista
vedeva pubblicata la sua pubblicità sulla pagina di chi faceva ricerche con parole attinenti all’oggetto
commercializzato e pagava qualche centesimo (da 1 a 10 a seconda di parametri commerciali) solo se l’utente
cliccava sul suo link.

Il vantaggio della pubblicità sviluppata in questo modo è certamente l’individuazione del target di clienti ideale e
l’approccio amichevole che offre la presentazione dei link sulla barra laterale della pagina in contrapposizione con i
banner o peggio con gli invadenti pop-up (le finestre che si aprono da sole all’accesso ad un sito) della pubblicità in
stile web 1.0.

Con AdWords in pochi


passaggi è possibile per
chiunque pubblicare la propria
pubblicità online

Il valore dell’algoritmo PageRank e di Google in generale è stato determinante per l’affermazione di AdWords in un
campo dove la concorrenza era radicata da più tempo. In solo tre anni AdWord ha soppiantato Overture ed Excite ed
ha permesso a Google di essere la web company che ha generato il maggior reddito online nel 2007 con un aumento
degli introiti pubblicitari del 63% rispetto all’anno precedente.

Il successo di AdWords è dovuto anche alla sua estrema semplicità a partire dal form di accesso (vedi la figura
precedente) e dalla sua estrema versatilità. Infatti è possibile personalizzare la propria campagna pubblicitaria
indicando dei limiti di budget giornaliero, selezionando le aree geografiche dove far comparire l'annuncio, e
naturalmente scegliendo le parole chiave che determinano la sua visualizzazione.

AdSense invece è in un certo senso la parte complementare di AdWords. Si tratta di un servizio offerto da Google
con il quale si dà la disponibilità a pubblicare annunci pubblicitari sul proprio sito web, guadagnando sempre in base
al numero di click sugli annunci. Il servizio è collegato con AdWords, ed è in grado di gestire gli annunci degli
inserzionisti adattandoli al contenuto della pagina web in base alla pertinenza.

AdSense è uno dei circuiti pubblicitari più efficaci esistenti in rete. La registrazione al servizio è gratuita e necessita
di un account Google. Entro 48 ore viene confermata o respinta la richiesta di affiliazione al programma. In caso di
esito positivo è possibile utilizzare il servizio da subito, accedendo alla sezione AdSense del proprio account
Personale. Il servizio consente di selezionare il tipo di annunci da pubblicare sul proprio sito (scegliendo tra annunci,

38
referral, motori di ricerca personalizzati e annunci per cellulari). È anche possibile personalizzare il banner
scegliendone forma, dimensione e colori, così da poterli adattare al meglio alla pagina.

Un’altro dei servizi che più ha contribuito a fidelizzare l’utente a Google è senza dubbio Gmail. Rilasciato nel marzo
2004, è un servizio di posta elettronica online con alcuni valori aggiunti permessi proprio dall’integrazione con il
motore di ricerca.

Innanzitutto Gmail è gratuito, lo spazio di archiviazione reso disponibile per ogni utente è talmente grande che è
possibile archiviare tutte le mail senza dover effettuare alcuna cancellazione, le mail possono poi essere rintracciate
tramite un sistema di tag personalizzati.

Nella schermata di accesso, visibile qui sotto, è integrata una barra per la ricerca sia nella posta che nel web, in
questa barra come in quella degli indirizzi è sempre presente la funzione di completamento automatico.

Tutto sotto controllo dalla


prima pagina di Gmail, con
possibilità di ricerca tramite
motore Google all’interno
della posta o nel web

Oltre a tutto ciò Google offre gratuitamente tutta una serie di servizi di cui i più importanti sono:

• Googlechrome: è un browser che combina le diverse tecnologie del motore di ricerca, è possibile digitare
direttamente nella barra degli indirizzi e ricevere suggerimenti sulla ricerca e sulle pagine web, attraverso le
miniature dei siti web più visitati si può accedere istantaneamente alle proprie pagine preferite da qualsiasi
nuova scheda e aprire una finestra di navigazione in incognito quando non si desideri registrare la
cronologia di navigazione.

• Google Desktop: è una utility che permette di effettuare le ricerche sul proprio computer con le
caratteristiche di Google, personalizzabile con widget vari.

• Google Earth: è una applicazione web che simula il sorvolo della terra in un ambiente 3D realizzato
attraverso immagini satellitari, è possibile esplorare i luoghi geografici, salvare le località visitate e
condividerle con altri utenti.

• Google Labs: è definito come “un campo di prova”, presenta le possibilità di provare alcune funzioni
ancora in fase di sviluppo per poi suggerire le possibili migliorie direttamente agli sviluppatori.

39
• Google Maps: è l’applicazione più famosa, le sua API sono utilizzate per migliaia di siti di mapping di ogni
genere. Si tratta di un servizio che consente la ricerca e la visualizzazione di mappe geografiche di buona
parte della Terra. Oltre a questo è possibile ricercare servizi in particolari luoghi, tra cui ristoranti,
monumenti, negozi, trovare un possibile percorso stradale tra due punti e visualizzare foto satellitari di
molte zone con diversi gradi di dettaglio (vedi le immagini seguenti). Negli Stati Uniti questo servizio è
integrato da Google Local una funzione che offre una ricerca di attività commerciali sulle stesse mappe.

• Google Docs: è un programma la cui versione beta è disponibile sul sito di Google dal 2007. Si presenta
come un diretto concorrente di Microsoft Office ed Excel poiché permette di salvare documenti di testo e
fogli di calcolo nei formati .doc, .odt e .pdf. Si tratta di una applicazione web (nella figura seguente è
riportata la pagina di accesso) che risiede sul server Google e viene lanciata da remoto, non richiede
l'installazione di alcun software sul computer locale. Nemmeno i dati sono salvati in locale, questo consente
di condividere il file con altri utenti invitati con diversi livelli di privilegio (sola lettura, accesso in scrittura
ad alcune parti o a tutto il documento) e di utilizzare il file da qualunque computer si colleghi alla casella di
posta. La conservazione dei dati centralizzata è protetta da cifratura e dall'adozione di protocolli di
comunicazione sicura (come SSL).

40
Da quando Google è diventato uno dei motori di ricerca più popolari, molti webmaster hanno cominciato a seguire e
cercare di spiegare i cambiamenti nel posizionamento (rank) del loro sito. Una nuova categoria professionale è nata
per assistere i webmaster e le aziende nel migliorare la posizione dei loro siti nei risultati delle ricerche su Google,
così come su altri motori di ricerca. Questi consulenti si occupano di un'attività chiamata “ottimizzazione per i
motori di ricerca” (dall'acronimo statunitense SEO: Search Engine Optimization) che si propone di creare pagine e
siti che rispettino le regole dei motori di ricerca riuscendo a migliorare la propria posizione nelle pagine dei risultati.

Una delle sfide più importanti di Google, ora che il motore è diventato popolare tra gli utenti del web, è impedire che
soggetti spregiudicati riescano a forzare le debolezze dell'algoritmo per sovvertire i risultati delle ricerche a loro
vantaggio. Molti consulenti di ottimizzazione scarsamente professionali hanno utilizzato tecniche artificiose e
dannose per influire sul posizionamento dei siti di alcuni loro clienti. Google è riuscito a limitare molti di questi
tentativi raffinando il proprio algoritmo per individuare i siti che realizzano abusi e limitarne la rilevanza nei risultati
o addirittura rimuovere questi siti dai suoi archivi.

Un corretto posizionamento fra i risultati di Google può portare a ritorni economici elevati, soprattutto per i siti di e-
commerce. La scelta di un consulente serio è spesso strategica per la sopravvivenza o il successo di un sito. Per
questi motivi, Google ha pubblicato un insieme di linee guida per aiutare i proprietari di siti a capire come
individuare i consulenti professionali e come evitare truffe e raggiri da parte di operatori scorretti.

41
4.2 Flickr e il valore degli utenti

Flickr è un sito che offre agli utenti registrati la possibilità di condividere le proprie fotografie. Deve certamente il
suo successo al grande sviluppo avuto dalla fotografia digitale nell’ultimo decennio ma anche all’impostazione del
sito, che è decisamente orientata ai principi del web 2.0, ed ai numerosi servizi, per la maggior parte gratuiti che
offre.

Flickr è nato nel 2002 sulle vestigia di un sito di game online e nell’arco di 3 anni ha raccolto 1.800.000 immagini. Il
trend di crescita ha convinto Yahoo a scommettere sul futuro di Flickr acquistandolo nel 2005 per una cifra superiore
ai 30 milioni di dollari.

Oggi contiene più di 400.000.000 di immagini che crescono al ritmo di 3000 fotografie al minuto e 2.500.000 al
mese. Una stima prudente accredita la comunità di Flickr di più di quattro milioni di utenti.

La homepage di Flickr è
caratterizzata dalla semplicità
e dalla chiarezza dei contenuti

La home page di Flickr è un tipico esempio di interfaccia utente leggera in pieno stile Google, un logo chiaro, un
campo per la ricerca, qualche link a utilità per gli utenti registrati, un collegamento ad un breve tour di
presentazione.

Tutte le foto pubblicate sul sito sono protette da copyright (ovvero tutti i diritti sono riservati) ma è anche possibile
pubblicare le proprie opere riservandosi solo alcuni diritti previsti dalla legge sul diritto d'autore selezionando una
delle licenze Creative Commons; in questo modo si può consentire, ad esempio, la copia, la riproduzione in pubblico
o la modifica delle fotografie. Allo stesso modo anche l’accessibilità alle fotografie pubblicate può essere illimitata
cioè visibile a tutti o ristretta a gruppi predefiniti. Più dell’ 80% delle foto caricate sono ad accessibilità totale.

42
L’inserimento delle foto è possibile in diverse modalità che comprendono l’upload da pagina web o da applicativi
propri di Flickr o Windows o altri o anche l’invio tramite email. Quest’ultimo sistema è particolarmente usato per
inviare le foto scattate con i telefoni cellulari. A tutte le foto si possono aggiungere titoli, commenti e metadati (tag).

Tramite l’applicativo Organizr si possono raggruppare le foto in album tematici (set) a loro volta organizzati in
raccolte in modo da riunire le fotografie in gruppi omogenei.

L’applicativo Organizr che


permette di gestire la
propria raccolta di foto è
semplice ed intuitivo.

Un’altra funzione di Organizr permette di collegare la foto con il luogo in cui è stata scattata indicandolo su una
cartina. L’utilizzo di questa funzione implementa un database che permette per esempio di trovare nel sito tutte le
foto che sono state scattate in un preciso luogo.

La cartina di supporto
permette sia di indicare il
luogo dello scatto delle
proprie foto che di ricercare le
foto scattate da altri utenti in
un certo luogo

43
Il sito promuove inoltre la partecipazione degli utenti, ci sono più di 100.000 gruppi di interesse attivi tra pubblici e
privati nei quali è possibile condividere le foto ed i commenti di carattere più o meno tecnico.

Tutte le funzioni ed i servizi di cui si è detto fin qui sono offerte gratuitamente a tutti gli utenti previa una semplice
registrazione, ma naturalmente sono presente anche una serie di servizi a pagamento.

Un account di tipo professional a pagamento (24,95 $ al mese) consente una navigazione senza pubblicità, immagini
a piena definizione, spazi illimitati per le proprie foto e permette inoltre di caricare filmati.

Un servizio di stampa in partnership con consegna in tutto il mondo permette invece di stampare le foto su carta, su
album rilegati e perfino su carta di credito.

Ma oltre ai servizi a pagamento ci sono diversi altri modi, tutti in linea con i principi del web 2.0, con cui Flickr ha
creato valore semplicemente utilizzando l’attività della sua comunità:

• La condivisione dei contenuti è un passo importante nella direzione dei sistemi aperti che hanno un impatto
positivo dapprima su sviluppatori e quindi su prodotti e servizi e successivamente sul mercato dei mass
media e sugli utenti, in definitiva sui consumatori. Grazie alle API aperte altre aziende hanno sviluppato
applicazioni per le più diverse piattaforme (ad esempio degli uploader per cellulari o per lo SmartPhone), e
anche questo ha consentito a Flickr di affermarsi come riferimento incontrastato della fotografia digitale in
internet.

La nuvola dei tag indica con


caratteri più grandi quelli
utilizzati più di frequente

• Le annotazioni ed i tag aggiunti dagli utenti alle foto (più dell'85% delle foto ne sono provviste) sono una
forma di metadati, che servono ad interpretare ed evidenziare alcuni aspetti particolari della foto. I metadati
creano la categorizzazione dei contenuti e costituiscono un grande miglioramento della qualità delle
ricerche. Il sistema migliora in efficienza e questo di solito genera un aumento di utenti. Questa attività di

44
tagging non va vista come un tentativo di racchiudere tutti contenuti in categorie predefinite ma piuttosto, in
senso del tutto opposto, come l’aggiunta libera di un singolo valore al volume complessivo.

• Flickr fornisce un set integrato di strumenti e servizi, in stile web 2.0, orientato alla fotografia
scommettendo sull’incremento delle macchine compatte e dei cellulari con fotocamera e sulla
capillarizzazione della rete a banda larga. Completando questi servizi con l’uso di RSS Flickr è diventato il
riferimento per gran parte dei blogger più attivi il che assicura una visibilità se possibile ancora maggiore.

• Secondo i principi del social network, Flickr ha incoraggiato milioni di fotografi a esplorare nuove
esperienze e scoprire qualcosa di nuovo nella loro attività attraverso i gruppi di interesse, molti dei quali
sono legati ai viaggi. Questa grande attività è la conseguenza naturale dell’uso esteso dei metadati.

45
4.3 Facebook e il social network

Facebook, nato nel 2004 con il nome di Thefacebook, è il più popolare sito di social network, ed è ad accesso
completamente gratuito. Prende il nome dal tipico annuario pubblicato da alcuni college e scuole statunitensi che
contiene le foto di ogni singolo membro ed ha lo scopo di permettere ai nuovi studenti ed al personale della facoltà
di riconoscere le persone del campus.

In Facebook gli utenti possono fare parte di una o più reti partecipanti, come la scuola superiore, il luogo di lavoro o
la regione geografica ma gruppi tematici nascono negli ambiti più disparati.

Facebook è stato fondato da uno studente diciannovenne dell'università di Harvard, Mark Zuckerberg, in
collaborazione con Andrew McCollum e Eduardo Saverin con l’intenzione di creare una applicazione locale ed
interna al campus. Già nel primo mese la metà degli studenti erano registrati al servizio e questo presto si espanse
all’Università di Stanford, alla Columbia University e all’Università Yale.

Il sito, di cui sopra è riportata la homepage, dal 2006 è aperto a chiunque abbia più di 13 anni e si è trasformato in
una rete sociale che abbraccia trasversalmente tutti gli utenti di internet.

Attualmente il sito conta più di 180 milioni di utenti in tutto il mondo ed il suo valore è stimato in 16 miliardi di
dollari. Secondo il grafico riportato più avanti e tratto dal sito di informazione Alexa Internet Inc., azienda
statunitense sussidiaria di Amazon.com che si occupa di statistiche sul traffico di Internet, nell’aprile 2008 Facebook
ha superato nel volume di traffico generato il suo concorrente MySpace nato 6 anni prima.

Secondo lo stesso sito Facebook è passato dalla sessantesima alla settima posizione nella graduatoria del traffico dei
siti nel periodo tra il settembre 2006 ed il settembre 2007, cioè nel suo primo anno di apertura a tutti gli utenti del
web. Dal luglio 2007 compare stabilmente nella TopTen dei siti più visitati al mondo ed è il primo sito per numero di
foto negli Stati Uniti con oltre 60 milioni di foto caricate settimanalmente. In Italia la popolarità di Facebook ha
avuto il suo apice nell’agosto del 2008 con oltre un milione e trecentomila visite.

46
I dati riportati da Alexa
testimoniano il sorpasso di
Facebook su MySpace

Gli iscritti a Facebook possono scegliere di aggregarsi a una o più reti, organizzate per città, posto di lavoro, scuola e
religione. Spesso Facebook è stato paragonato a Myspace, ma mentre Myspace consente agli utenti di curare e
personalizzar la pagina personale usando l'HTML e il CSS, su Facebook è possibile solamente inserire del testo.

Dal 2007 è disponibile il servizio denominato Marketplace, che consente agli utenti di postare degli annunci, che
risultano visibili soltanto agli utenti presenti nella stessa rete. Facebook inoltre include alcuni servizi che sono
disponibili sul dispositivo mobile, come la possibilità di caricare contenuti, di ricevere e rispondere ai messaggi, di
mandare e ricevere poke (letteralmente spinte) e scrivere sulla bacheca degli utenti usando SMS, e la possibilità di
navigare sul network.

Un'altra funzione del profilo di Facebook è il “mini-feed” che mostra le proprie azioni e quelle degli amici, in una
timeline pubblica non molto diversa da quella di Twitter. La differenza è che con gli aggiornamenti di Twitter, si
decide direttamente cosa sarà condiviso, mentre con il newsfeed di Facebook, ogni azione viene monitorata e
trasmessa. Tuttavia solo gli utenti aggiunti alla propria lista di amici saranno a conoscenza delle informazioni
riguardanti quali applicazioni sono state installate.

47
Per quanto riguarda la protezione dei dati personali, Facebook garantisce all'utente il diritto di chiedere informazioni
in merito ai dati personali posseduti da terzi, al loro trattamento, di vietarne la pubblicazione, e di rendere definitiva
la propria cancellazione dal sito.

Inoltre dal menù di impostazione del proprio profilo è possibile effettuare alcune azioni di controllo e gestione:

• Profilo: controlla chi può visualizzare il proprio profilo e le proprie informazioni personali;

• Ricerca: controlla a chi consentire la ricerca del proprio nome ed il contatto tramite e-mail;

• Applicazioni: controlla quali informazioni sono disponibili per le applicazioni che l’utente usa su
Facebook.

Il sociologo Cameron Marlow, in un articolo pubblicato online dalla rivista britannica The Economist, ha divulgato i
dati sulla socializzazione degli utenti registrati su Facebook. Secondo i dati interni al sito di social networking il
numero medio di amici per utente è 120.

Nell’attività di socializzazione le donne sono molto più attive degli uomini. Gli uomini in media rispondono solo a 7
dei loro amici con commenti alle foto o messaggi mentre le donne rispondono in media a 10 dei loro amici. Questa
tendenza si ripete anche nei sistemi di comunicazione a due come la chat o le e-mail, gli uomini socializzano
mediamente con 4 amici, mentre le donne con 6.

Anche quando gli utenti dispongono di una lista di amici enorme di diverse centinaia, in realtà i contatti frequenti o
di socializzazione sono molto più limitati. Un uomo mediamente invia commenti a 17 amici e si intrattiene in chat o
scambia e-mail con 10 di loro. La donna, anche in questo caso più socievole, invia commenti a 26 amici e chatta o
scambia messaggi di posta elettronica con 16 di loro.

48
4.4 Wikipedia e la partecipazione allargata

Wikipedia è un'enciclopedia online, a contenuto libero, redatta in modo collaborativo da volontari e sostenuta dalla
Wikimedia Foundation, un'organizzazione senza fine di lucro. L'obiettivo di Wikimedia Foundation è di creare
un’enciclopedia libera ed “universale” nel senso di trattare tutti i campi della conoscenza umana.

Wikipedia deriva il suo nome dalla composizione della parola wiki, un termine hawaiano che significa “veloce” e
che identifica un tipo di software collaborativo, e da pedia suffisso di enciclopedia del greco “insegnamento”.

Wikipedia è pubblicata in
250 lingue e contiene
complessivamente più di
dieci milioni di voci

La caratteristica più importante dello sviluppo tipo wiki di Wikipedia sta nel fatto che la collaborazione è aperta a
tutti grazie all’utilizzo di un sistema di modifica e pubblicazione aperto. Le pagine possono essere modificate da
chiunque e non c'è un comitato di redazione né alcun controllo preventivo sul materiale inviato.

Uno dei principi alla base di Wikipedia è il punto di vista neutrale, secondo il quale le opinioni presentate da
personaggi importanti o da opere letterarie vengono riassunte senza tentare di determinarne una verità oggettiva. A
causa di questa sua natura aperta, vandalismi ed imprecisioni sono problemi ricorrenti in Wikipedia, soprattutto sui
temi più sensibili come politica e religione.

Tuttavia questo non ne limita l’autorevolezza. Le voci di Wikipedia sono spesso citate dai mass media tradizionali e
da istituti accademici. Le edizioni in lingua tedesca, quella in lingua italiana ed una selezione di voci tratte dalla
versione in lingua inglese sono state distribuite su compact disc e DVD, mentre di molte edizioni sono stati creati dei
mirror online o dei progetti derivati.

49
Wikipedia è rilasciata nei termini della licenza GNU-FDL, una licenza di copyleft (copyright di tipo permissivo) per
contenuti liberi, creata dalla Free Software Foundation per il progetto GNU.

Wikipedia è gestita esclusivamente da software open source che opera su alcuni cluster di server dedicati su
piattaforma LAMP, dislocati principalmente in Florida. Il sistema attualmente in uso è la terza generazione di
software a supporto dei progetti Wikimedia.

In origine Wikipedia girava su UseModWiki, dal gennaio 2002 iniziò a girare su un software wiki con estensioni
PHP e database MySQL. Tale software venne scritto espressamente per il progetto Wikipedia da Magnus Manske.
Numerose modifiche furono applicate per migliorare le prestazioni in risposta alla crescente domanda. Il software
venne quindi riscritto, questa volta da Lee Daniel Crocker. Realizzata nel luglio 2002, la terza riscrittura del software
fu chiamata MediaWiki. Rilasciata sotto licenza GNU General Public License, è la piattaforma attualmente usata da
tutti i progetti Wikimedia.

Wikipedia è stata gestita da un solo server fino al 2003, quando la configurazione fu espansa in un'architettura
distribuita n-tier. Nel gennaio 2005 il progetto girava su 39 server dislocati in Florida. Questa configurazione
prevedeva un singolo database server principale basato su MySQL e alcuni database server dipendenti, 21 web
server per il software Apache e 7 cache server Squid per velocizzare il traffico. A luglio 2005 le dimensioni del
cluster erano aumentate a più di 80 server. Ad agosto 2006 i server sono cresciuti fino a diventare 240. La
configurazione attuale comprende un cluster principale a Tampa, Florida, che ospita tutti i database server e alcuni
cache server, e due gruppi di cache server destinati ad alleggerire il traffico europeo e asiatico, rispettivamente ad
Amsterdam e Seoul, per un totale di circa 350 server.

In funzione della loro provenienza geografica, le richieste sono gestite da un primo livello di server che contengono
delle copie statiche delle pagine. Tali server gestiscono la maggior parte del traffico del sito, costituito dalla lettura
delle voci da parte di utenti non registrati, senza coinvolgere il livello applicativo né il database. Le richieste che non
possono essere soddisfatte localmente sono inviate ai server dedicati al bilanciamento del carico che a loro volta
inoltrano la richiesta ad uno dei web server Apache. Su tali server applicativi viene effettuato il rendering della
pagina richiesta a partire dai dati contenuti nel database. Ulteriori livelli di cache e replicazione dei dati consentono
di ridurre al minimo il peso di ciascuna richiesta. Server separati sono dedicati alla gestione delle immagini e dei file
multimediali, così come ad altre attività di servizio e monitoraggio.

Seguendo lo stesso spirito di Wikipedia, Wikimedia Foundation ha avviato altri progetti di raccolta e divulgazione
della conoscenza:

• Wikisource è una biblioteca libera e gratuita a cui tutti possono collaborare, che raccoglie, in diverse
lingue, opere e documenti di dominio pubblico o rilasciati nei termini della licenza GNU Free
Documentation License;

• Wikimedia Commons è un archivio di immagini, suoni ed altri file multimediali con licenza libera. I file
inviati a Wikicommons possono essere usati direttamente da tutti gli altri progetti che si trovano sui server

50
Wikimedia, inclusi Wikipedia, Wikibooks, Wikinews, Wikispecies, come se fossero caricati localmente su
ogni singolo progetto;

• Wikiquote è nato con l'obiettivo di produrre in modo collaborativo un'ampia raccolta di citazioni di
persone famose, opere letterarie, cinematografiche, teatrali o musicali, memoriali, proverbi, epitaffi etc., e
di fornire approfondimenti su di essi. Dopo Wikipedia è il wiki più conosciuto, nel 2007 le citazioni di
Wikiquote in italiano sono state coinvolte in un esperimento scientifico dell'Universidad Politécnica de
Valencia, con lo scopo di verificare se sia possibile identificare automaticamente le frasi comiche. La
versione italiana è seconda solo a quella inglese per il numero di citazioni;

• Wikizionario è un progetto collaborativo per produrre un dizionario online libero e multiligue, in tutte le
lingue, con significati, etimologie e pronunce. Il progetto (originariamente solo in inglese) ha visto la luce
alla fine del 2002. I primi Wikizionari multilingue creati, sono stati quello francese e quello polacco. Ad
oggi sono sviluppati Wikizionari in quasi 150 lingue.

51
BIBLIOGRAFIA
• Amy Shuen “Web 2.0 : A Strategy Guide: Business thinking and strategies behind
successful Web 2.0 implementations” – O’Reilly Media
• Luca Grivet Foiaia “Web 2.0 Guida al nuovo fenomeno della rete” – Hoepli Informatica;
• Linus Torvalds e David Diamond “Rivoluzionario per caso” – Garzanti
• http://oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html
• http://www.adaptivepath.com/ideas/essays/archives/000385.php
• http://vanderwal.net/images/broadfolksonomy.jpg
• http://en.wikipedia.org/wiki/Reed’s_law
• http://en.wikipedia.org/wiki/Document_Object_Model
• http://en.wikipedia.org/wiki/Java_FX
• http://it.wikipedia.org/wiki/Legge_di_Metcalfe
• http://it.wikipedia.org/wiki/Wikipedia
• http://it.wikipedia.org/wiki/google
• http://it.wikipedia.org/wiki/Adobe_Flex
• http://it.wikipedia.org/wiki/Coda_lunga
• http://it.wikipedia.org/wiki/Social_network
• http://it.wikipedia.org/wiki/Social_web
• http://it.wikipedia.org/wiki/Really_simple_syndication
• http://it.wikipedia.org/wiki/Microsoft_Visual_Studio
• http://it.wikipedia.org/wiki/Java_(linguaggio)
• http://it.wikipedia.org/wiki/OpenLaszlo
• http://it.wikipedia.org/wiki/Facebook
• http://www.dblog.it/public/post/seo-un-mod-rewrite-in-asp-515.asp
• http://www.webmasterpoint.org/asp/net/65-url-rewriting-asp-net-guida.asp
• http://www.masternewmedia.org/it/2007/04/07/blog_statistiche_e_trend.htm
• http://www.istat.it/dati/pubbsci/contributi/Contributi/contr_2008/04_2008.pdf
• http://php.html.it/articoli/leggi/2463/mashup-con-php/
• http://www.programmableweb.com/mashups
• http://www.programmableweb.com/apis
• http://web2list.com/logos/?max_count=50
• http://www.alexa.com/data/details/traffic_details/facebook.com

52

También podría gustarte